• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 28
  • 10
  • Tagged with
  • 357
  • 237
  • 57
  • 43
  • 41
  • 41
  • 35
  • 34
  • 31
  • 30
  • 29
  • 29
  • 27
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Gastrosquise: avaliação do padrão de crescimento fetal e predição de baixo peso no nascimento / Fetal gastroschisis: evaluation of pattern and prediction of low birth weight

Centofanti, Sandra Frankfurt 08 October 2014 (has links)
INTRODUÇÃO: Gastrosquise é uma malformação da parede abdominal do feto e uma das principais complicações relacionadas à restrição de crescimento fetal. Objetivo principal: avaliar o padrão de crescimento de fetos com gastrosquise para cada parâmetro biométrico. Objetivo secundário: avaliar o déficit de crescimento em três períodos gestacionais e predizer recém-nascidos pequenos para idade gestacional a partir de medidas de parâmetros biométricos abaixo do percentil 10. MÉTODOS: Este é um estudo do tipo coorte retrospectivo. Foram selecionados 70 casos para avaliação do padrão de crescimento. As medidas de cada parâmetro biométrico: circunferência cefálica, circunferência abdominal, comprimento femoral, razão circunferência cefálica/circunferência abdominal e peso fetal estimado foram plotadas em um gráfico de dispersão para comparação com a curva de referência. A diferença porcentual entre as médias das medidas dos fetos com gastrosquise em relação aos normais foi determinada. Para a avaliação do déficit de crescimento foram incluídos 59 casos, com ao menos um exame em cada período gestacional (I:20 a 25 semanas e 6 dias; II:26 a 31 semanas e 6 dias; III: 32 semanas até o parto). O déficit de cada parâmetro biométrico foi obtido a partir da comparação entre os períodos gestacionais. Para a predição de recém-nascido pequeno para idade gestacional foram utilizadas as medidas abaixo do percentil 10 de cada parâmetro biométrico nos períodos I e II. RESULTADOS: Na avaliação do padrão de crescimento, observa-se diferença significativa entre os fetos com gastrosquise e fetos normais a partir de 20 semanas de gestação (p<0,005). Na avaliação do déficit de crescimento, apenas peso fetal estimado apresentou diferença significativa (p=0,030). O porcentual de fetos com peso fetal estimado abaixo do percentil 10 no período 2 foi 40% maior do que no período 1, e 93% maior no período 3 do que no 1. Na predição de recémnascidos pequeno para idade gestacional, apenas a circunferência cefálica (razão chance= 6.07; sensibilidade= 70.8%; especificidade= 71.4%) e a circunferência abdominal (razão chance=0,558; sensibilidade= 41,7%; especificidade= 80%) no período II, foram consideradas. CONCLUSÃO: Fetos com gastrosquise apresentam medidas dos parâmetros biométricos significativamente menores do que as de fetos normais, a partir de 20 semanas de gestação. Na avaliação do déficit de crescimento, observa-se maior incidência de restrição de crescimento fetal nos períodos II e III em comparação ao período I. É possível predizer recém-nascidos com baixo peso ao nascimento, a partir de medidas de circunferência cefálica e circunferência abdominal, abaixo do percentil 10 no período II / INTRODUCTION: Gastroschisis is a congenital abdominal wall defect of the fetus and one of its main complications is related to fetal growth restriction. OBJECTIVES: Primary: To evaluate the growth pattern of fetuses with gastroschisis according to each biometric parameter; Secondary: to evaluate growth deficit in three gestational periods and to predict low birth weight from measures of biometric parameters below the 10th percentile. METHODS: This is a retrospective cohort study. We selected 70 cases for evaluation of the growth pattern. The measurements of each biometric parameter: head circumference, abdominal circumference, femur length, head circumference/abdominal circumference ratio and estimated fetal weight were plotted in a growth chart for comparison with the curve of normality. The percentage difference between the mean values of the fetuses with gastroschisis in relation to normal fetuses was then determined. For the evaluation of growth deficit 59 cases with at least one exam in each gestational period (I: 20 to 25 weeks and 6 days; II: 26 to 31 weeks and 6 days; III: 32 weeks until delivery) were included. The deficit of each biometric parameter was obtained from the comparison between these gestational periods. For the prediction of low birth weight, the measures below the 10th percentile of each biometric parameter in periods I and II were tested. RESULTS: In the evaluation of the growth pattern a significant difference between the fetuses with gastroschisis and normal fetuses from 20 weeks of gestation (p < 0.005) is observed. In the evaluation of growth deficit only estimated fetal weight showed a significant difference (p= 0.030). The percentage of fetuses with estimated fetal weight values below 10 percentile in period 2 was 40% higher than that in period I, and 93% higher in period III than in I. In the prediction of low birth weight, only head circunference (odds ratio= 6.07; sensitivity= 70.8 %; specificity = 71.4 %) and abdominal circunference (odds ratio= 0.558; sensitivity = 41.7 %; specificity = 80 %) in period II were predictive. CONCLUSION: Fetuses with gastroschisis show biometric parameters measures significantly smaller than the measures of normal fetuses with 20 weeks of gestation and/or more. In the evaluation of growth deficit, there is a higher incidence of fetal growth restriction in periods II and III. It is possible to predict newborns with low birth weight from measures of head circunfernce and abdominal circunference below the 10th percentile in period II
312

Trailing-edge noise: development and application of a noise prediction tool for the assessment and design of wind turbine airfoils. / Ruído de bordo de fuga: desenvolvimento e aplicação de ferramenta para avaliação e projeto de aerofólios para turbinas eólicas.

Saab Junior, Joseph Youssif 18 November 2016 (has links)
This report concerns the research, design, implementation and application of an airfoil trailing-edge noise prediction tool in the development of new, quieter airfoil for large-size wind turbine application. The tool is aimed at enabling comparative acoustic performance assessment of airfoils during the early development cycle of new blades and rotors for wind turbine applications. The ultimate goal is to enable the development of quieter wind turbines by the Wind Energy Industry. The task was accomplished by developing software that is simultaneously suitable for comparative design, computationally efficient and user-friendly. The tool was integrated into a state-of-the-art wind turbine design and analysis code that may be downloaded from the web, in compiled or source code form, under general public licensing, at no charge. During the development, an extensive review of the existing airfoil trailing-edge noise prediction models was accomplished, and the semi-empirical BPM model was selected and modified to cope with generic airfoil geometry. The intrinsic accuracy of the original noise prediction model was evaluated as well as its sensitivity to the turbulence length scale parameter, with restrictions imposed accordingly. The criterion allowed comparison of performance of both CFD-RANS and a hybrid solver (XFLR5) on the calculation of the turbulent boundary layer data, with the eventual adjustment and selection of the latter. After all the elements for assembling the method had been selected and the code specified, a collaboration project was made effective between Poli-USP and TU-Berlin, which allowed the seamless coupling of the new airfoil TE noise module, \"PNoise\", to the popular wind turbine design/analysis integrated environment, \"QBlade\". After implementation, the code calculation routines were thoroughly verified and then used in the development of a family of \"silent profiles\" with good relative acoustic and aerodynamic performance. The sample airfoil development study closed the initial design cycle of the new tool and illustrated its ability to fulfill the originally intended purpose of enabling the design of new, quieter blades and rotors for the advancement of the Wind Energy Industry with limited environmental footprint. / Este trabalho descreve a pesquisa de elementos iniciais, o projeto, a implantação e a aplicação de uma ferramenta de predição de ruído de bordo de fuga, no desenvolvimento de aerofólios mais silenciosos para turbinas eólicas de grande porte. O objetivo imediato da ferramenta é permitir a comparação de desempenho acústico relativo entre aerofólios no início do ciclo de projeto de novas pás e rotores de turbinas eólicas. O objetivo mais amplo é possibilitar o projeto de turbinas eólicas mais silenciosas, mas de desempenho aerodinâmico preservado, pela indústria da Energia Eólica. A consecução desses objetivos demandou o desenvolvimento de uma ferramenta que reunisse, simultaneamente, resolução comparativa, eficiência computacional e interface amigável, devido à natureza iterativa do projeto preliminar de um novo rotor. A ferramenta foi integrada a um ambiente avançado de projeto e análise de turbinas eólicas, de código aberto, que pode ser livremente baixado na Web. Durante a pesquisa foi realizada uma ampla revisão dos modelos existentes para predição de ruído de bordo de fuga, com a seleção do modelo semi-empírico BPM, que foi modificado para lidar com geometrias genéricas. A precisão intrínseca do modelo original foi avaliada, assim como sua sensibilidade ao parâmetro de escala de turbulência transversal, com restrições sendo impostas a esse parâmetro em decorrência da análise. Esse critério permitiu a comparação de resultados de cálculo provenientes de método CFD-RANS e de método híbrido (XFLR5) de solução da camada limite turbulenta, com a escolha do último. Após a seleção de todos os elementos do método e especificação do código, uma parceria foi estabelecida entre a Poli-USP e a TU-Berlin, que permitiu a adição de um novo módulo de ruído de bordo de fuga, denominado \"PNoise\", ao ambiente de projeto e análise integrado de turbinas eólicas \"QBlade\". Após a adição, as rotinas de cálculo foram criteriosamente verificadas e, em seguida, aplicadas ao desenvolvimento de aerofólios mais silenciosos, com bons resultados acústicos e aerodinâmicos relativos a uma geometria de referência. Esse desenvolvimento ilustrou a capacidade da ferramenta de cumprir a missão para a qual foi inicialmente projetada, qual seja, permitir à Indústria desenvolver pás mais silenciosas que irão colaborar com o avanço da energia eólica através da limitação do seu impacto ambiental.
313

Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methods

Rodrigues, Agatha Sacramento 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
314

Predição de mudanças conjuntas de artefatos de software com base em informações contextuais / Predicting co-changes of software artifacts based on contextual information

Wiese, Igor Scaliante 18 March 2016 (has links)
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software / Co-change prediction aims to make developers aware of which artifacts may change together with the artifact they are working on. In the past, researchers relied on structural analysis to build prediction models. More recently, hybrid approaches relying on historical information and textual analysis have been proposed. Despite the advances in the area, software developers still do not use these approaches widely, presumably because of the number of false recommendations. The hypothesis of this thesis is that contextual information of software changes collected from issues, developers\' communication, and commit metadata describe the circumstances and conditions under which a co-change occurs and this is useful to predict co-changes. The aim of this thesis is to use contextual information to build co-change prediction models improving the overall accuracy, especially decreasing the amount of false recommendations. We built predictive models specific for each pair of files using contextual information and the Random Forest machine learning algorithm. The approach was evaluated in 129 versions of 10 open source projects from the Apache Software Foundation. We compared our approach to a baseline model based on association rules, which is often used in the literature. We evaluated the performance of the prediction models, investigating the influence of data aggregation to build training and test sets, as well as the identification of the most relevant contextual information. The results indicate that models based on contextual information can correctly predict 88% of co-change instances, against 19% achieved by the association rules model. This indicates that models based on contextual information can be 3 times more accurate. Models created with contextual information collected in each software version were more accurate than models built from an arbitrary amount of contextual information collected from more than one version. The most important pieces of contextual information to build the prediction models were: number of lines of code added or modified, number of lines of code removed, code churn, number of words in the discussion and description of a task, number of comments, and role of developers in the discussion (measured by the closeness value obtained from the communication social network). We asked project developers about the relevance of the results obtained by the prediction models based on contextual information. According to them, the results can help new developers to the project, since these developers have no knowledge about the architecture and are usually not familiar with the artifacts history. Thus, our results indicate that prediction models based on the contextual information are useful to support developers during the maintenance and evolution activities
315

Redes neurais residuais profundas e autômatos celulares como modelos para predição que fornecem informação sobre a formação de estruturas secundárias proteicas / Residual neural networks and cellular automata as protein secondary structure prediction models with information about folding

Pereira, José Geraldo de Carvalho 15 March 2018 (has links)
O processo de auto-organização da estrutura proteica a partir da cadeia de aminoácidos é conhecido como enovelamento. Apesar de conhecermos a estrutura tridimencional de muitas proteínas, para a maioria delas, não possuímos uma compreensão suficiente para descrever em detalhes como a estrutura se organiza a partir da sequência de aminoácidos. É bem conhecido que a formação de núcleos de estruturas locais, conhecida como estrutura secundária, apresenta papel fundamental no enovelamento final da proteína. Desta forma, o desenvolvimento de métodos que permitam não somente predizer a estrutura secundária adotada por um dado resíduo, mas também, a maneira como esse processo deve ocorrer ao longo do tempo é muito relevante em várias áreas da biologia estrutural. Neste trabalho, desenvolvemos dois métodos de predição de estruturas secundárias utilizando modelos com o potencial de fornecer informações mais detalhadas sobre o processo de predição. Um desses modelos foi construído utilizando autômatos celulares, um tipo de modelo dinâmico onde é possível obtermos informações espaciais e temporais. O outro modelo foi desenvolvido utilizando redes neurais residuais profundas. Com este modelo é possível extrair informações espaciais e probabilísticas de suas múltiplas camadas internas de convolução, o que parece refletir, em algum sentido, os estados de formação da estrutura secundária durante o enovelamento. A acurácia da predição obtida por esse modelo foi de ~78% para os resíduos que apresentaram consenso na estrutura atribuída pelos métodos DSSP, STRIDE, KAKSI e PROSS. Tal acurácia, apesar de inferior à obtida pelo PSIPRED, o qual utiliza matrizes PSSM como entrada, é superior à obtida por outros métodos que realizam a predição de estruturas secundárias diretamente a partir da sequência de aminoácidos. / The process of self-organization of the protein structure is known as folding. Although we know the structure of many proteins, for a majority of them, we do not have enough understanding to describe in details how the structure is organized from its amino acid sequence. In this work, we developed two methods for secondary structure prediction using models that have the potential to provide detailed information about the prediction process. One of these models was constructed using cellular automata, a type of dynamic model where it is possible to obtain spatial and temporal information. The other model was developed using deep residual neural networks. With this model it is possible to extract spatial and probabilistic information from its multiple internal layers of convolution. The accuracy of the prediction obtained by this model was ~ 78% for residues that showed consensus in the structure assigned by the DSSP, STRIDE, KAKSI and PROSS methods. Such value is higher than that obtained by other methods which perform the prediction of secondary structures from the amino acid sequence only.
316

Multiclassificador inteligente de falhas no domínio do tempo em motores de indução trifásicos alimentados por inversores de frequência / Time domain intelligent faults multiclassifier in inverter fed three-phase induction motors

Godoy, Wagner Fontes 18 April 2016 (has links)
Os motores de indução desempenham um importante papel na indústria, fato este que destaca a importância do correto diagnóstico e classificação de falhas ainda em fase inicial de sua evolução, possibilitando aumento na produtividade e, principalmente, eliminando graves danos aos processos e às máquinas. Assim, a proposta desta tese consiste em apresentar um multiclassificador inteligente para o diagnóstico de motor sem defeitos, falhas de curto-circuito nos enrolamentos do estator, falhas de rotor e falhas de rolamentos em motores de indução trifásicos acionados por diferentes modelos de inversores de frequência por meio da análise das amplitudes dos sinais de corrente de estator no domínio do tempo. Para avaliar a precisão de classificação frente aos diversos níveis de severidade das falhas, foram comparados os desempenhos de quatro técnicas distintas de aprendizado de máquina; a saber: (i) Rede Fuzzy Artmap, (ii) Rede Perceptron Multicamadas, (iii) Máquina de Vetores de Suporte e (iv) k-Vizinhos-Próximos. Resultados experimentais obtidos a partir de 13.574 ensaios experimentais são apresentados para validar o estudo considerando uma ampla faixa de frequências de operação, bem como regimes de conjugado de carga em 5 motores diferentes. / Induction motors play an important role in the industry, a fact that highlights the importance of correct diagnosis and classification of faults on these machines still in early stages of their evolution, allowing increase in productivity and mainly, eliminating major damage to the processes and machines. Thus, the purpose of this thesis is to present an intelligent multi-classifier for the diagnoses of healthy motor, short-circuit faults in the stator windings, rotor broken bars and bearing faults in induction motors operating with different models of frequency inverters by analyzing the amplitude of the stator current signal in the time domain. To assess the classification accuracy across the various levels of faults severity, the performances of four different learning machine techniques were compared; namely: (i) Fuzzy ARTMAP network, (ii) Multilayer Perceptron Network, (iii) Support Vector Machine and (iv) k-Nearest-Neighbor. Experimental results obtained from 13.574 experimental tests are presented to validate the study considering a wide range of operating frequencies and also load conditions using 5 different motors.
317

SIMTar: uma ferramenta para predição de SNPs interferindo em sítios alvos de microRNAs / SIMTar: a tool for prediction of SNPs interfering on microRNA target sites

Piovezani, Amanda Rusiska 12 September 2013 (has links)
Polimorfismos de um nucleotídeo (SNPs) podem alterar, além de códons de leitura da tradução de genes, posições genômicas importantes do processo de regulação gênica, como sítios de iniciação de transcrição, de splicing e, mais especificamente, sítios alvos de microRNAs (miRNAs). Em parti- cular, a identificação de SNPs alterando sítios alvos de miRNAs é um problema em aberto, embora venha ganhando um importante destaque nos últimos anos decorrente dos avanços descobertos sobre a capacidade dos miRNAs como elementos reguladores do genoma, associados inclusive a muitas doenças como o câncer e vários transtornos psiquiátricos. Os recursos computacionais atualmente disponíveis para esta finalidade (alguns bancos de dados e uma ferramenta) estão restritos à análise de SNPs na região 3UTR (UnTranslated Regions) de RNAs mensageiros, onde miRNAs geralmente se ligam para reprimir sua tradução. No entanto, essa é uma simplificação do problema, dado que já se conhece a regulação por miRNAs ativando ou reprimindo a transcrição gênica quando ligados à sua região promotora, aumentando a efetividade da regulação negativa da tradução quando ligados à região codificante do gene ou ainda miRNAs se ligando a RNAs não codificantes. Esses recursos se limitam também à identificação de SNPs na região seed dos sítios de miRNAs, e portanto só identificam criação ou ruptura de sítios. Porém, SNPs localizados fora dessa região não só podem colaborar na criação e ruptura de sítios como também interferir na estabilidade de ligação de miRNAs e, por- tanto, na efetividade da regulação. Além disso, considerando toda a extensão do sítio, não somente a seed , é possível ocorrer mais de um SNP e, sendo assim, a combinação desses SNPs pode ter uma influência ainda maior na ligação com o miRNA. Os recursos atuais também não informam quais alelos dos SNPs, muito menos quais combinações deles, estão causando qual efeito. Por fim, tais recursos estão restritos a Homo sapiens e Mus musculus. Assim, este trabalho apresenta a ferramenta computacional SIMTar (SNPs Interfering in MicroRNA Targets), desenvolvida para identificar SNPs que alteram sítios alvos de miRNAs e que preenche as lacunas mencionadas. Além disso, é descrita uma aplicação de SIMTar na análise de 114 SNPs associados à esquizofrenia, na qual todos foram preditos interferindo em sítios alvos de miRNAs. / Single nucleotide polymorphisms (SNPs) can be involved in alteration of not only open reading frame but also important genomic positions of gene regulation process such as transcription initiation sites, splicing sites and microRNA target sites. In particular, the identification of SNPs interfering on microRNA target sites is still an open problem, despite its increasing prominence in recent years due to the discoveries about the microRNA abilities as regulatory elements in the genome and association with severals diseases such as cancer and psychiatric disorders. The computational resources currently available for this purpose (four databases and one tool) are restricted to the analysis of SNPs in the 3UTR (UnTranslated Regions) of mRNAs, where the microRNAs typically bind in order to repress their translation. However, this is a simplification of the problem, since it is already known the gene transcription activation by microRNAs bound to its promoter region, increasing of the effectiveness of negative regulation of translation when microRNAs are bound to the coding region of the gene or binding of microRNA into non-coding RNAs. These resources are also limited to the identification of SNPs in the seed region of miRNAs, and therefore they can only identify sites creation or disruption. However, SNPs located outside this region can not only create and disrupt target sites but also interfere on the stability of miRNAs binding and therefore on the regulation effectiveness. Moreover, considering the target site length, more than one SNP can occur inside of a site and thus, the combination of these SNPs can have an even greater influence on the microRNA binding. Also, current resources do not display which alleles of SNPs or what combinations of them are causing which effect. Finally, these features are restricted to the Homo sapiens and Mus musculus species. This work presents the computational tool SIMTar (SNPs Interfering on MicroRNA Targets), developed to identify SNPs that alter miRNA target sites and fills the mentioned gaps. Finally, it is described an application of SIMTar on the analysis of 114 SNPs associated with schizophrenia, all of them being predicted interfering with miRNA target sites.
318

Spatial crash prediction models: an evaluation of the impacts of enriched information on model performance and the suitability of different spatial modeling approaches / Modelos espaciais de previsão de acidentes: uma avaliação do desempenho dos modelos a partir da incorporação de informações aprimoradas e a adequação de diferentes abordagens de modelagem espacial

Monique Martins Gomes 04 December 2018 (has links)
The unavailability of crash-related data has been a long lasting challenge in Brazil. In addition to the poor implementation and follow-up of road safety strategies, this drawback has hampered the development of studies that could contribute to national goals toward road safety. In contrast, developed countries have built their effective strategies on solid data basis, therefore, investing a considerable time and money in obtaining and creating pertinent information. In this research, we aim to assess the potential impacts of supplementary data on spatial model performance and the suitability of different spatial modeling approaches on crash prediction. The intention is to notify the authorities in Brazil and other developing countries, about the importance of having appropriate data. In this thesis, we set two specific objectives: (I) to investigate the spatial model prediction accuracy at unsampled subzones; (II) to evaluate the performance of spatial data analysis approaches on crash prediction. Firstly, we carry out a benchmarking based on Geographically Weighted Regression (GWR) models developed for Flanders, Belgium, and São Paulo, Brazil. Models are developed for two modes of transport: active (i.e. pedestrians and cyclists) and motorized transport (i.e. motorized vehicles occupants). Subsequently, we apply the repeated holdout method on the Flemish models, introducing two GWR validation approaches, named GWR holdout1 and GWR holdout2. While the former is based on the local coefficient estimates derived from the neighboring subzones and measures of the explanatory variables for the validation subzones, the latter uses the casualty estimates of the neighboring subzones directly to estimate outcomes for the missing subzones. Lastly, we compare the performance of GWR models with Mean Imputation (MEI), K-Nearest Neighbor (KNN) and Kriging with External Drift (KED). Findings showed that by adding the supplementary data, reductions of 20% and 25% for motorized transport, and 25% and 35% for active transport resulted in corrected Akaike Information Criterion (AICc) and Mean Squared Prediction Errors (MSPE), respectively. From a practical perspective, the results could help us identify hotspots and prioritize data collection strategies besides identify, implement and enforce appropriate countermeasures. Concerning the spatial approaches, GWR holdout2 out performed all other techniques and proved that GWR is an appropriate spatial technique for both prediction and impact analyses. Especially in countries where data availability has been an issue, this validation framework allows casualties or crash frequencies to be estimated while effectively capturing the spatial variation of the data. / A indisponibilidade de variáveis explicativas de acidentes de trânsito tem sido um desafio duradouro no Brasil. Além da má implementação e acompanhamento de estratégias de segurança viária, esse inconveniente tem dificultado o desenvolvimento de estudos que poderiam contribuir com as metas nacionais de segurança no trânsito. Em contraste, países desenvolvidos tem construído suas estratégias efetivas com base em dados sólidos, e portanto, investindo tempo e dinheiro consideráveis na obtenção e criação de informações pertinentes. O objetivo dessa pesquisa é avaliar os possíveis impactos de dados suplementares sobre o desempenho de modelos espaciais, e a adequação de diferentes abordagens de modelagem espacial na previsão de acidentes. A intenção é notificar as autoridades brasileiras e de outros países em desenvolvimento sobre a importância de dados adequados. Nesta tese, foram definidos dois objetivos específicos: (I) investigar a acurácia do modelo espacial em subzonas sem amostragem; (II) avaliar o desempenho de técnicas de análise espacial de dados na previsão de acidentes. Primeiramente, foi realizado um estudo comparativo, baseado em modelos desenvolvidos para Flandres (Bélgica) e São Paulo (Brasil), através do método de Regressão Geograficamente Ponderada (RGP). Os modelos foram desenvolvidos para dois modos de transporte: ativos (pedestres e ciclistas) e motorizados (ocupantes de veículos motorizados). Subsequentemente, foi aplicado o método de holdout repetido nos modelos Flamengos, introduzindo duas abordagens de validação para GWR, denominados RGP holdout1 e RGP holdout2. Enquanto o primeiro é baseado nas estimativas de coeficientes locais derivados das subzonas vizinhas e medidas das variáveis explicativas para as subzonas de validação, o último usa as estimativas de acidentes das subzonas vizinhas, diretamente, para estimar os resultados para as subzonas ausentes. Por fim, foi comparado o desempenho de modelos RGP e outras abordagens, tais como Imputação pela Média de dados faltantes (IM), K-vizinhos mais próximos (KNN) e Krigagem com Deriva Externa (KDE). Os resultados mostraram que, adicionando os dados suplementares, reduções de 20% e 25% para o transporte motorizado, e 25% e 35% para o transporte ativo, foram resultantes em termos de Critério de Informação de Akaike corrigido (AICc) e Erro Quadrático Médio da Predição (EQMP), respectivamente. Do ponto de vista prático, os resultados poderiam ajudar a identificar hotspots e priorizar estratégias de coleta de dados, além de identificar, implementar e aplicar contramedidas adequadas. No que diz respeito às abordagens espaciais, RGP holdout2 teve melhor desempenho em relação a todas as outras técnicas e, provou que a RGP é uma técnica espacial apropriada para ambas as análises de previsão e impactos. Especialmente em países onde a disponibilidade de dados tem sido um problema, essa estrutura de validação permite que as acidentes sejam estimados enquanto, capturando efetivamente a variação espacial dos dados.
319

Modelagem generalista ou individualizada na construção de modelos preditivos para a identificação de insucesso acadêmico

Marcon, Paulo Fernando Benetti 31 March 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-06-27T13:30:09Z No. of bitstreams: 1 Paulo Fernando Benetti Marcon_.pdf: 962793 bytes, checksum: 8c45fbcf4084b51d6348450029bf5f28 (MD5) / Made available in DSpace on 2017-06-27T13:30:09Z (GMT). No. of bitstreams: 1 Paulo Fernando Benetti Marcon_.pdf: 962793 bytes, checksum: 8c45fbcf4084b51d6348450029bf5f28 (MD5) Previous issue date: 2017-03-31 / Nenhuma / O uso de recursos tecnológicos para auxiliar nas tarefas de ensino e aprendizagem é uma realidade. A disseminação de ambientes virtuais de aprendizado, como meio de promover a realização de cursos on-line, demonstra franca expansão. Além de tarefas que propiciam a ampliação dos meios de ensino, tais sistemas permitem o registro completo de todas as interações dos alunos no decorrer da realização de disciplinas. Essa gama de informação produzida pode ser utilizada para predição de estudantes em situação de risco enquanto a disciplina ocorre, o que para instituições de ensino pode representar redução nos índices de reprovação e evasão. Entretanto o número elevado de variáveis envolvidas, ainda mais quando várias disciplinas são consideradas, dificulta a construção de modelos computacionais eficientes. Desta forma, este trabalho visa investigar a construção de modelos generalistas – treinados com dados de diversas disciplinas disponíveis – contrapondo a construção de modelos individualizados – treinados individualmente com dados de cada disciplina. Para isto um amplo conjunto de dados educacionais foi extraído, obtido de uma instituição de ensino superior, composto de diferentes cursos, disciplinas e períodos letivos, não sendo utilizadas variáveis que invadissem a privacidade dos estudantes. Uma vez definidas as características e transformações dos dados que contribuíam à identificação de insucesso acadêmico no decorrer da disciplina então foram aplicados algoritmos clássicos de Mineração de Dados seguindo ambas as abordagens, generalista e individualizada, e a cada unidade de conteúdo das disciplinas. Os resultados obtidos demonstram vantagens e desvantagens de ambas as abordagens e que dadas as circunstâncias os modelos individualizados podem ser melhores, obtendo taxas de acerto maiores, e que em outras circunstâncias modelos generalistas apresentam um custo menor para a obtenção e manutenção dos modelos preditivos, mesmo com uma queda nos índices de acerto. / The use of technological resources to assist teaching and learning tasks is a reality. The dissemination of virtual learning environments, as a mean of promoting online courses, shows a clear expansion. In addition to tasks that allow the expansion of teaching resources, such systems allow the complete recording of all the interactions of the students inside the courses. This range of information produced can be used to predict at-risk students while the course is taking place, which for educational institutions may represent a reduction in failure and dropout rates. However, the high number of variables involved, especially when several courses are considered, makes it difficult to construct efficient computational models. In this way, this work aims to investigate the construction of generalist models – trained with data from several available courses – counterposing the construction of individualized models – individually trained with data from each course. In this way, a broad set of educational data was extracted, obtained from a higher education institution, composed of different undergraduate programs, courses and academic periods, not using variables that invaded students' privacy. Once the characteristics and transformations of the data that contributed to the identification of academic insuccess during the course were defined, then classical data mining algorithms were applied following both generalist and individualized approaches and to each content unit of the course. The results obtained demonstrate the advantages and disadvantages of both approaches and that given the circumstances the individualized models may be better, obtaining higher hit rates, and that in other circumstances generalist models present a lower cost for the obtaining and maintenance of the predictive models, even with a drop in hit rates.
320

Elhealth : utilizando internet das coisas e predição computacional para gerenciamento elástico de recursos humanos em hospitais inteligentes

Fischer, Gabriel Souto 28 February 2019 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2019-03-22T15:48:30Z No. of bitstreams: 1 Gabriel Souto Fischer_.pdf: 6896303 bytes, checksum: 94fdcc73f442a52096c513cfec8e03f1 (MD5) / Made available in DSpace on 2019-03-22T15:48:30Z (GMT). No. of bitstreams: 1 Gabriel Souto Fischer_.pdf: 6896303 bytes, checksum: 94fdcc73f442a52096c513cfec8e03f1 (MD5) Previous issue date: 2019-02-28 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os hospitais são pontos de atendimento extremamente importantes para garantir o tratamento adequado da saúde humana. Um dos principais problemas a serem enfrentados são as filas de atendimento aos pacientes cada vez mais superlotadas, que fazem com que os pacientes fiquem cada vez mais tempo com problemas de saúde sem tratamento adequado. A alocação de profissionais de saúde em ambientes hospitalares não é capaz de se adaptar à demanda de pacientes, e há momentos em que salas com pouco uso têm profissionais ociosos, e salas com muito uso acabam tendo menos profissionais do que o necessário. Os trabalhos anteriores acabam não resolvendo o problema, uma vez que se concentram em maneiras de automatizar o tratamento da saúde, mas não em técnicas para melhorar a alocação de recursos humanos disponíveis. Neste contexto, o presente trabalho propõe o ElHealth, um modelo focado na IoT capaz de identificar o uso das salas pelos pacientes e, através de técnicas de predição computacional, identificar quando uma sala terá uma demanda que excede a capacidade de atendimento, propondo ações para movimentar os recursos humanos para se adaptar à demanda futura de pacientes. As principais contribuições do ElHealth são a definição da Elasticidade Preditiva Multinível de Recursos Humanos, uma extensão do conceito de elasticidade de recursos em Cloud Computing para gerenciar o uso de recursos humanos em diferente níveis de um ambiente hospitalar, e a definição do Speedup Elástico Proativo de Recursos Humanos, uma extensão do conceito de Speedup da computação paralela para identificar o ganho de tempo de atendimento com o uso paralelo dinâmico de recursos humanos para atendimento em um ambiente hospitalar. O ElHealth foi simulado em ambiente hospitalar utilizando dados de uma policlínica brasileira e obteve resultados promissores, sendo capaz de diminuir a quantidade média de pacientes aguardando e reduzir o tempo de espera por atendimento no ambiente proposto. / Hospitals are extremely important care points for ensuring the proper treatment of human health. One of the main problems to be faced is the increasingly overcrowded patient care queues, who end up getting more and more time with health problems without proper treatment. The allocation of health professionals in hospital environments is not able to adapt to the demands of patients, and there are times when rooms with little use have idle professionals, and rooms with a lot of use having fewer professionals than necessary. Previous works end up not solving the problem since they focus on ways to automate the treatment of health, but not on techniques for better allocating available human resources. Against this background, the present work proposes ElHealth, an IoT-focused model able to identify patients’ use of the rooms and, through data prediction techniques, to identify when a room will have a demand that exceeds the capacity of care, proposing actions to move human resources to adapt to future patients demand. The main contribution of ElHealth is the definition of Multi-level Predictive Elasticity of Human Resources, an extension of the concept of resource elasticity in Cloud Computing to manage the use of human resources at different levels of a healthcare environment, and the definition of Proactive Human Resource Elastic Speedup, an extension of the Speedup concept of parallel computing to identify the gain of medical care time with the dynamic parallel use of human resources for care in a hospital environment. ElHealth was simulated a hospital environment using data from a Brazilian polyclinic, and obtained promising results, being able to decrease the average number of patients waiting, and reduce waiting time for care in the proposed environment.

Page generated in 0.0368 seconds