• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 28
  • 10
  • Tagged with
  • 357
  • 237
  • 57
  • 43
  • 41
  • 41
  • 35
  • 34
  • 31
  • 30
  • 29
  • 29
  • 27
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Comparação do Gasto energético de repouso obtido pela calorimetria indireta com as equações de predição em pacientes idosos em tratamento crônico de hemodiálise / Comparison of resting energy expenditure obtained by indirect calorimetry with predictive equations for elderly patients on chronic hemodialysis treatment

Juliana Cordeiro Dias Rodrigues 12 June 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Assim como na população geral, as necessidades energéticas diárias dos pacientes em tratamento crônico de hemodiálise (HD) podem ser calculadas multiplicando-se o gasto energético de repouso (GER) pelo nível de atividade física. Até o momento, não há estudos que avaliaram se as equações de predição são precisas para se estimar o GER de idosos em HD. O objetivo do presente estudo foi avaliar a concordância entre o GER obtido pela calorimetria indireta e as equações de predição de Harris&Benedict, Schofield e a proposta pelo documento da Organização Mundial de Saúde de 1985 (FAO 1985) nos pacientes idosos em HD. Tratou-se de um estudo transversal, onde foi avaliado o GER de 57 pacientes idosos não institucionalizados (> 60anos) em tratamento crônico de HD mensurado pela calorimetria indireta e comparado com as equações de predição de Harris&Benedict, Schofield e FAO 1985.A concordância entre o GER medido e as equações foi realizada pelo coeficiente de correlação intraclasse e pela análise de Bland-Altman. Neste estudo pode-se observar que o GER estimado pelas 3 equações foi significantemente maior do que o obtido pela calorimetria indireta. Um grau de reprodutibilidade moderado foi observado entre a calorimetria indireta e as equações. A superestimação foi o principal erro observado, sendo presente na metade dos pacientes. A subestimação foi vista em aproximadamente em 10 % dos pacientes. Com base nesses achados podemos concluir que as 3 equações tiveram uma performance similar ao estimar o GER. E estas podem ser utilizadas para calcular o GER de idosos em HD, na medida em que os nutricionistas reconheçam seus possíveis erros, principalmente quando as equações de predição subestimam o GER medido. / Objectives: The daily energy requirements of hemodialysis (HD) patients can be calculated by multiplying the resting energy expenditure (REE) by the physical activity level. Up to now, there are no studies assessing whether prediction equations are accurate to assess the REE in elderly HD. We aimed to evaluate the agreement between the REE obtained by indirect calorimetry and the prediction equations of Harris&Benedict, Schofield and World Health Organization 1985 (WHO 1985) in elderly patients on hemodialysis (HD). Design, setting and participants: This is a cross-sectional study. The REE of 57 elderly non-institutionalized patients (> 60 years) on HD was measured by indirect calorimetry and compared with the prediction equations of Harris&Benedict, Schofield and WHO 1985. The agreement between the REE and the equations were assessed by the intraclass correlation coefficient and by the Bland-Altman plot analysis. Results: The REE estimated by the 3 equations were significantly higher than that obtained by the indirect calorimetry. A moderate degree of reproducibility was observed between the indirect calorimetry and the equations. Overestimation was the main error observed, being present in half of the patients. Underestimation was seen in approximately 10% of the patients. Conclusion: These 3 equations performed similarly when estimating the REE. They can be used to calculate the REE in elderly HD, but clinicians should be aware of possible errors, mainly when prediction equations underestimate the measured REE.
212

Planejamento de moduladores de polimerização de microtúbulos com propriedades anticâncer, análise estrutural de macromoléculas e geração de uma base virtual de produtos naturais / Design of microtubule polymerization modulators with anticancer properties, structural analysis of macromolecules and development of a virtual database of natural products

Ricardo Nascimento dos Santos 19 November 2015 (has links)
Os trabalhos realizados e apresentados nesta tese de doutorado compreendem diversos estudos computacionais e experimentais aplicados ao planejamento de candidados a novos fármacos para o tratamento do câncer, de uma metodologia inovadora para investigar a formação de complexos proteicos e de uma base de compostos naturais reunindo parte da biodiversidade brasileira com a finalidade de incentivar e auxiliar a descoberta e o desenvolvimento de novos fármacos no país. No primeiro capítulo, são descritos estudos que permitiram a identificação e o desenvolvimento de novas moléculas com atividade anticâncer, através da integração de ensaios bioquímicos e métodos de modelagem molecular na área de química medicinal. Dessa forma, estudos de modelagem molecular e ensaios bioquímicos utilizando uma base de compostos disponibilizada pela colaboração com o Laboratório de Síntese de Produtos Naturais e Fármacos (LSPNF) da UNICAMP, permitiram identificar uma série de moléculas da classe ciclopenta-β-indóis como inibidores da polimerização de microtúbulos com considerável atividade anti-câncer. Estes compostos apresentaram-se capazes de modular a polimerização de microtúbulos em ensaios in vitro frente ao alvo molecular e a células cancerígenas, com valores de IC50 na faixa de 20 a 30 μM. Além disso, estudos experimentais permitiram identificar o sítio da colchicina na tubulina como a região de interação desta classe e ensaios de migração celular comprovaram sua atividade antitumoral. A partir dos resultados obtidos, estudos mais aprofundados de docagem e dinâmica molecular permitiram elucidar as interações moleculares envolvidas no processo de ligação à proteína tubulina, e a utilização destes modelos moleculares no planejamento, síntese e avaliação de uma nova série de compostos. Com base nos dados obtidos por estudos computacionais, modificações foram propostas e novos inibidores da polimerização de tubulina foram planejados, sintetizados e avaliados, resultando na identificação de um inibidor de elevada atividade e perfil farmacodinâmico superior dentre as moléculas planejadas, com IC50 de 5 μM. Concomitantemente, ensaios de citotoxicidade in vitro demostraram uma interessante seletividade destes compostos por células cancerígenas em comparação a células saudáveis. Os estudos desenvolvidos com inibidores de tubulina aqui apresentados permitiram identificar moduladores da polimerização de microtúbulos com excelente perfil anti-câncer, que servirão como modelo para o desenvolvimento de novos tratamentos eficazes contra o câncer. No segundo capítulo é apresentado um novo método para predizer modificações conformacionais e a formação de complexos multiméricos em sistemas proteicos. Este método foi elaborado durante os estudos desenvolvidos ao longo de um programa de intercâmbio no laboratório The Center for Theoretical and Biological Physics (CTBP, Rice University, Estados Unidos), sob orientação do professor Dr. José Nelson Onuchic. Durante este projeto, estudos de modelagem computacional foram realizados utilizando métodos computacionais modernos desenvolvidos no próprio CTBP, tal como o método de Análise de Acoplamento Direto (DCA, do inglês Direct-Coupling Analysis) e um método de simulação conhecido como Modelagem Baseada em Estrutura (SBM, do inglês Structure-Based Modeling). Nos estudos aqui apresentados, os métodos DCA e SBM desenvolvidos no CTBP foram combinados, modificados e ampliados no desenvolvimento de uma nova metodologia que permite identificar mudanças conformacionais e elucidar mecanismos de enovelamento e oligomerização em proteínas. Os resultados obtidos através da predição de diversos complexos proteicos multiméricos com uma alta precisão mostram que este sistema é extremamente eficaz e confiável para identificar regiões de interface de contato entre proteínas a a estrutura quaternária de complexos macromoleculares. Esta nova metodologia permite a elucidação e caracterização de sistemas proteicos incapazes de serem determinados atualmente por métodos puramente experimentais. No terceiro capítulo desta tese de doutorado, é descrito a construção de uma base virtual de dados em uma iniciativa pioneira que tem como principal objetivo reunir e disponibilizar o máximo possível de toda a informação já obtida através do estudo da biodiversidade brasileira. Esta base, intitulada NuBBE DataBase, reúne diversas informações como estrutura molecular 2D e 3D e informações de atividades biológicas de diversas moléculas já isoladas pelo Núcleo de Bioensaios Biossíntese e Ecofisiologia de Produtos Naturais (NuBBE), localizado na Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP). A NuBBEDB será de grande utilidade para a comunidade científica, fornecendo a centros de pesquisa e indústrias farmacêuticas informações para estudos de modelagem molecular, metabolômica, derreplicação e principalmente para o planejamento e a identificação de novos compostos bioativos. / The work developed during a doctorate program and shown here as a PhD thesis reports the accomplishment of a series of computational and experimental studies focused on the development of new anticancer agents, an innovative methodology for the investigation of protein complexes formation and of a new database for natural products based on the Brazilian biodiversity, in an effort to assist and encourage the discovery and development of new pharmaceutical drugs inside country. The first chapter describes studies that resulted in the identification and development of new molecules with anticancer activity through the integration of biochemical experiments and molecular modeling methods in the area of medicinal chemistry. Thus, molecular modeling studies and biochemical assays using a library of compounds provided by collaboration with the Laboratório de Síntese de Produtos Naturais e Fármacos (LSPNF) from the University of Campinas (Unicamp) have identified a number of molecules of the cyclopenta-b-indole class as inhibitors for microtubule polymerisation, with substantial anti-cancer activity. These compounds showed to be able to modulate microtubule polymerisation on in vitro assays against the molecular target and cancer cells with IC50 values in the range of 20 to 30 μM. Moreover, experimental studies have identified the colchicine site of tubulin as in the region of interaction of this class and cell migration assays have proven their antitumour activity. Based on these results, further studies using molecular docking and molecular dynamics allowed to elucidate the molecular interactions involved in the binding process to tubulin protein, and these molecular models were used to guide the design, synthesis and evaluation of a novel series of compounds. From the data obtained by computational studies, modifications were proposed to design, synthesise and evaluate new tubulin polymerisation inhibitors, resulting in identification of a high-activity inhibitor and superior pharmacodynamic profile and IC50 of 5 μM. Alongside, in vitro cytotoxicity assays demonstrated an interesting selectivity of these compounds for cancer cells when compared to healthy cells. The studies presented here with tubulin inhibitors allowed to identify modulators of microtubule polymerisation with excellent anti-cancer profile, that will provide a valuable scaffold for the development of new effective treatments against cancer. The second chapter presents a new method for predicting changes on the conformational and the formation of multimeric protein complexes. This method was developed during the studies carried out over an exchange program in the Center for Theoretical and Biological Physics (CTBT, Rice University, USA), under the supervision of professor Dr. José Nelson Onuchic. During this project, computer modeling studies were carried using modern methods developed in the CTBT itself, such as Direct-Coupling Analysis (DCA) and a simulation method known as Modeling Based Structure (SBM). In the studies presented here, the DCA and SBM methods developed in CTBP were combined, modified and expanded to develop a new methodology able to identify the conformational changes and to elucidate mechanisms folding and oligomerization of proteins. The results obtained through prediction of various multimeric protein complexes with high accuracy show that this system is extremely effective and reliable to identify interface contacts between proteins and to predict the quaternary structure of macromolecular complexes. This new method allows the characterization and elucidation of protein systems that are currently unable to be solely determined by experimental methods. The third chapter of this doctoral thesis describes the construction of a virtual database in a pioneering initiative that aims to gather and make available all the information already obtained through the study of Brazilian biodiversity. This database, entitled NuBBE DataBase, brings together various information such as 2D and 3D molecular structure and biological activity of several molecules already isolated by the Núcleo de Bioensaios Biossíntese e Ecofisiologia de Produtos Naturais(NuBBE), located at the Universidade Estadual Paulista Julio de Mesquita Filho (UNESP). The NuBBEDB will be useful to the scientific community, providing research and pharmaceutical centers information for molecular modeling studies, metabolomics, derreplication and principally for the planning and identification of new bioactive compounds.
213

Fatores preditores de mortalidade em gêmeos monoamnióticos / Prediction of mortality in monoamniotic twins

Maria Claudia Nogueira Affonso 21 October 2015 (has links)
O presente estudo tem como objetivo descrever a mortalidade fetal e pósnatal em gestações gemelares monocoriônicas monoamnióticas, e analisar fatores preditores do número de crianças vivas no momento da alta hospitalar. Realizado de forma retrospectiva, envolveu pacientes com gestações gemelares monocoriônicas monoamnióticas, com ambos os fetos vivos no primeiro atendimento realizado no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo, no período de 2004 a 2014. Para a análise da proporção de crianças vivas, de acordo com os subgrupos estudados, foi utilizado o teste chi-quadrado. Regressão ordinal multivariada foi utilizada para investigar os fatores preditores associados. O nível de significância estatística adotado foi de 0,05. Foram incluídas 39 gestantes com idade média de 27,3 + 6,3 anos. Destas, 17 (43,6%) eram nulíparas e 8 (20,5%) apresentavam algum antecedente clínico prévio à gestação. O primeiro exame ultrassonográfico ocorreu em idade gestacional média de 21,7 ± 6,2 semanas (intervalo: 12,7 - 36,1). A incidência de complicações obstétricas e/ou clínicas na gestação foi de 28,2% (n=11), e de intercorrências fetais, 30,7% (n=12), dentre as quais: malformações (n=7), alteração da vitalidade fetal (n=1), feto acárdico (n=2), síndrome da transfusão feto fetal (n=1) e infecção congênita (n=1). O óbito intrauterino ocorreu em 12,8% (n=5) das gestações. A idade gestacional média do parto foi de 32,7 ± 3,7 semanas, e 94,7% foram cesáreas. O peso médio dos nascidos vivos foi de 1832 ± 591 g, com discordância média de peso ao nascer de 7,5 ± 7,2%; 4 (5,9%) fetos apresentavam restrição de crescimento. Excluindo um caso que evoluiu para abortamento, a taxa de óbitos fetais foi de 9,2% (7/76; IC95% 3,8 - 18,1) e o coeficiente de mortalidade até a alta hospitalar foi de 17,9% (12/67, IC95%: 9,6 - 29,2), sendo a mortalidade global de 25% (19/76; IC95% 15,8 - 36,3). A mortalidade no subgrupo sem malformações foi de 16,7% (10/60; IC95% 8,3 - 28,5). O tempo médio de internação das crianças, que foram de alta vivas, foi de 18,1 ± 20,5 dias. Foram fatores significativos para predição do número de crianças vivas: presença de intercorrência fetal (OR 29,3, IC95%: 4,1 - 210; p=0,001) e idade gestacional do parto (OR 0,64, IC95%: 0,49 - 0,83; p=0,001) / The present study, involving monochorionic monoamniotic twin pregnacies, examines fetal e post natal mortality, and investigates predictors of the number of children alive at hospital discharge. It is a retrospective study involving monochorionic monoamniotic twin pregnancies with two live fetuses at the first ultrasound scan at the Department of Obstetrics and Gynecology, São Paulo University Medical School Hospital, between 2004 and 2014. Chi-square test was used for comparison of subgroups according to the number of children alive at hospital discharge. Prediction analysis was performed with multivariate ordinal regression. Significance level was set at 0,05. The study population included 39 women, with mean maternal age of 27,3 ± 6,3 years, 17 (43,6%) were nulliparous and 8 (20,5%) presented a previous disease. The first ultrasound examination was performed at 21,7 ± 6,2 weeks (range: 12,7 - 36,1). The incidence of obstetric and/or clinical complications during pregnancy was 28,2% (n=11), and fetal complications occurred in 30,7% (n=12), including: major fetal abnormalities (n=7), fetal distress (n=1), acardic twin (n=2), twin-to-twin transfusion syndrome (n=1) and congenital infection (n=1). Stillbirth occurred in 5 (12,8%) pregnancies. Mean gestational age at delivery was 32,7 ± 3,7 weeks, and 94,7% were cesarean. The average birthweight was 1832 ± 591g and mean birth weight discordance was 7,5% ± 7,2; 4 (5,9%) neonates were growth restricted. The rate of stillbirth was 9,2% (7/76; 95%CI 3,8 - 18,1) and death before hospital discharge coefficient was 17,9% (12/67, 95%CI 9,6 - 29,2). Overall mortality rate was 25% (19/76; 95%CI 15,8 - 36,3). In the subgroup without fetal structural defects, mortality was 16,7% (10/60; 95%CI 8,3 - 28,5). Mean length of hospital stay was 18,1 ± 20,5 days amongst children that were discharged alive. The number of children alive at hospital discharge was correlated with the occurrence of fetal complications (OR 29,3, 95%CI 4,1 - 210; p=0,001) and gestational age at delivery (OR 0,64, 95%CI 0,49 - 0,83; p=0,001)
214

Influência dos Fatores Ambientais e Espaçotemporais Na Abundância, Reprodução e Comportamento do Agulhão-vela, Istiophorus Platypterus (shaw & Nodder, 1791) No Oceano Atlântico

MOURATO, Bruno Leite 06 July 2012 (has links)
Submitted by Eduarda Figueiredo (eduarda.ffigueiredo@ufpe.br) on 2015-03-12T13:41:49Z No. of bitstreams: 2 BRUNO LEITE certo.pdf: 3015278 bytes, checksum: e311c0270e5a7795107518e2006f9d59 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T13:41:49Z (GMT). No. of bitstreams: 2 BRUNO LEITE certo.pdf: 3015278 bytes, checksum: e311c0270e5a7795107518e2006f9d59 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-06 / CNPq / No presente trabalho foram investigados vários aspectos relacionados à dinâmica populacional, ecologia e pesca do agulhão-vela no Atlântico equatorial e sudoeste. As análises incluíram: (1) biologia reprodutiva; (2) modelagem da distribuição de tamanho e captura por unidade de esforço (CPUE) em relação aos efeitos ambientais e espaciais; (3) movimentos e utilização do habitat determinado por telemetria via-satélite e; (4) análise da CPUE de agulhão-vela capturado pela pesca esportiva no Brasil. A proporção sexual de agulhão-vela varia espaço-temporalmente na área de estudo e o comprimento de primeira maturação sexual estimado foi 147,21 cm de mandíbula inferior até a forquilha (MIF). A fecundidade variou entre 0,44 x 106 ovócitos hidratados para uma fêmea de 156 cm MIF e 2,26 x 106 ovócitos hidratados para uma fêmea de 183 cm LJFL. O Atlântico equatorial oeste não é uma área de desova, enquanto que a costa sudeste brasileira, ao contrário, se constitui em uma área de desova importante para a espécie, principalmente de dezembro a fevereiro. Altas densidades de adultos também foram observadas a oeste de 40°W, em ambas as partes da área de estudo, norte e sul. Por outro lado, uma tendência oposta foi observada em relação aos juvenis, que parecem estar associados a águas com temperatura da superfície do mar (TSM) superiores a 28°C com uma profundidade da camada de mistura mais profunda (> 50m), no lado ocidental, particularmente entre 10° - 20°S e 25° - 35°W. A modelagem da CPUE revelou uma agregação sazonal elevada ao longo da costa sudeste brasileira durante o pico de desova, enquanto que o centro-oeste do Atlântico, ao sul de ~ 15°S, bem como a costa norte brasileira, podem representar importantes áreas de alimentação durante o inverno. Os modelos também revelaram que a TSM e a velocidade do vento foram as variáveis mais importantes na variação da CPUE. Os resultados da telemetria via-satélite indicaram um claro padrão de utilização do habitat vertical, predominantemente concentrado próximo da superfície do mar com uma preferência relativamente estreita de temperatura. A "rota mais provável" sugerem que os agulhões-vela marcados não se deslocaram significativamente do local de marcação. Por fim, na presente tese, novos insights sobre a estrutura populacional da espécie no Oceano Atlântico foram apresentados e discutidos. Embora a separação do estoque do noroeste parece ser clara, ainda há uma grande incerteza sobre o grau de mistura entre os estoques do sudoeste e leste.
215

Predição de relacionamentos em redes sociais

SÁ, Hially Rodrigues de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:36Z (GMT). No. of bitstreams: 2 arquivo6801_1.pdf: 1400447 bytes, checksum: 82d5aa21900e4c2f42e7f550a790713e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Universidade Federal de Pernambuco / A Predição de Relacionamentos (Link Prediction) é uma importante atividade no campo da Análise em Redes Sociais. Esta atividade se refere em predizer o surgimento de relacionamentos futuros entre os nós em uma rede social. Uma das estratégias para realizar as predições se dá por meio da aprendizagem supervisionada. Neste caso, a predição é tratada como um problema de classificação binária. Os atributos preditores são as métricas computadas para indicar a proximidade ou similaridade de um par de nós. As classes positiva e negativa representam, respectivamente, a presença e ausência de um relacionamento entre esse par no futuro. Apesar de ser uma abordagem bem consolidada na literatura, a maioria das pesquisas que emprega a aprendizagem supervisionada utiliza apenas redes sem pesos. Atribuir pesos para os relacionamentos da rede é uma maneira de expressar a força dos relacionamentos entre os nós, o que pode potencialmente fornecer informações úteis para a predição. Estudos têm demonstrado que a utilidade de empregar pesos nos relacionamentos com abordagens não supervisionadas ainda é controversa, enquanto este ponto é pouco explorado na abordagem supervisionada. Neste contexto, o objetivo principal deste trabalho foi investigar se adotar pesos nos relacionamentos entre os nós contribui para a otimização do desempenho da predição supervisionada. A avaliação se deu pela comparação de diferentes algoritmos de classificação em redes com e sem pesos. De modo geral, os resultados com a predição supervisionada em duas redes de coautorias revelaram que uma pequena, mas relevante melhoria de desempenho foi obtida quando os pesos foram considerados
216

Análise e predição de bilheterias de filmes

FLORÊNCIO, João Carlos Procópio 29 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-08-08T12:41:40Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado-jcpf.pdf: 6512881 bytes, checksum: 0e42b481cf73ab357ca212b410fbd5ee (MD5) / Made available in DSpace on 2016-08-08T12:41:40Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado-jcpf.pdf: 6512881 bytes, checksum: 0e42b481cf73ab357ca212b410fbd5ee (MD5) Previous issue date: 2016-02-29 / Prever o sucesso de um filme e, por consequência, seu sucesso nas bilheterias tem uma grande importância na indústria cinematográfica, desde a fase de pré-produção do filme, quando os investidores querem saber quais serão os filmes mais promissores, até nas semanas seguintes ao seu lançamento, quando se deseja prever as bilheterias das semanas restantes de exibição. Por conta disso, essa área tem sido alvo de muitos estudos que tem usado diferentes abordagens de predição, seja na seleção das características dos filmes como nas técnicas de aprendizagem, para atingir uma maior capacidade de prever o sucesso dos filmes. Neste trabalho de mestrado, foi feita uma investigação sobre o comportamento das principais características dos filmes (gênero, classificação etária, orçamento de produção, etc), com maior foco nos resultados das bilheterias e sua relação com as características dos filmes, de forma a obter uma visão mais clara de como as caracaterísticas dos filmes podem influenciar no seu sucesso, seja ele interpretado como lucro ou volume de bilheterias. Em seguida, em posse de uma base de filmes extraída do Box-Office Mojo e do IMDb, foi proposto um novo modelo de predição de box office utilizando os dados disponíveis dessa base, que é composta de: meta-dados dos filmes, palavras-chaves, e dados de bilheterias. Algumas dessas características são hibridizadas com o objetivo evidenciar as combinações de características mais importantes. É aplicado também um processo de seleção de características para excluir aquelas que não são relevantes ao modelo. O modelo utiliza Random Forest como máquina de aprendizagem. Os resultados obtidos com a técnica proposta sugerem, além de uma maior simplificação do modelo em relação a estudos anteriores, que o método consegue obter taxas de acerto superior 90% quando a classificação é medida com a métrica 1-away (quando a amostra é classificada com até 1 classe de distância), e consegue melhorar a qualidade da predição em relação a estudos anteriores quando testado com os dados da base disponível. / Predicting the success of a movie and, consequently, its box office success, has a huge importance in the motion pictures industry. Its importance comes since from the pre-production period, when the investors want to know the most promising movies to invest, until the first few weeks after release, when exhibitors want to predict the box office of the remaining weeks of exhibition. As result, this area has been subject of many studies which have used different prediction approaches, in both feature selection and learning methods, to achieve better capacity to predict movies’ success. In this mastership work, a deep research about the movie’s main features (genre, MPAA, production budget, etc) has been done, with more focus on the results of box offices and its relation with the movie’s features in order to get a clearer view of the organization of information and how variables can influence the success of a film, whether this success be interpreted as profit or revenue volumes at the box office. Then, in possession of a movie database extracted from Box-Office Mojo and IMDb, it was proposed a new box office prediction model based on available data from the database composed of: movie meta-data, key-words and box office data. Some of these features are hybridized aiming to emphasize the most important features’ combinations. A features’ selection process is also applied to exclude irrelevant features. The obtained results with the proposed method suggests, besides a further simplification of the model compared to previous studies, that the method can get hit rate of more than 90% when classification is measured with the metric 1-away (when the sample is classified within 1 class of distance from the right class), and achieve a improvement in the prediction quality when compared to previous studies using the available database.
217

Modelagem computacional para predição de equilibrio líquido-líquido de sistemas graxos / Computational modeling to predict liquid-liquid equilibrium of fatty systems

Hirata, Gláucia de Freitas 17 August 2018 (has links)
Orientador: Antonio José de Almeida Meirelles, Charlles Rubber de Almeida Abreu / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Alimentos / Made available in DSpace on 2018-08-17T20:08:39Z (GMT). No. of bitstreams: 1 Hirata_GlauciadeFreitas_M.pdf: 4160128 bytes, checksum: 9b62997885094931827adf8fd70b8a25 (MD5) Previous issue date: 2011 / Resumo: Na indústria de óleos, a remoção dos ácidos graxos livres é a etapa mais importante do processo de purificação. Geralmente, é realizada pelo refino químico ou físico. Em alguns casos, no entanto, o refino convencional provoca resultados indesejáveis. A desacidificação por extração líquido-líquido tem se mostrado uma alternativa viável tecnicamente. Nos estudos realizados, os dados de equilíbrio são determinados e modelados para cada tipo de óleo isoladamente, resultando em modelos que são específicos para cada óleo. No entanto, para obter uma ferramenta preditiva, é necessário considerar as verdadeiras composições presentes nas misturas para que se consiga distinguir o comportamento de cada tipo de sistema de forma satisfatória. Neste trabalho, os dados existentes na literatura foram usados para reajustar os parâmetros de interação entre grupos do método UNIFAC. Isto é necessário porque os parâmetros originais do UNIFAC-LLE não predizem bem o comportamento desse tipo de sistema. Para reajustar estes parâmetros, os sistemas foram modelados considerando sua complexidade. Entretanto, para conseguir comparar com os dados experimentais, as misturas foram consideradas pseudoternárias e pseudoquaternárias (como estão disponíveis os dados experimentais). Uma nova divisão também foi proposto para simplificar a descrição do pseudocomponente óleo. No caso, cada resíduo de ácido graxo (juntamente com "um terço" do resíduo de glicerol) que se liga para formar as moléculas de triacilglicerol foram considerados como componentes independentes, negligenciando sua real conectividade. Isto é útil, pois reduz consideravelmente o número de componentes do pseudocomponente óleo. Para isso, um grupo adicional foi criado (-COOCH5/3). Os desvios encontrados usando os grupos e os parâmetros originais de UNIFAC-LLE foram consideravelmente maiores do que os desvios encontrados para os outros dois casos (parâmetros reestimados e nova divisão), o que demonstra a melhora no poder preditivo do método UNIFAC. Foram determinados dois sistemas de validação, um com óleo de palma e o outro com uma mistura de óleos de babaçu, palma e soja, em que se pode constatar a melhora no poder preditivo, tanto usando os parâmetros originais reajustados como usando os parâmetros ajustados com a nova divisão, quando comparado com os parâmetros originais do UNIFAC-LLE. Este estudo possibilitou a organização dos dados de equilíbrio líquido-líquido para a desacidificação de óleos disponíveis na literatura e, ampliou a possibilidade de uso de tais dados no desenvolvimento e otimização de processos na indústria de óleos vegetais e seus derivados / Abstract: In the industry of oils, the removal of free fatty acids is the most important stage of the purification procedure. It is usually performed by chemical or physical refining. In some cases, however, the conventional refining causes undesirable results. The deacidification by liquid-liquid extraction has proved a viable alternative technically. In the studies carried out, the data regarding equilibrium are determined and modeled for each type of oil alone, resulting in models that are specific for each oil. However, to obtain a predictive tool, it is necessary to consider the true compositions present in the mixtures so that it could distinguish the behavior of each type of system satisfactorily. In this work, the existing data in the literature were used to recalculate group interaction parameters of the UNIFAC method. This is necessary because the original parameters of UNIFAC-LLE do not yield predictions with enough accuracy. To adjust these parameters, the systems were modeled considering its complexity, however, in order to compare with experimental data, the compositions were reduced to pseudo ternary and pseudo quaternary (as are available the experimental data). New groups have also been proposed to simplify the description of the oil pseudocomponent. In this case, each fatty acid residue (together with ¿one third¿ of a glycerol residue) that connects to form the triacylglycerol molecules are considered as independent components, regardless of the true connectivity. This is useful because it reduces the number of components of the oil pseudocomponent. For this, an additional group was created (-COOCH5/3). The derivation found using the original groups and parameters of UNIFAC-LLE was considerably higher than the deviations found in both other cases(adjusted original parameters and new division), showing that the predictive power of the UNIFAC method was improved for this type of system. Two validation systems were made: one with palm oil and the other one with a mixture of babassu oil, palm and soya, where you can see the improvement in predictive power, either using the adjusted original parameters or using the parameters adjusted to the new division, when compared to the original parameters. Thus, this study enabled the organization of the data set of liquid-liquid equilibrium for deacidification of oils available in the literature and extended the use of such data in the development and optimization of procedures in the industry of vegetable oil and its derivatives / Mestrado / Engenharia de Alimentos / Mestre em Engenharia de Alimentos
218

Análise, modelagem e predição de eventos em praças digitais

Trindade, Andrea Garcia January 2018 (has links)
Orientador: Prof. Dr. Carlos Alberto Kamienski / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia da Informação, Santo André, 2018. / A utilização das tecnologias de informação e comunicação (TICs) está cada dia mais presente na vida das pessoas, gerando mudanças em nosso comportamento, no modo como nos relacionamos, como nos comunicamos, ou ainda na forma como passamos a realizar certas ações. A cidade de São Paulo oferece desde 2014 acesso à Internet gratuitamente em 120 locais públicos através do Programa WiFiLivreSP. Embora estejam disponíveis dados de desempenho dessas praças, existe uma carência de informações sobre o perfil de utilização cotidiano destes locais e o impacto causado por ocorrência de eventos, elevando o número de usuários conectados. Este estudo modela estes perfis, analisando seu uso e procura realizar através da quantidade de usuários conectados a predição de situações atípicas (anomalias), caracterizando possíveis eventos e suas consequências. Para a modelagem e predição foram utilizadas as técnicas SARIMA e Suavização Exponencial Holt-Winters, onde a modelagem SARIMA demonstrou melhor desempenho e a detecção de possíveis anormalidades desenvolvida com a técnica de janelas deslizantes. Este estudo tem por finalidade desenvolver um conjunto de informações à tomada de decisões sobre as praças digitais já implantadas e parâmetros para análises em futuras implantações. / The use of information and communication technologies (ICTs) are increasingly present in people's lives, generating changes in our behavior, without terms how we relate, how we do not communicate, and how we do certain actions. Since 2014, the city of São Paulo has been offering free internet access on 120 public sites through WiFiLivreSP Project. Available performance data is available there is information about the daily usage profile of your sites and the impact caused by the occurrence of events, increasing the number of connected users. This study models these profiles, analyzing their use and seeks to perform through the number of users connected to a prediction of atypical situations (anomalies), characterizing events and their consequences. For a modeling and prediction with the SARIMA and Holt-Winters Exponential Smoothing techniques, where a SARIMA modeling demonstrated better performance and a detection of possible abnormalities developed with the sliding window technique. The purpose of this study is to develop a set of information to make decisions about how digital places already deployed and for analysis in future deployments.
219

Método Shenon (Shelf-life prediction for Non-accelarated Studies) na predição do tempo de vida útil de alimentos / SheNon (Shelf life prediction for Non-accelarated Studies) method in the predicting the shelf life of food

Natália da Silva Martins 06 October 2016 (has links)
A determinação do tempo de vida útil dos alimentos é importante, pois garante que estes estejam adequados para o consumo se ingeridos dentro do período estipulado. Os alimentos que apresentam vida curta têm seu tempo de vida útil determinado por estudos não acelerados, os quais demandam métodos multivariados de análise para uma boa predição. Considerando isso, este estudo objetiva: propor um método estatístico multivariado capaz de predizer o tempo de vida útil de alimentos, em estudos não acerados; avaliar sua estabilidade e sensibilidade frente a perturbações provocadas nas variáveis de entrada, utilizando técnicas de simulação bootstrap; apresentar o método SheNon para dados experimentais por meio da construção de contrastes dos tempos preditos dos tratamentos de interesse e compará-los com uma diferença mínima significativa (DMS) obtida empiricamente por meio do método bootstrap. Com os resultados provenientes deste estudo constatou-se que o método proposto mostra-se promissor e estável para a predição do tempo de vida útil de alimentos em estudos não acelerados. O método mostrou-se sensível ao número de tempos (tamanho da amostra) em que o alimento foi observado. Verificou-se, também, bom desempenho na análise de dados experimentais, uma vez que após predição do tempo de vida útil para cada tratamento considerado, pode-se inferir sobre a igualdade dos tempos de vida de diferentes tratamentos. / Consumers are increasingly demanding about the quality of food and expectation that this quality is maintained at high level during the period between purchase and consumption. These expectations are a consequence not only of the requirement that the food should stay safe, but also the need to minimize the unwanted changes in their sensory qualities. Considering food safety and consumer demands this study aims to propose a multivariate statistical method to predict the shelf life of time not accelerated studies, the method SheNon. The development of multivariate method for predicting the shelf life of a food, considering all attributes and their natures describes a new concept of data analysis for estimating the degradation mechanisms that govern food and determines the time period in which these foods retain their characteristics within acceptable levels. The proposed method allows to include microbiological, physical, chemical and sensory attributes, which leads to a more accurate prediction of shelf life of food. The method SheNon features easy interpretation, its main advantages include the ability to combine information from different natures and can be generalized to data with experimental structure. The method SheNon was applied to eggplants minimally processed predicting a lifetime of around 9.6 days.
220

Performance prediction of application executed on GPUs using a simple analytical model and machine learning techniques / Predição de desempenho de aplicações executadas em GPUs usando um modelo analítico simples e técnicas de aprendizado de máquina

Marcos Tulio Amarís González 25 June 2018 (has links)
The parallel and distributed platforms of High Performance Computing available today have became more and more heterogeneous (CPUs, GPUs, FPGAs, etc). Graphics Processing Units (GPU) are specialized co-processor to accelerate and improve the performance of parallel vector operations. GPUs have a high degree of parallelism and can execute thousands or millions of threads concurrently and hide the latency of the scheduler. GPUs have a deep hierarchical memory of different types as well as different configurations of these memories. Performance prediction of applications executed on these devices is a great challenge and is essential for the efficient use of resources in machines with these co-processors. There are different approaches for these predictions, such as analytical modeling and machine learning techniques. In this thesis, we present an analysis and characterization of the performance of applications executed on GPUs. We propose a simple and intuitive BSP-based model for predicting the CUDA application execution times on different GPUs. The model is based on the number of computations and memory accesses of the GPU, with additional information on cache usage obtained from profiling. We also compare three different Machine Learning (ML) approaches: Linear Regression, Support Vector Machines and Random Forests with BSP-based analytical model. This comparison is made in two contexts, first, data input or features for ML techniques were the same than analytical model, and, second, using a process of feature extraction, using correlation analysis and hierarchical clustering. We show that GPU applications that scale regularly can be predicted with simple analytical models, and an adjusting parameter. This parameter can be used to predict these applications in other GPUs. We also demonstrate that ML approaches provide reasonable predictions for different cases and ML techniques required no detailed knowledge of application code, hardware characteristics or explicit modeling. Consequently, whenever a large data set with information about similar applications are available or it can be created, ML techniques can be useful for deploying automated on-line performance prediction for scheduling applications on heterogeneous architectures with GPUs. / As plataformas paralelas e distribuídas de computação de alto desempenho disponíveis hoje se tornaram mais e mais heterogêneas (CPUs, GPUs, FPGAs, etc). As Unidades de processamento gráfico são co-processadores especializados para acelerar operações vetoriais em paralelo. As GPUs têm um alto grau de paralelismo e conseguem executar milhares ou milhões de threads concorrentemente e ocultar a latência do escalonador. Elas têm uma profunda hierarquia de memória de diferentes tipos e também uma profunda configuração da memória hierárquica. A predição de desempenho de aplicações executadas nesses dispositivos é um grande desafio e é essencial para o uso eficiente dos recursos computacionais de máquinas com esses co-processadores. Existem diferentes abordagens para fazer essa predição, como técnicas de modelagem analítica e aprendizado de máquina. Nesta tese, nós apresentamos uma análise e caracterização do desempenho de aplicações executadas em Unidades de Processamento Gráfico de propósito geral. Nós propomos um modelo simples e intuitivo fundamentado no modelo BSP para predizer a execução de funções kernels de CUDA sobre diferentes GPUs. O modelo está baseado no número de computações e acessos à memória da GPU, com informação adicional do uso das memórias cachês obtidas do processo de profiling. Nós também comparamos três diferentes enfoques de aprendizado de máquina (ML): Regressão Linear, Máquinas de Vetores de Suporte e Florestas Aleatórias com o nosso modelo analítico proposto. Esta comparação é feita em dois diferentes contextos, primeiro, dados de entrada ou features para as técnicas de aprendizado de máquinas eram as mesmas que no modelo analítico, e, segundo, usando um processo de extração de features, usando análise de correlação e clustering hierarquizado. Nós mostramos que aplicações executadas em GPUs que escalam regularmente podem ser preditas com modelos analíticos simples e um parâmetro de ajuste. Esse parâmetro pode ser usado para predizer essas aplicações em outras GPUs. Nós também demonstramos que abordagens de ML proveem predições aceitáveis para diferentes casos e essas abordagens não exigem um conhecimento detalhado do código da aplicação, características de hardware ou modelagens explícita. Consequentemente, sempre e quando um banco de dados com informação de \\textit esteja disponível ou possa ser gerado, técnicas de ML podem ser úteis para aplicar uma predição automatizada de desempenho para escalonadores de aplicações em arquiteturas heterogêneas contendo GPUs.

Page generated in 0.033 seconds