• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ciência de dados, poluição do ar e saúde / Data science, air pollution and health

Amorim, William Nilson de 17 May 2019 (has links)
A Estatística é uma ferramenta imprescindível para a aplicação do método científico, estando presente em todos os campos de pesquisa. As metodologias estatísticas usuais estão bem estabelecidas entre os pesquisadores das mais diversas áreas, sendo que a análise de dados em muitos trabalhos costuma ser feita pelos próprios autores. Nos últimos anos, a área conhecida como Ciência de Dados vem exigindo de estatísticos e não-estatísticos habilidades que vão muito além de modelagem, começando na obtenção e estruturação das bases de dados e terminando na divulgação dos resultados. Dentro dela, uma abordagem chamada de aprendizado automático reuniu diversas técnicas e estratégias para modelagem preditiva, que, com alguns cuidados, podem ser aplicadas também para inferência. Essas novas visões da Estatística foram pouco absorvidas pela comunidade científica até então, principalmente pela ausência de estatísticos em grande parte dos estudos. Embora pesquisa de base em Probabilidade e Estatística seja importante para o desenvolvimento de novas metodologias, a criação de pontes entre essas disciplinas e suas áreas de aplicação é essencial para o avanço da ciência. O objetivo desta tese é aproximar a ciência de dados, discutindo metodologias novas e usuais, da área de pesquisa em poluição do ar, que, segundo a Organização Mundial da Saúde, é o maior risco ambiental à saúde humana. Para isso, apresentaremos diversas estratégias de análise e as aplicaremos em dados reais de poluição do ar. Os problemas utilizados como exemplo foram o estudo realizado por Salvo et al. (2017), cujo objetivo foi associar a proporção de carros rodando a gasolina com a concentração de ozônio na cidade de São Paulo, e uma extensão desse trabalho, na qual analisamos o efeito do uso de gasolina/etanol na mortalidade de idosos e crianças. Concluímos que suposições como linearidade a aditividade, feitas por alguns modelos usuais, podem ser muito restritivas para problemas essencialmente complexos, com diferentes modelos levando a diferentes conclusões, nem sempre sendo fácil identificar qual delas é a mais apropriada. / Statistics is a fundamental part of the scientific method and it is present in all the research fields. The usual statistical techniques are well established in the scientific community, and, regardless of the area, the authors themselves perform the data analysis in most papers. In the last years, the area known as Data Science has been challenging statisticians and non-statisticians to perform tasks beyond data modeling. It starts with importing, organizing and manipulating the databases, and ends with the proper communication of the results. Another area called Machine Learning created a framework to fit predictive models, where the goal is to obtain the most precise predictions to a variable under study. These new approaches were not completely adopted by the scientific community yet, mainly due to the absence of statisticians in most of the studies. Although basic research in Probabilities and Statistics is important, the link between these disciplines and their application areas is essential for the advancement of science. The goal of this thesis was to bring together the news views of Data Science and Machine Learning and air pollution research. We presented several strategies of data analysis and apply them to reanalyze the real world air pollution problem presented by Salvo et al. (2017) explore the association between ozone concentration and the proportion of bi-fuel vehicles running on gasoline in the city of São Paulo, Brazil. We also extended this analysis to study the effect of using gasoline/ethanol in mortality (child and elderly). We concluded that assumptions such as linearity and additivity, commonly required by usual models, can be very restrictive to intrinsically complex problems, leading to different conclusions for each fitted model, with little information about which one is more appropriate.
2

Identificação automática de relações multidocumento / Automatic identification of multidocument relations

Maziero, Erick Galani 16 January 2012 (has links)
O tratamento multidocumento mostra-se indispensável no cenário atual das mídias eletrônicas, em que são produzidos diversos documentos sobre um mesmo tópico, principalmente quando se considera a explosão de informação permitida pela web. Tanto leitores quanto aplicações computacionais se beneficiam da análise discursiva multidocumento por meio da qual são explicitadas relações entre as porções dos documentos, por exemplo, relações de equivalência, contradição ou de contextualização de alguma informação. A fim de realizar o tratamento automático multidocumento, adota-se neste trabalho a teoria linguístico-computacional CST (Cross-document Structure Theory, Radev, 2000). Esse tipo de conhecimento multidocumento permite que (i) se tratem mais apropriadamente fenômenos como redundância, complementariedade e contradição de informações e, consequentemente, (ii) produzam-se sistemas melhores de processamento textual, como buscadores web mais inteligentes e sumarizadores automáticos. Neste trabalho é apresentada uma metodologia de identificação dessas relações explorando-se técnicas de aprendizado automático do paradigma tradicional e hierárquico. Para relações que não são passíveis de identificação por aprendizado automático foram desenvolvidas regras para sua identificação. Por fim, um parser é gerado contendo classificadores e regras / The multi-document treatment is essential in the current scenario of electronic media, in which many documents are produced about a same topic, mainly when considering the explosion of information allowed by the web. Both readers and computational applications are benefited by the discursive multi-document analysis, through which the relations (for example, equivalence, contradiction or background relations) among the portions of text are showed. In order to achieve the automatic multi-document treatment, the CST (Cross-document Structure Theory, Radev, 2000) is adopted in this work. This kind of knowledge allow (i) the appropriated treatment of phenomena like redundancy, complementarity and contradiction of information and, consequently, (ii) the production of better systems of text processing, as more intelligent web searchers and automatic summarizers. In this work, a methodology to identify these relations is presented exploring techniques of machine learning of the traditional and hierarchical paradigm. For relations with low frequency in the corpus, handcrafted rules were developed. Finally, a parser is generated containing classifiers and rules
3

Técnica de aprendizagem automática aplicada a um codificador HEVC em tempo real.

OLIVEIRA, Jean Felipe Fonseca de. 07 May 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-05-07T19:44:09Z No. of bitstreams: 1 JEAN FELIPE FONSECA DE OLIVEIRA – TESE (PPGEE) 2016.pdf: 4299929 bytes, checksum: 553f9084b2022247c3b7599b696859c9 (MD5) / Made available in DSpace on 2018-05-07T19:44:09Z (GMT). No. of bitstreams: 1 JEAN FELIPE FONSECA DE OLIVEIRA – TESE (PPGEE) 2016.pdf: 4299929 bytes, checksum: 553f9084b2022247c3b7599b696859c9 (MD5) Previous issue date: 2018-05-07 / O padrão HEVC (High Efficiency Video Coding) é o mais recente padrão para codificação de vídeos e tem uma complexidade computacional muito maior do que seu antecessor, o padrão H.264. A grande eficiência de codificação atingida pelo codificador HEVC é obtida com um custo computacional bastante elevado. Esta tese aborda oportunidades de reduzir essa carga computacional. Dessa forma, um algoritmo de decisão prematura de divisão de uma unidade de codificação é proposto para o codificador HEVC, terminando prematuramente o processo de busca pelo melhor particionamento baseado em um modelo de classificação adaptativo, criado em tempo de execução. Esse modelo é gerado por um processo de aprendizado online baseado no algoritmo Pegasos, que é uma implementação que aplica a resolução do gradiente estocástico ao algoritmo SVM (Support Vector Machine). O método proposto foi implementado e integrado ao codificador de referência HM 16.7. Os resultados experimentais mostraram que o codificador modificado reduziu o custo computacional do processo de codificação em até 50%, em alguns casos, e aproximadamente 30% em média, com perdas de qualidade desprezíveis para os usuários. De modo geral, esse processo resulta em reduzidas perdas de qualidade, no entanto, alguns resultados mostraram pequenos ganhos em eficiência de compressão quando comparados com os resultados do codificador HM 16.7. / The most recent video coding standard, the High Efficiency Video Coding (HEVC), has a higher encoding complexity when compared with H.264/AVC, which means a higher computational cost. This thesis presents a review of the recent literature and proposes an algorithm that reduces such complexity. Therefore, a fast CU (Coding Unit) splitting algorithm is proposed for the HEVC encoder, which terminates the CU partitioning process at an early phase, based on an adaptive classification model. This model is generated by an online learning method based on the Primal Estimated sub-GrAdient SOlver for SVM (Pegasos) algorithm. The proposed method is implemented and integrated in the HEVC reference source code on its version 16.7. Experimental results show that the proposed method reduces the computational complexity of the HEVC encoder, up to 50% in some cases, with negligible losses, and shows an average computational reduction of 30%. This process results in reduced coding efficiency losses, however, some results showed a nearby 1% of BD-Rate (Bjontegaard Delta) gains in the Low Delay B configuration, without using an offline training phase.
4

Uma investigação sobre o processo migrátorio para a plataforma de computação em nuvem no Brasil

SILVA, Hilson Barbosa da 22 January 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-10-31T12:50:59Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) UMA INVESTIGAÇÃO SOBRE O PROCESSO MIGRATÓRIO PARA A PLATAFORMA DE COMPUTAÇÃO EM NUVEM NO BRASIL.pdf: 2425763 bytes, checksum: 20f3a5ca31db4bf99450bc873fe1b9d3 (MD5) / Made available in DSpace on 2016-10-31T12:50:59Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) UMA INVESTIGAÇÃO SOBRE O PROCESSO MIGRATÓRIO PARA A PLATAFORMA DE COMPUTAÇÃO EM NUVEM NO BRASIL.pdf: 2425763 bytes, checksum: 20f3a5ca31db4bf99450bc873fe1b9d3 (MD5) Previous issue date: 2016-01-22 / Contexto: A Computação em Nuvem apresenta um novo conceito de terceirização na contratação de serviço, esses avanços vêm sendo vistos como uma nova possibilidade para a redução nos volumes dos investimentos em TIC, proporcionados pela maior flexibilidade nos serviços ofertados sob demanda, tendo na redução de custo seu apelo mais forte. Mesmo sabendo dos benefícios do investimento em nuvem, presume-se que algumas empresas são receosas na contratação de serviços e/ou infraestruturas de TIC da computação em nuvem. Essa realidade, apresentada na pesquisa da Tech Supply, especializada em Inteligência Tecnológica para Auditoria e Integridade Corporativa e TI, segundo a qual 43% das empresas brasileiras não se sentem seguras para migrar os seus sistemas para nuvem. Objetivo: Nesse contexto geral, apresentam-se dois objetivos: investigar os indícios pelos quais algumas empresas podem estar propensas a contratarem ou não os serviços de Computação em Nuvem no Brasil. Adicionalmente, identificar i e e j de sua satisfação ou insatisfação em relação aos serviços de nuvem contratados no Brasil. Método: Para este estudo, definiu-se o tipo de pesquisa realizada como exploratória de natureza descritiva e explicativa, com ênfase na abordagem quantitativa. Quanto ao procedimento técnico, aplicou-se um levantamento através de um Survey, utilizando-se o instrumento de um questionário com 14 (quatorze) itens. Referente à coleta dessas informações, disponibilizou-se através de um formulário WEB (Online). E, por fim, quanto ao tipo de análise aplicada aos resultados, utilizou-se o aprendizado automático para extração dos resultados. Com o uso de aprendizado automático, faz-se necessário o estabelecimento de algumas definições em relação aos métodos de aprendizagem a serem aplicados, como tarefa de classificação por árvore de decisão com algoritmo de classificação J48, método de aprendizagem por indução. Para o modo de treinamento, aplicou-se o não incremental. Na hierarquia do aprendizado, utilizou-se o aprendizado supervisionado e para o paradigma de aprendizado, usou-se o simbólico. Definiram-se também as variáveis classificadoras para cada linha de investigação: “SIM” en c n “NÃO”, para as empresas que não usam; e “SATISFEITO” ou “INSATISFEITO” c n e , para as empresas que já usam. Resultado: Descobriu-se que as características das empresas que estão propensas a contratar a nuvem são garantia de entrega e qualidade dos serviços. Em contrapartida, as empresas que não estão propensas a contratar os serviços da nuvem têm como características o baixo faturamento e poucos colaboradores associados à confiabilidade e segurança da informação. Para a outra linha de investigação, em relação à satisfação, os motivos são o preço da nuvem associado aos modelos de Infraestrutura e Software como Serviço. Por outro lado, para as empresas que estão insatisfeitas, os motivos são segurança da informação, disponibilidade dos serviços associados à redução de custo. / Context: Cloud computing presents a new concept of outsourcing at hiring services, these advances have been seen as a new possibility for reduction at volume of investments in ICT, provided for greater flexibility in offered on-demand services, with cost reduction its strongest appeal. Even though the c d in e en benefi i ‟ assumed that some companies are afraid for contracting services and / or cloud c ing ICT inf c e. Thi e i y e en ed in he Tech S y‟ e e ch specializing in Technology Intelligence for Audit and Corporate Integrity and IT, according to which 43% of Brazilian companies do not feel safe to migrate their cloud systems. Objective: In general, there are two objectives: to investigate the evidence by which some companies may be prone to hire or not the Computing Cloud services in Brazil. In addition, identify the reasons for those that already use their satisfaction or dissatisfaction with the cloud services contracted in Brazil. Method: For this study, the type of research conducted was defined as exploratory of descriptive and explanatory nature, with an emphasis on quantitative approach. As for the technical procedure, was applied a survey through a Survey, using the instrument of a questionnaire with 14 (fourteen) items. Concerning the collection of this information, it made available through a web form (Online). Finally, the type of analysis applied to the results, we used the automatic learning for extracting results. With the use of automatic learning, it is necessary to establish some definitions regarding learning methods to applied as a classification task by decision tree classification algorithm J48¹, learning method for induction. For the training mode, applied to the non-incremental. In the learning hierarchy, we used supervised learning and the learning paradigm, was used the symbolic. The classification variables was defined for each research line: "YES" likely to hire or "NO" for companies that do not use; and "SATISFIED" or "DISSATISFIED" with the cloud, for companies that already use. Result: It found that the characteristics of companies that are likely to hire the cloud are delivery assurance and service quality. Conversely, companies that are not likely to hire cloud services characterized by low turnover and few employees associated with the reliability and information security. For another line of research in relation to satisfaction, the reasons are the price associated with cloud models Infrastructure and Software as a Service. On the other hand, for companies that are dissatisfied, the reasons are information security, availability of services associated with cost reduction.
5

Identificação automática de relações multidocumento / Automatic identification of multidocument relations

Erick Galani Maziero 16 January 2012 (has links)
O tratamento multidocumento mostra-se indispensável no cenário atual das mídias eletrônicas, em que são produzidos diversos documentos sobre um mesmo tópico, principalmente quando se considera a explosão de informação permitida pela web. Tanto leitores quanto aplicações computacionais se beneficiam da análise discursiva multidocumento por meio da qual são explicitadas relações entre as porções dos documentos, por exemplo, relações de equivalência, contradição ou de contextualização de alguma informação. A fim de realizar o tratamento automático multidocumento, adota-se neste trabalho a teoria linguístico-computacional CST (Cross-document Structure Theory, Radev, 2000). Esse tipo de conhecimento multidocumento permite que (i) se tratem mais apropriadamente fenômenos como redundância, complementariedade e contradição de informações e, consequentemente, (ii) produzam-se sistemas melhores de processamento textual, como buscadores web mais inteligentes e sumarizadores automáticos. Neste trabalho é apresentada uma metodologia de identificação dessas relações explorando-se técnicas de aprendizado automático do paradigma tradicional e hierárquico. Para relações que não são passíveis de identificação por aprendizado automático foram desenvolvidas regras para sua identificação. Por fim, um parser é gerado contendo classificadores e regras / The multi-document treatment is essential in the current scenario of electronic media, in which many documents are produced about a same topic, mainly when considering the explosion of information allowed by the web. Both readers and computational applications are benefited by the discursive multi-document analysis, through which the relations (for example, equivalence, contradiction or background relations) among the portions of text are showed. In order to achieve the automatic multi-document treatment, the CST (Cross-document Structure Theory, Radev, 2000) is adopted in this work. This kind of knowledge allow (i) the appropriated treatment of phenomena like redundancy, complementarity and contradiction of information and, consequently, (ii) the production of better systems of text processing, as more intelligent web searchers and automatic summarizers. In this work, a methodology to identify these relations is presented exploring techniques of machine learning of the traditional and hierarchical paradigm. For relations with low frequency in the corpus, handcrafted rules were developed. Finally, a parser is generated containing classifiers and rules

Page generated in 0.0893 seconds