• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 13
  • 13
  • 13
  • 13
  • 12
  • 8
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 208
  • 208
  • 85
  • 72
  • 29
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

[en] EDUCO: MODELING EDUCATIONAL CONTENT / [pt] EDUCO: MODELANDO CONTEÚDO EDUCACIONAL

SEAN WOLFGAND MATSUI SIQUEIRA 04 May 2005 (has links)
[pt] No contexto de e-learning, o desenvolvimento de material de aprendizagem é um fator de sucesso. Entretanto, estes processos são caros e demorados de modo que se procura promover o reuso de materiais e estabelecer parcerias entre instituições para compartilhar conteúdo e serviços. Assim, o uso conjunto de Objetos de Aprendizagem (LOs) e respectivos metadados tem sido amplamente adotado. Entretanto, apesar do uso de padrões de descritores para LOs tornar sua aceitação mais ampla, muitos desenvolvedores demonstram uma grande dificuldade em usar e reusar LOs. Portanto, continua a haver interesse em prover meios que promovam o reuso destes LOs e a tendência atual é que estes LOs se tornem cada vez menores, estruturados conforme uma hierarquia de nós interconectados. Algumas abordagens atuais consideram o uso de mapas de tópicos (topic maps), ontologias e bases de conhecimento para trabalhar com os conteúdos contidos nos materiais educacionais. Esta tese apresenta um modelo para estruturar e representar o conteúdo contido nos materiais educacionais a partir dos tipos de informações e de unidades conceituais envolvidas. Além da proposta de modelagem é também apresentada uma arquitetura que possibilita a implantação dos diferentes níveis semânticos de informação a serem considerados em um ambiente de e-learning. Esta arquitetura se baseia em trabalhos relacionados a integração de dados e estabelece um contexto para a utilização do modelo proposto para a representação do conteúdo educacional, contribuindo para a sua adoção. / [en] In e-learning, the development of multimedia educational content material has been a success factor. However, as these processes are expensive and timeconsuming, there is a need for making the content reuse easier and institutions are establishing partnerships in order to share content and services. In this context, Learning Objects (LO) and standard metadata have been grown in acceptance. In spite of this, several developers have found it difficult to use and reuse LOs. Then there is still a need for providing mechanisms that promote LO reuse. The current trend is on making these LO even smaller, structured according to a hierarchy of interconnected nodes. Some recent approaches are based on the use of topic maps, ontology and knowledge bases in order to work with the content that are embedded into the educational material. This thesis presents a model for structuring and representing this content according to the involved information and conceptual unities. In addition, we also present an architecture that allows the different semantic levels of information to be considered in an e-learning environment. This architecture is based on related work on data integration and it establishes a context for the proposed modeling approach for representing educational content and therefore contributes for its acceptance and use by the e-learning community.
172

Modelos conceituais de dados como parte do processo da catalogação : perspectiva de uso dos FRBR no desenvolvimento de catálogos bibliográficos digitais /

Fusco, Elvis. January 2010 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Ricardo César Gonçalves Sant'Ana / Banca: José Remo Ferreira Brega / Banca: Virgínia Bentes Pinto / Banca: Alex Sandro Romeu de Souza Poleto / Resumo: O processo de catalogação ocupa-se dos registros bibliográficos, enquanto suporte de informação, servindo como base para a interoperabilidade entre ambientes informacionais, levando em conta objetos diversificados de informação e bases cooperativas e heterogêneas. Dentre as principais propostas da área de catalogação estão os FRBR - Functional Requirements for Bibliographic Records (Requisitos Funcionais para Registros Bibliográficos), que constituem novos conceitos nas regras de catalogação. As regras dos FRBR mostram um caminho na reestruturação dos registros bibliográficos de maneira a refletir a estrutura conceitual de persistência e buscas de informação, levando em conta a diversidade de usuários, materiais, suporte físico e formatos. Neste contexto, o objetivo desta pesquisa é refletir e discutir, a partir de uma arquitetura conceitual, lógica e de persistência de ambientes informacionais, baseada nos FRBR e na Modelagem Entidade- Relacionamento e estendido pelo uso dos conceitos da Orientação a Objetos, o processo de catalogação no contexto do projeto de catálogos utilizando a metodologia computacional de Modelagem Conceitual de Dados, considerando a evolução dessa área no âmbito da Ciência da Informação em relação ao contexto da representação da informação com vistas ao uso e à interoperabilidade de todo e qualquer recurso informacional, que vise a preencher a lacuna entre o projeto conceitual de um domínio de aplicação e a definição dos esquemas de metadados das estruturas de registros bibliográficos. Esta pesquisa defende a necessidade e a urgência da releitura do processo de catalogação adicionado de elementos da Ciência da Computação com utilização de metodologias de Tratamento Descritivo da Informação (TDI) no âmbito da representação da informação na camada de... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The cataloguing process is aimed at dealing with bibliographic registers as information support, serving as a basis for an interoperability among information environments, taking into account different objects and cooperative and heterogeneous basis. Among the main propositions of the cataloguing field are the FRBR - Functional Requirements for Bibliographic Records, which constitute of new concepts in cataloguing standards. These standards indicate access to the rearrangement of bibliographic registers in order to reflect on the conceptual framework of persistence and search of information, considering the diversity of users, material, physical support, and formats. In this context, the present research is aimed at reflecting and discussing, from a conceptual architecture, logic and information environment persistence based on FRBR and Entity-Relationship Modeling and extended by the use of concepts of Object Orientation, the process of cataloguing in the context of the catalogs project by using computation methodology of Data Conceptual Modeling, considering the evolution of this area in the scope of Information Science in relation to the context of the representation of information aiming use and interoperability of every and each information resource to fill the lack between the conceptual project of an application domain and the definition of the metadata scheme of bibliographic registers structures. Thus, this research defends the necessity and urgency to review the cataloguing process adding the elements of Computing Science with the use of Information Descriptive Treatment methodologies in the scope of the information representation in the layer of persistence of an automated information environment. The research issue is based in the presupposition of the existence in a relation of community among... (Complete abstract click electronic access below) / Doutor
173

Modelo de regressão logística ordinal em dados categóricos na área de ergonomia experimental

Montenegro, Santhiago Guedes 17 November 2009 (has links)
Made available in DSpace on 2015-05-08T14:53:40Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 767214 bytes, checksum: 35fd7bdf641e061fc79cec5e4e2752b7 (MD5) Previous issue date: 2009-11-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / On analysis performed at experimental ergonomics, still is rare the use of Ordinal and Nominal Multinomial Logistic Regression, having been employed their simplification, Binary Logistic Regression, even on cases where Dependent Variable (DV) have more of two categories. To make the DV becomes binary leads to damages at data analysis, caused due lose of information by category agglutination and ordination disrespect. An analysis using Ordinal Multinomial Logistic Regression was performed on a data set containing a categorical DV, the Work Ability Index (WAI) of Nurses working on João Pessoa city Public Hospital Intensive Care Unit (ICU), and as Independent Variable (ID) thermal comfort variables, environmental variables, personal variables, and work organization variables. Through this analysis, was found out risk factors that lead to increase the probability of the WAI falls on an inferior category. The DV and used data set features allows to conclude that the Ordinal Multinomial Logistic Regression use made possible a more accurate result and analysis. / Nas análises realizadas em ergonomia experimental, ainda é raro o uso da regressão logística multinomial nominal e ordinal, tendo sido empregada frequentemente a simplificação dessas ferramentas, a regressão logística binária, mesmo onde a Variável Dependente possui mais de duas categorias. A binarização da Variável Dependente leva a prejuízos na análise de dados, pela perda de informação por aglutinação de categorias e desconsideração de ordenação entre as mesmas. Uma análise de dados usando a regressão logística multinomial ordinal foi realizada em um conjunto de dados contendo uma variável categórica, o Índice de Capacidade para o Trabalho (ICT) de enfermeiros de Unidade de Terapia Intensiva (UTI s) de hospitais públicos na cidade de João Pessoa PB como variável dependente e variáveis termo-ambientais pessoais, e de organização do trabalho como variáveis independentes. Através desta análise, chegou a fatores de risco que levam ao aumento da probabilidade de queda do ICT dos profissionais envolvidos na pesquisa. Características inerentes a VD bem como ao conjunto de dados utilizado levam a conclusão que o uso da Regressão Logística Multinomial Ordinal tornou possível uma análise mais precisa com resultados mais acurados.
174

A utilização de tecnologias digitais de geoprocessamento na identificação de unidades de paisagem na bacia hidrográfica do rio Iguaçu-Sarapuí (RJ) / The use of gis technology in identification of landscape units in the Iguaçu river

Paulo Antonio Viana de Souza 16 December 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Bacia do Rio Iguaçu-Sarapuí integra a região hidrográfica da Baía de Guanabara. Sua área de drenagem, com cerca de 726 km2, corresponde a aproximadamente 20% do total da área de contribuição à Baía, da ordem de 4600 km2 . Os municípios abrangidos pela bacia do Rio Iguaçu são: Nova Iguaçu, Duque de Caxias, Belford Roxo, São João de Meriti, Nilópolis, Mesquita e uma pequena parte do município do Rio de Janeiro. O presente trabalho tem como objetivo utilizar metodologias destinadas à identificação das unidades de paisagem na Bacia Hidrográfica do Rio Iguaçu, baseado nos conceitos de Paisagem Integrada e utilizando como suporte tecnologias digitais de geoprocessamento. Para o desenvolvimento desta pesquisa foram utilizados dados de diferentes fontes e órgãos governamentais de planejamento que trate desta temática. Os dados ao qual o texto se refere são: bases cartográficas em diferentes escalas de abordagem, Imagens Sensoriais Landsat 7, relatórios e diagnóstico da área em estudo. A identificação das unidades de paisagem na bacia do Rio Iguaçu-Sarapuí é feita a partir da delimitação das unidades de relevo e informações sobre o uso do solo, aspectos geológicos e pedológicos. O trabalho foi baseado no apoio das tecnologias digitais de geoprocessamento que permite uma melhor correlação entre diferentes tipos de informações tanto dos aspectos físicos, geológicos como também das ações antrópicas, classificando-as quanto ao grau de intervenção. O resultado do trabalho nesta região foi a elaboração de um diagnóstico ambiental das limitações e susceptibilidade ao desenvolvimento de determinadas atividades distribuindo-as espacialmente na bacia. A utilização de um Sistema de Informação Geográfica, em especial o Arc Gis 9.2 teve uma importância relevante na elaboração da pesquisa. Uma vez que este sistema trabalha com grandes volumes de informações e na análise integrada de objetos complexos, além de permitir a elaboração de um banco de dados espacial no próprio projeto. O que o diferencia dos demais Sistema de Informação Geográfica, tornando-o uma ferramenta eficiente na gestão integrada dos recursos naturais. / The Iguaçu River Falls is part of the river basin of Guanabara Bay. Its drainage area, with about 726 km2, corresponds to approximately 20% of the total area of contribution to the Bay, the order of 4600 km2. The municipalities covered by the Iguaçu River basin are: Nova Iguaçu, Duque de Caxias, Belford Roxo, São João de Meriti, Nilópolis, mosque and a small part of the city of Rio de Janeiro. This study aims to develop and present methodologies for the identification of landscape units in the RiverBasinFalls. For the development of this research used data from different sources and government planning addressing this issue. The data to which this text refers are in different cartographic scales approach, Sensory Landsat 7 Images, reports and diagnosis of the study area. The identification of landscape units in the Iguaçu River basin is made from the division of relief units and information on land use, geological and soil. The work will be based on support of digital technologies of GIS allows a better correlation between different types of information both from physical, geological as well as from human activity, classifying them as to the degree of intervention. The expected outcome of work in this region is a diagnosis of the limitations and susceptibility to development of certain activities spatially distributing them in the basin.By analysis of the statement of Geomorphology and identifying the main relief units between them we can highlight: the escarpment of the sea, hills and massive coastal and finally the unit talus / colluvial and alluvial plain. These compartments correlated with the predominant use of land, allowed the generation of seven landscape units: 1 - floodplain with sprawl; 2 - Lowland river floodplains with a predominance of mangroves and Environmental Protection Area; 3 - Hills of occupation and livestock farming; 4 - Massive Coastal Living with a predominance of rain forest, 5 - massively intrusive fragments of Atlantic Forest 6 - Talus / Colluviums with occupation and livestock farming; 7 - sheer cliffs with forest.
175

Imputação de dados pluviométricos e sua aplicação na modelagem de eventos extremos de seca agrícola / Imputation of rainfall data and its application in modeling extreme events of agricultural drought

Gláucia Tatiana Ferrari 17 June 2011 (has links)
Este trabalho relata o procedimento utilizado na obtenção de um banco de dados contínuo de precipitação diária de estações meteorológicas localizadas no Estado do Paraná. O banco de dados é composto por 484 séries históricas com dados entre janeiro de 1975 a dezembro de 2009. Para preencher os dados faltantes do banco de dados foram testados três métodos de imputação: o vizinho mais próximo, distância inversa ponderada e regressão linear. A raiz do erro quadrático médio (REQM) foi utilizada para comparar os métodos e o método da distância inversa ponderada proporcionou o melhor resultado. Após a imputação, os dados passaram por um processo de controle de qualidade que teve como objetivo identificar possíveis erros como precipitação idêntica em sete dias consecutivos (não aplicados a dados de precipitação zero) e valores de precipitação que diferem significativamente dos valores em estações meteorológicas vizinhas. Neste processo foram substituídos 1,21% valores de precipitação. Com o banco de dados contínuo, o interesse foi utilizar a teoria de valores extremos para modelar o período seco (número máximo de dias consecutivos com precipitação abaixo de 7mm para o período entre janeiro e fevereiro) crítico para a fase de enchimento de grãos da soja nas cinco principais mesorregiões (Centro Ocidental, Centro Sul, Norte Central, Oeste e Sudoeste) produtoras do Estado do Paraná. Pelo teste de Kolmogorov-Smirnov, ao nível de 5% de significância, a distribuição Gumbel foi a que melhor se ajustou aos dados de cada mesorregião e assim, a probabilidade de ocorrência de valores extremos de seca acima de 5, 25, 35 e 45 dias, o período de retorno para os maiores valores registrados em cada mesorregião e os níveis de retorno para o período de 5, 25, 50 e 75 anos foram calculados. / This paper describes the procedure used to obtain a continuous database of daily precipitation from weather stations located in the state of Parana. The database consists of 484 time series with data from January 1975 to December 2009. To complete missing data from the database were tested three imputation methods: the nearest neighbour, inverse distance weighting and linear regression. The root mean square error (RMSE) was used to compare the methods and the inverse distance weighting method yielded better results. After imputing the data went through a process of quality control that aimed to identify possible errors as precipitation identical in seven consecutive days (not applied to precipitation data zero) and precipitation values that dier signicantly from the values in neighboring meteorological stations. In this process were replaced 1.21 % values of precipitation. With a continuous database, the interest was to use the Extreme Value Theory to model the dry period (maximum number of consecutive days with precipitation less than 7mm for the period between January and February) for the critical grain lling stage of soybean in ve main regions (Central West South Central, North Central, West and Southwest) producing state of Parana. Through the Kolmogorov-Smirnov, at 5 % level of signicance, the Gumbel distribution was best tted the data of each regions and therefore the probability of extreme values of drought over 5, 25, 35 and 45 days, the return period for the highest values in each and levels return for the period of 5, 25, 50 and 75 years were calculated.
176

Abordagem de teste baseada em defeitos para esquemas de dados / Fault-based testing approach for data schemas

Emer, Maria Claudia Figueiredo Pereira 09 June 2007 (has links)
Orientadores: Mario Jino, Silvia Regina Vergilio / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-09T21:13:12Z (GMT). No. of bitstreams: 1 Emer_MariaClaudiaFigueiredoPereira_D.pdf: 934024 bytes, checksum: dbb2079115b56358ff3dc9e747df6386 (MD5) Previous issue date: 2007 / Resumo: Dados são manipulados em várias aplicações de software envolvendo operações críticas. Em tais aplicações assegurar a qualidade dos dados manipulados é fundamental. Esquemas de dados definem a estrutura lógica e os relacionamentos entre os dados. O teste de esquemas por meio de abordagens, critérios e ferramentas de teste específicos é uma forma pouco explorada de assegurar a qualidade de dados definidos por esquemas. Este trabalho propõe uma abordagem de teste baseada em classes de defeitos comumente identificados em esquemas de dados. Um metamodelo de dados é definido para especificar os esquemas que podem ser testados e as restrições aos dados nos esquemas. Defeitos possíveis de serem revelados são os relacionados à definição incorreta ou ausente de restrições aos dados no esquema. A abordagem inclui a geração automática de um conjunto de teste que contém instâncias de dados e consultas a essas instâncias; as instâncias de dados e as consultas são geradas de acordo com padrões definidos em cada classe de defeito. Experimentos nos contextos de aplicações Web e de base de dados foram realizados para ilustrar a aplicação da abordagem / Abstract: Data are used in several software applications involving critical operations. In such applications to ensure the quality of the manipulated data is fundamental. Data schemas define the logical structure and the relationships among data. Testing schemas by means of specific testing approaches, criteria and tools has not been explored adequately as a way to ensure the quality of data defined by schemas. This work proposes a testing approach based on fault classes usually identified in data schemas. A data metamodel is defined to specify the schemas that can be tested and the constraints to the data in schemas. This testing approach provides means for revealing faults related to incorrect or absent definition of constraints for the data in the schema. The approach includes the automatic generation of a test set which contains data instances and queries to these instances; the data instances and queries are generated according to patterns defined in each fault class. Experiments in the contexts of Web and database applications were carried out to illustrate the testing approach application / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
177

Stochastic supply curves and liquidity costs: estimation for brazilian equities

Hossaka, Guilherme Hideo Assaoka 26 June 2018 (has links)
Submitted by Guilherme Hideo Assaoka Hossaka (ghossaka@gmail.com) on 2018-09-07T17:43:58Z No. of bitstreams: 1 Stochastic_Supply_Curves_and_Liquidity_Costs.pdf: 6114705 bytes, checksum: 383773b2814d582892c750a566229869 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-09-18T13:52:02Z (GMT) No. of bitstreams: 1 Stochastic_Supply_Curves_and_Liquidity_Costs.pdf: 6114705 bytes, checksum: 383773b2814d582892c750a566229869 (MD5) / Made available in DSpace on 2018-09-26T20:00:18Z (GMT). No. of bitstreams: 1 Stochastic_Supply_Curves_and_Liquidity_Costs.pdf: 6114705 bytes, en checksum: 383773b2814d582892c750a566229869 (MD5) Previous issue date: 2018-06-26 / Market Liquidity is characterized by the easiness and freedom to trade assets at desired volumes and for prices perceived as representative of their values. When there is a scarcity of bid and ask offers at those terms, traders face the so called Market Liquidity Risk and they must offer concessions on their original offers, leading to additional costs. Approaches to model this phenomena exist in broad variety but a common component of most Market Liquidity models is an instantaneous cost component, also known as transaction/execution costs or realized/instantaneous impact. This element, here the Liquidity Cost, gives the actual trading prices faced by a trader, frequently a deviation from the unobservable “true price”, normally represented as a GBM with the mid-price as a proxy for modeling purposes. Although it is clear that Liquidity Costs are a relevant aspect of Market Liquidity Risk and it is present in many models, it is relegated to a more simplistic treatment, being though as well-behaved, deterministic, smooth and static. The main point of this work is to follow a different approach by evaluating Liquidity Costs at a microstructural level by estimating the Stochastic Supply Curve from C¸ etin-Jarrow-Protter Model for Brazilian equities. To do so, high-frequency-data from B3’s ftp is used and to build Limit Order Books for several stocks at intraday periods. The empirical findings support the existence of non-trivial Stochastic Supply Curves as a representation for Liquidity Costs in several equities on Brazilian Markets. Additionally, there is evidence that Liquidity Costs may behave in contrast with some of the literature, being stochastic with time-varying functional representations on the LOB and with liquidity parameters that could be represented as mean-reverting stochastic process.
178

Análise da acessibilidade ao espaço urbano por pessoa em cadeira de rodas empregando tecnologias da geoinformação.

ROCHA, Elaine Cristina Osorio 12 July 2016 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-10-06T13:55:25Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - DeCart_Geodesica_Elaine Osorio.pdf: 10456894 bytes, checksum: 7d4067be082c9f415e4b4322a30ec7bb (MD5) / Made available in DSpace on 2016-10-06T13:55:25Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - DeCart_Geodesica_Elaine Osorio.pdf: 10456894 bytes, checksum: 7d4067be082c9f415e4b4322a30ec7bb (MD5) Previous issue date: 2016-07-12 / As Tecnologias da Geoinformação como, a Cartografia e os Sistema de Informações Geográfica têm sido utilizados para análise da acessibilidade e mobilidade em espaços urbanos, permitem a criação de Banco de Dados Espaciais contendo informações sobre os elementos físicos para pessoas com deficiências e oferecem uma melhor percepção visual dos elementos através de mapas temáticos. Nas ações de planejamento ou ordenamento do espaço deve-se incluir estudos acerca da acessibilidade e mobilidade urbana analisando os diferentes componentes físicos do ambiente urbano (rampas, calçadas rebaixadas, obstáculos, entre outros) através da representação espacial. Nesse sentido, a pesquisa propõe uma Modelagem de Dados Espaciais capaz de integrar os elementos físicos para acessibilidade de pessoas em cadeiras de rodas considerando os padrões da NBR 9050/2004, que estabelece critérios e parâmetros técnicos para acessibilidade a edificações, mobiliário, espaços e equipamentos urbanos. A pesquisa utilizou a metodologia OMT-G - Object Modeling Technique para criação do modelo, a implementação física foi realizada no PostgreSQL/PostGIS e a espacialização das classes e atributos do Banco de Dados Espaciais foi realizada através da conexão do PostgreSQL/PostGIS com o programa livre Quantum GIS. Os elementos foram avaliados qualitativamente e averiguados o cumprimento da legislação e os resultados apresentados em mapas temáticos e análise de rotas. A área de estudo foi o polo de saúde que fica localizado no bairro Centro, no município de Teresina, estado do Piauí. Os resultados demostram a capacidade da Modelagem de Dados Espaciais de representar os objetos do espaço urbano para acessibilidade. As consultas espaciais com cruzamento de varáveis possibilitaram uma análise qualitativa mais consistente da área de estudo apresentadas nos mapas temáticos. Os resultados demostraram a falta de acessibilidade e mobilidade no polo de saúde pela presença de obstáculos, diferenças de inclinação ao longo das calçadas, material construtivo inadequado e más condições físicas das calçadas, que inviabilizam o acesso de pessoas em cadeiras de rodas aos equipamentos de saúde de forma autônoma e segura. / The Geoinformation Technologies as the Cartography and Geographical Information System has been used to analyze the accessibility and mobility in urban areas, enable the creation of spatial database containing information on the physical elements for people with disabilities and provide a better understanding visual elements through thematic maps. In action planning or spatial planning should include studies on accessibility and urban mobility analyzing the different physical components of the urban environment (ramps, lowered sidewalks, obstacles, etc.) through the spatial representation. In this sense, the research proposes a Spatial Data Modeling able to integrate the physical elements for accessibility for people in wheelchairs considering the NBR 9050/2004 standards establishing criteria and technical parameters for accessibility to buildings, furniture, spaces and equipment urban. The study used the OMT-G methodology - Object Modeling Technique for model creation, physical implementation was held in PostgreSQL / PostGIS and spatial distribution of the classes and attributes of the Bank of Spatial Data was performed by connecting the PostgreSQL / PostGIS with the program free Quantum GIS. The elements were qualitatively assessed and investigated compliance with legislation and the results presented in thematic maps and analysis of routes. The study area was the health pole that is located in the Centro neighborhood in the city of Teresina, state of Piaui. The results demonstrate the ability of Spatial Data Modeling represent objects of urban space for accessibility. The spatial queries with variable cross enabled a more consistent qualitative analysis of the study area presented in thematic maps. The results demonstrated the lack of accessibility and mobility in the health pole by the presence of obstacles, slope differences along the sidewalks, inadequate construction material and poor physical condition of the sidewalks, that prevent access for people in wheelchairs to health equipment autonomously and safely.
179

Using supervised machine learning and sentiment analysis techniques to predict homophobia in portuguese tweets

Pereira, Vinicius Gomes 16 April 2018 (has links)
Submitted by Vinicius Pereira (viniciusgomespe@gmail.com) on 2018-06-26T20:56:26Z No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-07-11T12:40:51Z (GMT) No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Made available in DSpace on 2018-07-16T17:48:51Z (GMT). No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) Previous issue date: 2018-04-16 / Este trabalho estuda a identificação de tweets homofóbicos, utilizando uma abordagem de processamento de linguagem natural e aprendizado de máquina. O objetivo é construir um modelo preditivo que possa detectar, com razoável precisão, se um Tweet contém conteúdo ofensivo a indivı́duos LGBT ou não. O banco de dados utilizado para treinar os modelos preditivos foi construı́do agregando tweets de usuários que interagiram com polı́ticos e/ou partidos polı́ticos no Brasil. Tweets contendo termos relacionados a LGBTs ou que têm referências a indivı́duos LGBT foram coletados e classificados manualmente. Uma grande parte deste trabalho está na construção de features que capturam com precisão não apenas o texto do tweet, mas também caracterı́sticas especı́ficas dos usuários e de expressões coloquiais do português. Em particular, os usos de palavrões e vocabulários especı́ficos são um forte indicador de tweets ofensivos. Naturalmente, n-gramas e esquemas de frequência de termos também foram considerados como caracterı́sticas do modelo. Um total de 12 conjuntos de recursos foram construı́dos. Uma ampla gama de técnicas de aprendizado de máquina foi empregada na tarefa de classificação: Naive Bayes, regressões logı́sticas regularizadas, redes neurais feedforward, XGBoost (extreme gradient boosting), random forest e support vector machines. Depois de estimar e ajustar cada modelo, eles foram combinados usando voting e stacking. Voting utilizando 10 modelos obteve o melhor resultado, com 89,42% de acurácia. / This work studies the identification of homophobic tweets from a natural language processing and machine learning approach. The goal is to construct a predictive model that can detect, with reasonable accuracy, whether a Tweet contains offensive content to LGBT or not. The database used to train the predictive models was constructed aggregating tweets from users that have interacted with politicians and/or political parties in Brazil. Tweets containing LGBT-related terms or that have references to open LGBT individuals were collected and manually classified. A large part of this work is in constructing features that accurately capture not only the text of the tweet but also specific characteristics of the users and language choices. In particular, the uses of swear words and strong vocabulary is a quite strong predictor of offensive tweets. Naturally, n-grams and term weighting schemes were also considered as features of the model. A total of 12 sets of features were constructed. A broad range of machine learning techniques were employed in the classification task: naive Bayes, regularized logistic regressions, feedforward neural networks, extreme gradient boosting (XGBoost), random forest and support vector machines. After estimating and tuning each model, they were combined using voting and stacking. Voting using 10 models obtained the best result, with 89.42% accuracy.
180

Forecast dengue fever cases using time series models with exogenous covariates: climate, effective reproduction number, and twitter data

Vieira, Julio Cesar de Azevedo 17 April 2018 (has links)
Submitted by Julio Cesar de Azevedo Vieira (julio_vieira@globo.com) on 2018-06-16T14:57:18Z No. of bitstreams: 1 dissertacao_JulioCesarVieira.pdf: 1988173 bytes, checksum: 55cb349d2840d5de748cbd814f155bb9 (MD5) / Rejected by Marcia Bacha (marcia.bacha@fgv.br), reason: O aluno irá submeter com o novo PDF on 2018-06-19T14:38:11Z (GMT) / Submitted by Julio Cesar de Azevedo Vieira (julio_vieira@globo.com) on 2018-06-26T21:10:08Z No. of bitstreams: 1 dissertacao_JulioCesarVieira.pdf: 1801751 bytes, checksum: 382cab03be50d392c166a61e21222c05 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-07-05T13:19:09Z (GMT) No. of bitstreams: 1 dissertacao_JulioCesarVieira.pdf: 1801751 bytes, checksum: 382cab03be50d392c166a61e21222c05 (MD5) / Made available in DSpace on 2018-07-16T19:25:05Z (GMT). No. of bitstreams: 1 dissertacao_JulioCesarVieira.pdf: 1801751 bytes, checksum: 382cab03be50d392c166a61e21222c05 (MD5) Previous issue date: 2018-04-17 / Dengue é uma doença infecciosa que afeta países subtropicais. Autoridades de saúde locais utilizam informações sobre o número de notificações para monitorar e prever epidemias. Este trabalho foca na modelagem do número de casos de dengue semanal em quatro cidades do estado do Rio de Janeiro: Rio de Janeiro, São Gonçalo, Campos dos Goytacazes, e Petrópolis. Modelos de séries temporais são frequentemente utilizados para prever o número de casos de dengue nos próximos ciclos (semanas ou meses), particularmente, modelos SARIMA (Modelo Sazonal Autorregressivo Integrado de Médias Móveis) apresentam uma boa performance em situações distintas. Modelagens alternativas ainda incluem informação sobre o clima da região para melhorar a performance preditiva. Apesar disso, modelos que usam apenas dados históricos e de clima podem não possuir informações suficientes para capturar mudanças entre os regimes de não-epidemia e epidemia. Duas razões para isso são o atraso na notificação dos casos e que possivelmente não houveram epidemias nos anos anteriores. Baseando-se no sistema de monitoramento InfoDengue, esperasse que incluindo dados sobre ”numero de reprodução efetiva dos mosquitos”(RT) e ”número de tweets se referindo a dengue”(tweets) possam melhorar a qualidade das previsões no curto (1 semana) e longo (8 semanas) prazo. Foi possível mostrar que modelos de séries temporais incluindo RT e informações climáticas frequentemente performam melhor do que o modelo SARIMA em termos do erro preditivo quadrático médio (RMSE). Incluir a variável sobre o twitter não mostrou uma melhora no RMSE. / Dengue fever is an infectious disease affecting subtropical countries. Local health departments use the number of notified cases to monitor and predict epidemics. This work focus on modeling weekly incidence of dengue fever in four cities of the state of Rio de Janeiro: Rio de Janeiro, São Gonçalo, Campos dos Goytacazes, and Petrópolis. Time series models are often used to predict the number of cases in the next cycles (weeks, months), in particular, SARIMA (Seazonal Auto-Regressive Integrated Moving Average) models are shown to perform well in distinct settings. Alternative models also include climate covariates to improve the quality of the forecasts. However, models that only use historical and climate data may no have sufficient information to capture changes from non-epidemic to an epidemic regime. Two reasons are that there is a delay in the notification of cases and there might not have had epidemics in the previous years. Based on the INFODENGUE monitoring system we argue data including the "effective reproduction number of mosquitoes" (RT) and "number tweets referring to dengue" (tweets) may improve the quality of forecasts in the short (1 week) to long (8 weeks) range. We show that time series models including RT and climate information often outperform SARIMA models in terms of mean squared predictive error (RMSE). Inclusion of twitter did not improve the RMSE.

Page generated in 0.0859 seconds