101 |
Utilização do método de decomposição empírico no processamento de dados de mobilidade urbanaCrespo, Juliana Huther Albernaz January 2018 (has links)
Submitted by Juliana Crespo (juliana.crespo4@gmail.com) on 2018-09-11T13:45:16Z
No. of bitstreams: 1
Disserta__o_Mestrado-merged.pdf: 4063780 bytes, checksum: f6ae8f648e0fa9a35cae1d80aacf9d16 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-09-18T13:45:25Z (GMT) No. of bitstreams: 1
Disserta__o_Mestrado-merged.pdf: 4063780 bytes, checksum: f6ae8f648e0fa9a35cae1d80aacf9d16 (MD5) / Made available in DSpace on 2018-09-27T12:22:57Z (GMT). No. of bitstreams: 1
Disserta__o_Mestrado-merged.pdf: 4063780 bytes, checksum: f6ae8f648e0fa9a35cae1d80aacf9d16 (MD5) / A transformada de Hilbert-Huang é um método relativamente recente para ana- lisar séries temporais. Incentivados por seus resultados positivos em séries temporais de diversas naturezas, decidimos implementar o mesmo em duas bases de dados de mobilidade urbana do Rio de Janeiro, sendo uma de GPS de ônibus e a outra de telefonia celular, para encontrar possíveis ciclos, sazonalidades e tendências, ao longo dos anos, devido a mudanças significativas nas vias exploradas.
|
102 |
Como as blockchains podem ser utilizadas para gerar maior confiança na asseguração de dados ambientais, sociais e de governança corporativaRoman, Denys Pacheco 02 August 2018 (has links)
Submitted by denys roman (denys_roman@yahoo.com) on 2018-08-29T22:51:25Z
No. of bitstreams: 1
TA Denys - V29 de Julho.pdf: 2148232 bytes, checksum: 2f16875e1900c5b431bbcc02d057dd8e (MD5) / Rejected by Simone de Andrade Lopes Pires (simone.lopes@fgv.br), reason: Boa Tarde Denys,
Recebemos seu trabalho na biblioteca digital, mas será necessário fazer alguns ajustes:
Estou encaminhando por e-mail as alterações necessárias.
Por favor, faça as alterações e submeta o trabalho novamente na biblioteca digital.
Atenciosamente,
Simone - SRA on 2018-08-30T20:48:27Z (GMT) / Submitted by denys roman (denys_roman@yahoo.com) on 2018-08-31T13:07:35Z
No. of bitstreams: 1
TA Denys - V30 de Julho (2003)_corrigido.pdf: 2107428 bytes, checksum: 58f618ad30b083f6bf09aba20e9554c8 (MD5) / Approved for entry into archive by Simone de Andrade Lopes Pires (simone.lopes@fgv.br) on 2018-09-03T19:37:52Z (GMT) No. of bitstreams: 1
TA Denys - V30 de Julho (2003)_corrigido.pdf: 2107428 bytes, checksum: 58f618ad30b083f6bf09aba20e9554c8 (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-09-04T14:01:28Z (GMT) No. of bitstreams: 1
TA Denys - V30 de Julho (2003)_corrigido.pdf: 2107428 bytes, checksum: 58f618ad30b083f6bf09aba20e9554c8 (MD5) / Made available in DSpace on 2018-09-04T14:01:28Z (GMT). No. of bitstreams: 1
TA Denys - V30 de Julho (2003)_corrigido.pdf: 2107428 bytes, checksum: 58f618ad30b083f6bf09aba20e9554c8 (MD5)
Previous issue date: 2018-08-02 / O presente trabalho visa explorar se as blockchains poderiam ser utilizadas para gerar maior confiança na asseguração de dados ESG – Environmental, Social and Corporate Governance (em português: Ambiental, Social e Governança Corporativa), visando apoiar o desenvolvimento da indústria do investimento sustentável. No desenvolvimento do trabalho, demonstramos o crescimento da indústria do investimento sustentável. Com a utilização de fatores ESG na avaliação de ativos, os registros desse fenômeno foram evidenciados tanto com dados de agentes do mercado de capitais quanto com dados da produção acadêmicocientífica. Também abordamos a possibilidade de fortalecimento da qualidade das informações ESG e sua asseguração externa para evitar potencial perda de valor das companhias em função de assimetria informacional. Para respondermos ao problema de pesquisa, foi realizado um estudo de caso que teve como unidade de análise a forma como a OriginalMy utiliza as blockchains para autenticação de dados. Esse estudo de caso foi precedido de etapas preliminares, em que foi desenvolvida uma prova de conceito para ampliar a familiaridade com a tecnologia e entrevistas com os asseguradores de informações ESG. O estudo apontou lacunas no processo de asseguração e que as características das blockchains permitem que a tecnologia sirva de base para soluções que necessitem garantir a autenticidade de dados. Dessa forma, podem apoiar o desenvolvimento da indústria de investimento sustentável baseado em dados mais confiáveis e robustos. / This paper aims to explore how blockchains can be used to generate greater confidence in ESG data – Environmental, Social and Corporate Governance, in order to support the development of the sustainable investment industry. We demonstrate the growth of the sustainable investment industry, with the use of ESG factors in the assets valuation, the records of this phenomenon were evidenced both with data from capital market agents and with data from academic-scientific production. We also discuss the possibility of strengthening the quality of ESG information and its external assurance to avoid potential loss of value of companies due to informational asymmetry. To respond the research problem, a case study was conducted that analyzed how OriginalMy uses the blockchains for data authentication. This case study was preceded by preliminary steps, in which a proof of concept was developed to increase familiarity with the technology and interviews with ESG information insurers. The study pointed to gaps in the assurance process and that the characteristics of blockchains allow the technology to serve as the basis for solutions that need to guarantee the authenticity of data. In this way, they can support the development of the sustainable investment industry based on more reliable and robust data.
|
103 |
"Recuperação de imagens por conteúdo através de análise multiresolução por Wavelets" / "Content based image retrieval through multiresolution wavelet analysisCesar Armando Beltran Castañon 28 February 2003 (has links)
Os sistemas de recuperação de imagens por conteúdo (CBIR -Content-based Image Retrieval) possuem a habilidade de retornar imagens utilizando como chave de busca outras imagens. Considerando uma imagem de consulta, o foco de um sistema CBIR é pesquisar no banco de dados as "n" imagens mais similares à imagem de consulta de acordo com um critério dado. Este trabalho de pesquisa foi direcionado na geração de vetores de características para um sistema CBIR considerando bancos de imagens médicas, para propiciar tal tipo de consulta. Um vetor de características é uma representação numérica sucinta de uma imagem ou parte dela, descrevendo seus detalhes mais representativos. O vetor de características é um vetor "n"-dimensional contendo esses valores. Essa nova representação da imagem pode ser armazenada em uma base de dados, e assim, agilizar o processo de recuperação de imagens. Uma abordagem alternativa para caracterizar imagens para um sistema CBIR é a transformação do domínio. A principal vantagem de uma transformação é sua efetiva caracterização das propriedades locais da imagem. Recentemente, pesquisadores das áreas de matemática aplicada e de processamento de sinais desenvolveram técnicas práticas de "wavelet" para a representação multiescala e análise de sinais. Estas novas ferramentas diferenciam-se das tradicionais técnicas de Fourier pela forma de localizar a informação no plano tempo-freqüência; basicamente, elas têm a capacidade de mudar de uma resolução para outra, o que faz delas especialmente adequadas para a análise de sinais não estacionários. A transformada "wavelet" consiste de um conjunto de funções base que representa o sinal em diferentes bandas de freqüência, cada uma com resoluções distintas correspondentes a cada escala. Estas foram aplicadas com sucesso na compressão, melhoria, análise, classificação, caracterização e recuperação de imagens. Uma das áreas beneficiadas, onde essas propriedades têm encontrado grande relevância, é a área médica, através da representação e descrição de imagens médicas. Este trabalho descreve uma abordagem para um banco de imagens médicas, que é orientada à extração de características para um sistema CBIR baseada na decomposição multiresolução de "wavelets" utilizando os filtros de Daubechies e Gabor. Essas novas características de imagens foram também testadas utilizando uma estrutura de indexação métrica "Slim-tree". Assim, pode-se aumentar o alcance semântico do sistema cbPACS (Content-Based Picture Archiving and Comunication Systems), atualmente em desenvolvimento conjunto entre o Grupo de Bases de Dados e Imagens do ICMC--USP e o Centro de Ciências de Imagens e Física Médica do Hospital das Clínicas de Riberão Preto-USP. / Content-based image retrieval (CBIR) refers to the ability to retrieve images on the basis of the image content. Given a query image, the goal of a CBIR system is to search the database and return the "n" most similar (close) ones to the query image according to a given criteria. Our research addresses the generation of feature vectors of a CBIR system for medical image databases. A feature vector is a numeric representation of an image or part of it over its representative aspects. The feature vector is a "n"-dimensional vector organizing such values. This new image representation can be stored into a database and allow a fast image retrieval. An alternative for image characterization for a CBIR system is the domain transform. The principal advantage of a transform is its effective characterization for their local image properties. In the past few years, researches in applied mathematics and signal processing have developed practical "wavelet" methods for the multiscale representation and analysis of signals. These new tools differ from the traditional Fourier techniques by the way in which they localize the information in the time-frequency plane; in particular, they are capable of trading one type of resolution for the other, which makes them especially suitable for the analysis of non-stationary signals. The "wavelet" transform is a set of basis functions that represents signals in different frequency bands, each one with a resolution matching its scale. They have been successfully applied to image compression, enhancements, analysis, classifications, characterization and retrieval. One privileged area of application where these properties have been found to be relevant is medical imaging. In this work we describe an approach to CBIR for medical image databases focused on feature extraction based on multiresolution "wavelets" decomposition, taking advantage of the Daubechies and Gabor. Fundamental to our approach is how images are characterized, such that the retrieval procedure can bring similar images within the domain of interest, using a metric structure indexing, like the "Slim-tree". Thus, it increased the semantic capability of the cbPACS(Content-Based Picture Archiving and Comunication Systems), currently in joined developing between the Database and Image Group of the ICMC--USP and the Science Center for Images and Physical Medic of the Clinics Hospital of Riberão Preto--USP.
|
104 |
Distribuição de musgos (Bryophyta) no Brasil: riqueza, endemismo e conservaçãoAmorim, Eduardo Toledo de 16 August 2017 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-01-08T16:35:29Z
No. of bitstreams: 1
eduardotoledoamorim.pdf: 7085942 bytes, checksum: 0064c64ba9943c302c39ab2df413436b (MD5) / Rejected by Adriana Oliveira (adriana.oliveira@ufjf.edu.br), reason: Favor corrigir Co-orientador: Neto, Luiz Menini on 2018-01-23T11:08:07Z (GMT) / Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-01-23T12:54:03Z
No. of bitstreams: 1
eduardotoledoamorim.pdf: 7085942 bytes, checksum: 0064c64ba9943c302c39ab2df413436b (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-01-24T13:27:56Z (GMT) No. of bitstreams: 1
eduardotoledoamorim.pdf: 7085942 bytes, checksum: 0064c64ba9943c302c39ab2df413436b (MD5) / Made available in DSpace on 2018-01-24T13:27:56Z (GMT). No. of bitstreams: 1
eduardotoledoamorim.pdf: 7085942 bytes, checksum: 0064c64ba9943c302c39ab2df413436b (MD5)
Previous issue date: 2017-08-16 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Bryophyta (musgos) compõem a segunda divisão mais diversa de plantas terrestres, com aproximadamente 13.000 espécies. Vários trabalhos foram realizados com o intuito de compilar o conhecimento da flora de briófitas para o Brasil, apontando os estados com o maior número de espécies e evidenciando as carências de amostragem para o país. Entretanto, ainda não se sabe de forma mais precisa, quais as lacunas no conhecimento dos musgos no Brasil. Um dos temas principais na biogeografia é compreender o motivo de espécies apresentarem ampla distribuição ou endemismo. Endemismo, objeto deste estudo, está relacionado à ocorrência restrita de um táxon, por terem se originado neste local e não terem se dispersado, ou porque ficaram restritos à área, em relação a sua distribuição anterior. Atualmente, destacam-se duas hipóteses alopátricas mais próximas para modelos de diversificação: Hipótese de Refúgio no Pleistoceno e de Isolamento em Montanhas. No Brasil, as áreas são protegidas através das Unidades de Conservação (UCs), as quais, de modo geral, são abrigadas para que se minimizem as ações antrópicas, tornando-as habitats excelentes para a colonização de briófitas. O presente trabalho teve por objetivo geral realizar um estudo sobre a distribuição de musgos para o Brasil, identificando a riqueza e o endemismo no país e apresentando uma abordagem conservacionista para as espécies Foi realizado um levantamento dos dados para as ocorrências de musgos, através de diferentes bancos de dados on-line e bibliografia. Posteriormente, esses dados foram refinados quanto à identificação em nível específico, à validade taxonômica e às coordenadas geográficas. Em seguida, foram marcados os pontos dos registros no mapa e, elaborado o gradeamento por quadrículas de 1° x 1°. A partir daí, foram realizadas as análises de riqueza, riqueza estimada, número de registros e a Análise de Parcimônia de Endemismos (PAE). Foi utilizada a ferramenta de modelagem preditiva de distribuição de espécies para identificar as áreas de maior adequabilidade para espécies endêmicas do Brasil e para elaborar um mapa de áreas de concentração de endemismo dessas espécies no país. No total, foram levantados 26.691 registros, representando 868 espécies de musgos. Foram estabelecidas 394 quadrículas, tendo o número de espécies por quadrícula variado de 1 a 235. A Floresta Atlântica apresentou maior riqueza, tanto pelas condições que fornece ao estabelecimento dos musgos, quanto à maior intensidade amostral no Domínio. A PAE resultou em apenas uma área de endemismo localizada no centro do Estado da Bahia, no Domínio Fitogeográfico da Caatinga, na região do Parque Nacional da Chapada Diamantina. As quadrículas propostas como áreas potenciais de endemismo foram encontradas em seis áreas, dispersas no Cerrado e na Floresta Atlântica. As áreas de endemismo de musgos são, em sua maioria, áreas de montanhas, que corroboram as principais hipóteses de especiação dos organismos. Dentre as UCs, 218 apresentaram áreas com adequabilidade ambiental para a presença da espécie, das quais, 68 estão inseridas nas
categorias de Uso Sustentável e 150 na categoria de Proteção Integral, demonstrando a importância das UCs para a brioflora na Floresta Atlântica. / Bryophyta (mosses) are the second most diverse division of terrestrial plants, with about 13.000 species. In order to compile the knowledge of the bryophyte flora for Brazil, a range of studies were developed showing the States with the largest number of species and evidencing the lack of sampling for the country. However, the deficiency in the knowledge of mosses in Brazil is not yet known precisely. One of the main themes in biogeography is to understand why species are widely distributed or endemic. Endemism is related to the restricted occurrence of, because they originated in this place and did not disperse, or because they were confined to the area, in relation to its previous distribution. Two allopatric hypotheses are most relevant for diversification models: Pleistocene Refuge and Montane Isolate Hypothesis. In Brazil, the preserved areas are protected through Conservation Units (UCs), which have low degradation traits, making it an excellent habitat for the colonization of bryophytes. Thus, the main aims of this work were to study the distribution of mosses in Brazil, identifying the richness and endemism in the country and to present a conservationist approach to mosses species. Firstly, in order to compile information on the occurrence of mosses, we did a survey of the data through different online databases and bibliography. Subsequently, we refined these data regarding the identification at the specific level, the taxonomic validity and the geographic coordinate. Then, we marked the points of the records on the map, and we elaborated the grids by squares of 1° x 1°. Therefore, we performed analyzes of richness, estimated richness, number of records and the Parsimony Analysis of Endemicity (PAE). We used the species distribution predictive modelling to corroborate the existence of areas of endemism in Brazil and to elaborate a map of endemism clustering areas. Of the total, we collected 868 species of mosses from 26.691 records. From this information, we filled a number of 394 squares, having the number of species per grid ranging from 1 to 235. The Atlantic Forest presented greater richness, both by the conditions that it provides to the establishment of moss, and the greater sampling intensity in the Domain. The PAE resulted in only one area of endemism, located in the center of the State of Bahia, in the Phytogeographical Domain of the Caatinga, in the region of the Parque Nacional da Chapada Diamantina. The grids proposed as potential areas of endemism were found in six areas, scattered in the Cerrado and in the Atlantic Forest. The areas of endemism of mosses are mostly areas of mountains, which corroborate the main hypotheses of speciation of the organisms. In the UCs, 218 showed areas with environmental suitability for the presence of the species, whereupon 68 are inserted in the categories of Sustainable use and 150 in the category of integral protection, demonstrating the importance of the UCs for the bryoflora in the Atlantic Forest.
|
105 |
UMA ABORDAGEM BASEADA NA ENGENHARIA DIRIGIDA POR MODELOS PARA SUPORTAR MERGING DE BASE DE DADOS HETEROGÊNEAS / AN APPROACH BASED IN MODEL DRIVEN ENGINEERING TO SUPPORT MERGING OF HETEROGENEOUS DATABASECARVALHO, Marcus Vinícius Ribeiro de 24 February 2014 (has links)
Made available in DSpace on 2016-08-17T14:53:26Z (GMT). No. of bitstreams: 1
Dissertacao Marcus Vinicius Ribeiro.pdf: 4694533 bytes, checksum: b84a4bad63b098d054781131cfb9bc26 (MD5)
Previous issue date: 2014-02-24 / Model Driven Engineering (MDE) aims to make face to the development, maintenance and evolution of complex software systems, focusing in models and model transformations.
This approach can be applied in other domains such as database schema integration. In this research work, we propose a framework to integrate database schema in the MDE context. Metamodels for defining database model, database model matching, database model merging, and integrated database model are proposed in order to support our framework. An algorithm for database model matching and an algorithm
for database model merging are presented. We present also, a prototype that extends the MT4MDE and SAMT4MDE tools in order to demonstrate the implementation of our proposed framework, metodology, and algorithms. An illustrative example helps
to understand our proposed framework. / A Engenharia Dirigida por Modelos (MDE) fornece suporte para o gerenciamento da complexidade de desenvolvimento, manutenção e evolução de software, através da criação e transformação de modelos. Esta abordagem pode ser utilizada em outros domínios também complexos como a integração de esquemas de base de dados. Neste trabalho de pesquisa, propomos uma metodologia para integrar schema de base de dados no contexto da MDE. Metamodelos para definição de database model, database model matching, database model merging, integrated database model são propostos com a finalidade de apoiar a metodologia. Um algoritmo para database model matching e um algoritmo para database model merging são apresentados. Apresentamos ainda, um protótipo que adapta e estende as ferramentas MT4MDE e SAMT4MDE a fim de demonstrar a implementação do framework, metodologia e algoritmos propostos. Um exemplo ilustrativo ajuda a melhor entender a metodologia apresentada, servindo para explicar os metamodelos e algoritmos propostos neste trabalho. Uma breve avaliação do framework e diretrizes futuras sobre este trabalho são apresentadas.
|
106 |
Avaliação da violência urbana utilizando dados de morbimortalidade hospitalar: uma abordagem temporal e espacial / Urban violence evaluation based on hospital records: a temporal and spatial approachLiliam Pereira de Lima 22 September 2005 (has links)
Consideramos uma base de dados hospitalares constituída por informações sobre vítimas de causas externas atendidas no Pronto Socorro do Hospital Municipal Dr. Arthur Ribeiro de Saboya, no período de 01/01/02 a 11/01/03, e registradas pelo Núcleo de Atenção à Vítima de Violência deste hospital. O conjunto de dados foi avaliado sob duas abordagens: a temporal, onde estudamos o numero de eventos ao longo do tempo, e a espacial, onde consideramos a localização geográfica dos eventos. Utilizamos uma modelagem estatística baseada em processos pontuais e técnicas de ondaletas para estimar a intensidade temporal ou espacial, isto é, o numero esperado de eventos por unidade de área (na abordagem espacial) ou tempo (na abordagem temporal). Fatores como sexo, faixa etária e tipo de evento (acidentes ou agressões) também foram considerados na análise. Na análise temporal, os resultados indicam que o número esperado de ocorrências em homens é significantemente maior do que em mulheres ao longo do período de observação. O mesmo ocorre com o numero esperado de acidentes quando comparado com o de agressões. As faixas etárias que compreendem as idades de 0 a 14 anos, 15 a 29 anos, 30 a 59 anos e 60 anos ou mais também apresentam números esperados de casos significantemente diferentes entre si. Na análise espacial, escolhemos uma região do Município de São Paulo, nas proximidades do Hospital Saboya, e elaboramos mapas onde é possível identificar geograficamente os locais onde as ocorrências são mais frequentes. A intensidade estimada para o total de eventos indica uma distribuição espacial não homogênea, com grande concentração de eventos principalmente nos distritos do Jabaquara e Cidade Ademar, além de valores altos ao longo das avenidas Bandeirantes, Jabaquara e Cupecê. As intensidades espaciais relativas às agressões a homens e a mulheres, separadamente, apresentam distribuições não homogêneas. Os locais com maiores riscos de agressões a mulheres parecem estar localizados em regiões mais afastadas das grandes avenidas da região. Quando consideramos os acidentes de trânsito e de transporte para cada dia da semana, a análise indicou uma distribuição espacial e temporal heterogênea, com intensidades estimadas maiores nos fins de semana e menores na segunda e terça-feira / We consider a data set with information on victims that were assisted at the emergency room of the Dr. Arthur Ribeiro de Saboya Municipal Hospital, S~ao Paulo, Brazil, from January 1, 2002 to January 11, 2003. We analyze the data chronologically (number of events along time) and spatially (geographical location). The statistical modelling is based on point processes and wavelet techniques to estimate both temporal and spatial intensities, that is, the expected numbers of events by unit time or unit area. The results indicate that the expected number of events is greater for men than for women along the whole observation period. The same is true for the expected number of accidents and that of aggressions, the former being consistently greater than the latter. The expected numbers of events for different age groups (0 to 14, 15 to 29, 30 to 59 and 60 or more) are significantly different. A neighborhood of Saboya Hospital was considered for spatial analysis, according to which it is possible to identify regions where occurrences are most frequent. The spatial distribution of the number of events is non homogeneous with high concentration mostly on Jabaquara and Cidade Ademar districts and along some big avenues (Bandeirantes, Jabaquara and Cupec^e avenues). Spatial non homogeneity of intensities is also observed for both aggressions to men and to women. The regions with the highest risks of aggression to women seam to be located away from the big avenues. When considering traffic and transport accidents separately by each day of the week, the analysis has shown both time and spatial non homogeneous distributions of events with highest estimated intensities during weekends and lowest ones on Monday and Tuesday
|
107 |
[en] E-AUTOMFIS: INTERPRETABLE MODEL FOR TIME SERIES FORECASTING USING ENSEMBLE LEARNING OF FUZZY INFERENCE SYSTEM / [pt] E-AUTOMFIS: MODELO INTERPRETÁVEL PARA PREVISÃO DE SÉRIES MULTIVARIADAS USANDO COMITÊS DE SISTEMAS DE INFERÊNCIA FUZZYTHIAGO MEDEIROS CARVALHO 17 June 2021 (has links)
[pt] Por definição, a série temporal representa o comportamento de uma variável em função do tempo. Para o processo de previsão de séries, o modelo deve ser capaz de aprender a dinâmica temporal das variáveis para obter valores futuros. Contudo, prever séries temporais com exatidão é uma tarefa que vai além de escolher o modelo mais complexo, e portanto a etapa de análise é um processo fundamental para orientar o ajuste do modelo. Especificamente em problemas multivariados, o AutoMFIS é um modelo baseado na lógica fuzzy, desenvolvido para introduzir uma explicabilidade dos resultados através de regras semanticamente compreensíveis. Mesmo com características promissoras e positivas, este sistema possui limitações que tornam sua utilização impraticável em problemas com bases de dados com alta dimensionalidade. E com a presença cada vez maior de bases de dados mais volumosas, é necessário
que a síntese automática de sistemas fuzzy seja adaptada para abranger essa nova classe de problemas de previsão. Por conta desta necessidade, a presente dissertação propõe a extensão do modelo AutoMFIS para a previsão de séries temporais com alta dimensionalidade, chamado de e-AutoMFIS. Apresentase uma nova metodologia, baseada em comitê de previsores, para o aprendizado distribuído de geração de regras fuzzy. Neste trabalho, são descritas as características importantes do modelo proposto, salientando as modificações realizadas para aprimorar tanto a previsão quanto a interpretabilidade do sistema. Além disso, também é avaliado o seu desempenho em problemas reais, comparando-se a acurácia dos resultados com as de outras técnicas descritas na literatura. Por fim, em cada problema selecionado também é considerado o aspecto da interpretabilidade, discutindo-se os critérios utilizados para a análise
de explicabilidade. / [en] By definition, the time series represents the behavior of a variable as a time function. For the series forecasting process, the model must be able to learn the temporal dynamics of the variables in order to obtain consistent future values. However, an accurate time series prediction is a task that goes
beyond choosing the most complex (or promising) model that is applicable to the type of problem, and therefore the analysis step is a fundamental procedure to guide the adaptation of a model. Specifically, in multivariate problems, AutoMFIS is a model based on fuzzy logic, developed not only to give accurate forecasts but also to introduce the explainability of results through semantically understandable rules. Even with such promising characteristics, this system has shown practical limitations in problems that involve datasets of high dimensionality. With the increasing demand formethods to deal with large datasets, it should be great that approaches for the automatic synthesis of fuzzy systems could be adapted to cover a new class of forecasting problems. This dissertation proposes an extension of the base model AutoMFIS modeling method for time series forecasting with high dimensionality data, named as e-AutoMFIS. Based on the Ensemble learning theory, this new methodology applies distributed learning to generate fuzzy rules. The main characteristics of the proposed model are described, highlighting the changes in order to improve
both the accuracy and the interpretability of the system. The proposed model is also evaluated in different case studies, in which the results are compared in terms of accuracy against the results produced by other methods in the literature. In addition, in each selected problem, the aspect of interpretability is also assessed, which is essential for explainability evaluation.
|
108 |
Análise da qualidade de uma base de dados a a partir da implementação do Registro Paulista de Tratamento Cirúrgico de Câncer de Pulmão / Analysis a database quality through the implementation of the Paulista Lung Cancer Surgical Treatment RegistryLauricella, Letícia Leone 29 November 2017 (has links)
INTRODUÇÃO: O câncer de pulmão é a terceira neoplasia maligna mais frequentemente diagnosticada em todo o mundo e a primeira em termos de mortalidade. O tratamento cirúrgico é a melhor abordagem nos estágios iniciais, contudo, está associado a morbimortalidade considerável. Para que o impacto do tratamento cirúrgico na diminuição global da mortalidade pelo câncer de pulmão no estado de São Paulo seja maior, precisamos conhecer os indicadores de qualidade das instituições envolvidas no tratamento desta neoplasia, através da criação de uma base de dados abrangente, confiável e transparente. Este estudo envolveu a implementação do Registro Paulista de Tratamento Cirúrgico do Câncer de Pulmão (RPCP). O desfecho principal foi a análise da qualidade dos dados capturados através de um sistema de auditoria direta e indireta, com o intuito de identificar as variáveis com menor padrão de qualidade. MÉTODOS: Estudo prospectivo, multicêntrico, com participação de 10 instituições no estado de São Paulo. A auditoria dos dados foi realizada de forma direta por revisão dos prontuários, para análise da taxa de discordância, Coeficiente Kappa e Intraclass correlation e de forma indireta para análise dos índices de completude, acurácia e consistência. RESULTADOS: Dos 536 casos disponíveis, 511 foram incluídos para a auditoria indireta. O índice total de completude por questionário variou de 0,82 a 1, sendo que as seguintes variáveis obtiveram valor individual abaixo da meta estabelecida de 0,8: ECOG, MRC, hematócrito, potássio, uréia, creatinina, DHL, albumina, cálcio e FA, tempo de cirurgia e data da recidiva. O índice total de acurácia e consistência foi 0,99 e 0,96, respectivamente. Para auditoria direta foram randomizados 100 casos entre os 511 iniciais, sendo 4 excluídos, restando 96 para análise. As variáveis com maiores taxas de discordância ( > 20%), estavam no questionário de avaliação pré-operatória (ECOG, MRC, carga tabágica, DPOC, PFP, peso, altura, IMC e exames laboratoriais). Variáveis relacionadas ao estadiamento (tamanho da neoplasia, invasão de estruturas adjacentes, status linfonodal não invasivo) e dados cirúrgicos (tempo de cirurgia) também apresentaram taxas > 20%. CONCLUSÕES: A auditoria indireta dos dados mostrou índices de completude, acurácia e consistência aceitáveis para o padrão estabelecido e comparáveis a bancos de dados internacionais. Por outro lado, a auditoria direta, revelou algumas variáveis com altos índices de discordância, dados que serão analisados futuramente para aprimoramento do RPCP e que poderão contribuir para o desenvolvimento de outras bases de dados semelhantes / BACKGROUND: Lung cancer is the third malignant neoplasm most frequently diagnosed worldwide and the first in terms of mortality. Surgical treatment is the best approach in the initial stages; however, it\'s associated with considerable morbidity and mortality. In order to improve the surgical treatment global impact on lung cancer mortality in the state of Sao Paulo, we need to know the quality indicators of the institutions involved in the treatment of this neoplasm through the creation of a extensive, reliable and transparent database. The study involved the implementation of the Paulista Lung Cancer Registry (PLCR). The main outcome was the quality analysis of the data captured through a direct and indirect audit system, in order to identify the variables with the lowest quality standard. METHODS: A prospective, multicenter study with the participation of 10 institutions in the state of São Paulo. The data audit was performed directly, through the revision of medical registries, with the intention to analyze the discordance rate; and indirectly, with the intention to analyze the completeness, accuracy and consistency indexes. RESULTS: Of the 536 cases available, 511 were included for the indirect audit. The total completeness index per questionnaire ranged from 0.82 to 1, and the following variables had a in individual value bellow the established target of 0,8: ECOG, MRC, hematocrit, potassium, urea, creatinine, LDH, albumin, calcium, AF, surgical time, date of recurrence. The total accuracy and consistency index was 0.99 and 0.96, respectively. For direct audit, 100 cases were randomized among the initial 511, of which 4 were excluded, remaining 96 for analysis. The variables with the highest discordance rates ( > 20%) were in the preoperative evaluation questionnaire (ECOG, MRC, smoking rate, COPD, PFT, weight, high, BMI and lab tests). Variables related to staging (size of neoplasm, invasion of adjacent structures, noninvasive lymph node status) and surgical data (time of surgery) also presented rates > 20%. CONCLUSIONS: Regarding the established standards, the Indirect audit showed acceptable completeness, accuracy and consistency indices, comparable to international databases. On the other hand, the direct audit revealed some variables with high discordance indices, data that will be analyzed in the future for the improvement of the PLCR and that may contribute to the development of other similar databases
|
109 |
Sistema de gerenciamento da informação: alterações neurológicas em chagásicos crônicos não-cardíacos / Information Management System: neurological disorders in non-cardiac chronics chagasic.Carmo, Samuel Sullivan 27 April 2010 (has links)
O presente trabalho ocupa-se no desenvolvimento de um sistema computacional de gerenciamento da informação para auxiliar os estudos científicos sobre o sistema nervoso de chagásicos crônicos não-cardíacos. O objetivo é desenvolver o sistema requerido, pelo pressuposto de praticidade nas análises decorrentes da investigação. O método utilizado para desenvolver este sistema computacional, dedicado ao gerenciamento das informações da pesquisa sobre as alterações neurológicas de seus sujeitos, foi; compor o arquétipo de metas e a matriz de levantamento de requisitos das variantes do sistema; listar os atributos, domínios e qualificações das suas variáveis; elaborar o quadro de escolha de equipamentos e aplicativos necessários para sua implantação física e lógica e; implantá-lo mediante uma modelagem de base de dados, e uma programação lógica de algoritmos. Como resultado o sistema foi desenvolvido. A discussão de análise é; a saber, que a informatização pode tornar mais eficaz as operações de cadastro, consulta e validação de campo, além da formatação e exportação de tabelas pré-tratadas para análises estatísticas, atuando assim como uma ferramenta do método científico. Ora, a argumentação lógica é que a confiabilidade das informações computacionalmente registradas é aumentada porque o erro humano é diminuído na maioria dos processamentos. Como discussão de cerramento, estudos dotados de razoável volume de variáveis e sujeitos de pesquisa são mais bem geridos caso possuam um sistema dedicado ao gerenciamento de suas informações. / This is the development of a computer information management system to support scientific studies about the nervous system of non-cardiac chronic chagasic patients. The goal is to develop the required system, by assumption of the convenience in the analysis of research results. The method used to develop this computer system, dedicated to information management of research about the neurological disorders of their human subject research, were; compose the archetypal matrix of targets and requirements elicitation of the system variants; list the attributes, qualifications and domains of its variables; draw up the choice framework of equipment and required applications for its physical and logic implementation, and; deploying it through a data modeling, an adapted entity-relationship diagram and programmable logic algorithms. As a result the required system was developed. The analytical discussion is that the computerization makes the data processing faster and safer. The more practical information management processes are: the operations of registration, queries and fields\' validations, as well as the advanced and basic queries of records, in addition to table formatting and exporting of pre-treated for statistical analysis. The logical argument is that the reliability of the recorded computationally information is increased because is insured that bias of human error is absent from most of the steps, including several the data processing operations. As end discussion, scientific studies with reasonable amount of variables and research subjects are better managed if they have a dedicated system to managing their information.
|
110 |
Uso de estatinas em pacientes com doença isquêmica do coração: análise de custo-efetividade / Statins use in patients with ischemic heart disease: A cost effectiveness analysisLuque, Alexandre 14 December 2016 (has links)
Introdução: As avaliações econômicas completas do tipo custo-utilidade, suportadas por dados de efetividade do mundo real, permitem uma perspectiva diferenciada da avaliação de tecnologia em saúde. Objetivo: Realizar uma análise de custo-utilidade do uso de estatinas para a prevenção secundária de eventos cardiovasculares em portadores de doença cardiovascular isquêmica, e avaliar a variabilidade da efetividade e da razão de custo-efetividade incremental com diferentes classificações de usuários de estatina (incidentes e prevalentes). Método: Um modelo de microssimulação de Markov com 5 estados, ciclos anuais e horizonte temporal de 20 anos, com taxas de desconto de 5% foi desenvolvido. As probabilidades de transição para mortalidade por todas as causas foram extraídas após pareamento por escore de propensão dos dados e tratamento de dados ausentes de uma base secundária de registro assistencial com linkage determinístico com a base de mortalidade do Ministério da Saúde. As probabilidades dos desfechos não-fatais foram obtidas na literatura. As medidas de efetividade (QALY) foram calculadas com dados publicados dos domínios do SF-36 de um estudo realizado com a população do mesmo hospital, no mesmo período e com as mesmas condições clínicas e transformados em medidas de utilidade por modelo validado. Somente custos diretos na perspectiva do reembolso do SUS foram considerados. Resultados: 3.150 pacientes foram pareados após o escore de propensão, 1.050 não usuários de estatina, 1.050 usuários de estatinas classificados como prevalentes e 1.050 usuários de estatinas classificados como incidentes, com diagnóstico de doença cardiovascular isquêmica prévia, com seguimento médio de 5,1 anos. A efetividade das estatinas quando considerados todos os usuários em relação aos não usuários resultou em um HR para mortalidade de 0,992 (IC 95% 0,85; 0,96) e de 0,90 (IC 95% 0,85; 0,96) para os usuários incidentes. A RCEI comparando todos os usuários de estatinas versus não usuários foi de R$5.846,10/QALY e de R$7.275,61/QALY para os usuários incidentes. Conclusão: As estatinas diminuíram a mortalidade por todas as causas, e a análise incluindo usuários prevalentes diminui o tamanho do efeito. O tratamento possui custo-efetividade favorável dentro do limiar de disponibilidade a pagar definido, sendo modificado pela forma de extração do dado de efetividade / Background: The complete economic evaluations, such as cost-utility analysis, supported by real world data of effectiveness lead to a more realistic perspective of a health technology assessment. Objective: Perform a cost-utility analysis of statins for secondary prevention in ischemic cardiovascular disease patients based on effectiveness from real world data and evaluate the variability of effectiveness and incremental cost-effectiveness ratio (ICER) considering prevalent and incident users. Methods: A Markov microssimulation model with five states, annual cycle and time horizon (TH) of 20 years, with discount rate of 5% was developed. Transition probabilities for all cause mortality was derived from a secondary database of a teaching hospital after record linkage with national registry of mortality database and an analysis of propensity score matching and multiple imputation analysis for missing data. Non-fatal endpoints were derived from a published meta-analysis. Utility measures was calculated with a validated model to derive values from published domains of SF-36 QoL questionnaire, domains was measured for a published RCT in the same teaching hospital, over the same period, with similar age and diagnostic characteristics. Only direct costs were analyzed from the Brazilian public health reimbursement perspective. Results: 3150 patients were matched, 1050 non-statins users (CG), 1050 prevalent statins users (PSU) and 1050 incident statins users (ISU) with previous cardiovascular disease, with mean follow-up of 5,1 years. Treatment effects on the treatment group considering all statins users for all cause mortality had a hazard ratio of HR:0,992 (IC 95% 0,85 - 0,96) and HR: 0,90 (IC 95% 0,85 - 0,96) only for ISU. The ICER comparing all users with non-users was R$5.846,10 per QALY and for ISU was R$7.275,61 per QALY. Conclusion: Real world evidence demonstrated that statins are an effective treatment to reduce all cause mortality in secondary prevention and are a cost-effective strategy considering the willingness to pay established, but the prevalent users resulted in less effectiveness of the drug when included in the analysis and influenced the ICER
|
Page generated in 0.0457 seconds