• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 15
  • 13
  • 13
  • 12
  • 12
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 203
  • 84
  • 82
  • 54
  • 41
  • 40
  • 38
  • 34
  • 32
  • 30
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Modelo de apoio ao estudo de pacientes em oncologia pediátrica utilizando raciocínio baseado em casos e mineração de dados / Model study support for patients in pediatric oncology using case-based reasoning and data mining

Cruz, Jailton Cardoso da 14 April 2014 (has links)
This work aims to propose a recommendation model of prescription items for Pediatric Oncology based on data extraction from Electronic Patient Record. These data are used as indexed cases to aid providers of medical service based on the similarity of prescriptions, according to the patient's history. From the viewpoint of aid medical education, the modeling objective support the student or health professional in understanding the decision-making process during the prescription items oncological medical treatment, for example drugs, laboratory exams or images exams, diet, gases, care, chemotherapy, radiotherapy. To develop the model, was used the approach of Case Based Reasoning (CBR), through the representation of prescription medical base-case, indexed by their treatment items. During the recovery phase of cases, we used the tool. Data Mining by applying the model of association rule, together with the algorithm "apriori" for obtaining the similarity between cases. To update the case base, a procedure database for performing the process of Extraction, Transformation and Load of the database was developed. The developed model was applied in the database of the Electronic Patient Record of the Santa Casa de Misericordia de Maceio, based on Hospital Management Systems “MV Sistemas”, deployed in the unit since 2005. For the presentation of results, was used the Oracle Data Miner tool, which allowed access to the database and analysis of selected cases by identifying key words contained in the evolution of the clinical condition of the patient. The application of the experiments validate the occurrence of allowed combined application of items of treatment according to the keywords, which can be used as input in the process of making medical decision and tutoring. / Este trabalho tem como objetivo propor um Modelo de Recomendação de itens de prescrição para Oncologia Pediátrica baseado na extração de dados do Prontuário Eletrônico do Paciente. Esses dados são utilizados como casos indexados, para auxiliar os prestadores de serviço médico baseados na similaridade de prescrições, de acordo com o histórico do paciente. Do ponto de vista do apoio a educação médica, a modelagem objetiva apoiar o estudante ou o profissional de saúde no entendimento do processo de tomada de decisão durante a fase de prescrição de itens de tratamento médico oncológico, como, por exemplo: medicamentos, exames de laboratório ou de imagens, dieta, gases, cuidados, quimioterapia, radioterapia. Para o desenvolvimento do modelo, utilizou-se a abordagem de Raciocínio Baseado em Casos (RBC), através da representação de uma base de casos de prescrição médica, indexada por seus itens de tratamento. Durante a fase de recuperação de casos, utilizou-se a ferramenta de Mineração de Dados aplicando-se o modelo de regra de associação, em conjunto com o algoritmo “apriori” visando a obtenção da similaridade entre casos. Para a atualização da base de casos, foi desenvolvido um procedimento de banco de dados para execução do processo de Extração, Transformação e Carga da base de dados. O modelo desenvolvido foi aplicado na base de dados do Prontuário Eletrônico do Paciente da Santa Casa de Misericórdia de Maceió, baseado no sistema de gestão hospitalar MV Sistemas, implantado na unidade desde 2005. Para a apresentação dos resultados, utilizou-se a ferramenta Oracle Data Miner, que possibilitou o acesso ao banco de dados e a análise dos casos selecionados pela identificação de palavras chaves contidas na evolução do estado clínico do paciente. A aplicação dos experimentos permitiu validar a ocorrência de aplicação conjunta de itens de tratamento de acordo com as palavras chaves, o que pode ser utilizado como elemento para o processo de tomada de decisão médica e tutoria.
182

Análise e quantificação da formação de suítes no jornalismo online brasileiro

Menucci, Fernando de Souza 25 August 2015 (has links)
Submitted by Fernando Menucci (menucci@gmail.com) on 2015-09-25T20:16:09Z No. of bitstreams: 1 merged.pdf: 5551154 bytes, checksum: ffba1681eef4e87cee11f102f098b7d6 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2015-10-08T14:05:39Z (GMT) No. of bitstreams: 1 merged.pdf: 5551154 bytes, checksum: ffba1681eef4e87cee11f102f098b7d6 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2015-10-13T12:32:12Z (GMT) No. of bitstreams: 1 merged.pdf: 5551154 bytes, checksum: ffba1681eef4e87cee11f102f098b7d6 (MD5) / Made available in DSpace on 2015-10-13T12:32:24Z (GMT). No. of bitstreams: 1 merged.pdf: 5551154 bytes, checksum: ffba1681eef4e87cee11f102f098b7d6 (MD5) Previous issue date: 2015-08-25 / No jornalismo, são chamadas suítes as matérias que trazem a sequência de um fato já noticiado. Conforme a imprensa cresce na Internet, podemos ver frequentemente um mesmo fato sendo repetido em portais de notícias dia após dia. Este trabalho visa medir as quantidades de artigos a respeito de um mesmo assunto que tenha iniciado uma suíte, com esta medição acontecendo ao longo dos dias em que ele foi explorado. Os resultados permitiram que fossem encontrados padrões que identifiquem os dias em que os fatos mais relevantes foram noticiados, bem como o tempo em que o assunto foi desenvolvido. Para esta análise, foram escolhidos alguns dos mais importantes fatos que viraram suítes no Brasil ao longo dos últimos anos. As quantidades de artigos são provenientes do maior portal de notícias do país, o G1, e da base de dados do Media Cloud Brasil. / Follow-ups are that kind of article that brings a sequence of a fact. As long as Journalism becomes digital, we can often see a same fact being repeated day after day on news websites. This work will measure the amounts of articles about a fact that starts a follow-up along the days that it was explored, finding patterns and the extension of the follow-up, also identifying days when the most significant facts were registered. Some of the main events that were turned to follow-ups in Brazil in the last years were choosen to be analysed. The amounts of articles comes from the biggest news website of the country, G1, and from the database of Media Cloud Brasil.
183

Comparando a saúde no Brasil com os países da OCDE: explorando dados de saúde pública

Lima, Cecília Pessanha 30 March 2016 (has links)
Submitted by Cecilia Pessanha Lima (ceciliapessanha@hotmail.com) on 2016-05-03T13:43:05Z No. of bitstreams: 4 CeciliaMestrado.pdf: 4264856 bytes, checksum: 4cee96c9c4dfc83613b5314d48ab3453 (MD5) Anexo A – Códigos SQL utilizados para o cálculo dos indicadores.zip: 28174 bytes, checksum: dfa95cbed981f9d9be8cf57526e84ad7 (MD5) Anexo B – Códigos utilizados para importação das bases de dados.zip: 9937 bytes, checksum: 834e218ce4ec37717a40f5533f9640b7 (MD5) Anexo C - Filtros Aplicados em Cada Variável.pdf: 374380 bytes, checksum: 10ca66baf67f8d6a85b54c1cf89b56a9 (MD5) / Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2016-05-05T12:51:03Z (GMT) No. of bitstreams: 4 CeciliaMestrado.pdf: 4264856 bytes, checksum: 4cee96c9c4dfc83613b5314d48ab3453 (MD5) Anexo A – Códigos SQL utilizados para o cálculo dos indicadores.zip: 28174 bytes, checksum: dfa95cbed981f9d9be8cf57526e84ad7 (MD5) Anexo B – Códigos utilizados para importação das bases de dados.zip: 9937 bytes, checksum: 834e218ce4ec37717a40f5533f9640b7 (MD5) Anexo C - Filtros Aplicados em Cada Variável.pdf: 374380 bytes, checksum: 10ca66baf67f8d6a85b54c1cf89b56a9 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2016-05-09T17:02:45Z (GMT) No. of bitstreams: 4 CeciliaMestrado.pdf: 4264856 bytes, checksum: 4cee96c9c4dfc83613b5314d48ab3453 (MD5) Anexo A – Códigos SQL utilizados para o cálculo dos indicadores.zip: 28174 bytes, checksum: dfa95cbed981f9d9be8cf57526e84ad7 (MD5) Anexo B – Códigos utilizados para importação das bases de dados.zip: 9937 bytes, checksum: 834e218ce4ec37717a40f5533f9640b7 (MD5) Anexo C - Filtros Aplicados em Cada Variável.pdf: 374380 bytes, checksum: 10ca66baf67f8d6a85b54c1cf89b56a9 (MD5) / Made available in DSpace on 2016-05-09T17:03:00Z (GMT). No. of bitstreams: 4 CeciliaMestrado.pdf: 4264856 bytes, checksum: 4cee96c9c4dfc83613b5314d48ab3453 (MD5) Anexo A – Códigos SQL utilizados para o cálculo dos indicadores.zip: 28174 bytes, checksum: dfa95cbed981f9d9be8cf57526e84ad7 (MD5) Anexo B – Códigos utilizados para importação das bases de dados.zip: 9937 bytes, checksum: 834e218ce4ec37717a40f5533f9640b7 (MD5) Anexo C - Filtros Aplicados em Cada Variável.pdf: 374380 bytes, checksum: 10ca66baf67f8d6a85b54c1cf89b56a9 (MD5) Previous issue date: 2016-03-30 / Healthcare authorities in Brazil produces a large amount of data on health services and use. The appropriate treatment of this data with massive data techniques enables the extraction of important information. This information can contribute to a better understanding of the Brazilian healthcare sector. The evaluation of health systems performance based on the analysis of routinely produced healthcare data has been a worldwide trend. Several countries already maintain monitoring programs based on indicators constructed using this type of data. In this context, the OCDE—Organization for Economic Co-operation and Development, an international organization that evaluates the economic policies of its 34 member countries, has a biennial publication called Health at a Glance, which aims to make the comparison of health systems in OCDE member countries. Although it is not a member country, OCDE seeks to include Brazil in the calculation of some of the indicators, when the data is available, considering that Brazil is one of the largest economies that are still not a member country. This study aims to construct and implement, based on the methodology of Health at a Glance 2015, the calculation in the Brazilian context of 22 indicators in the health field “Use of Health Services.” To develop the set of indicators, first, a wide search of the major national health databases was done to assess data availability. The available data was then extracted using massive data techniques. Those techniques were required because of the large volume of health data in Brazil. The datasets were extracted from three main data sources containing health billing data: SUS, private health insurance and other sources of billing, as public health insurances, DPVAT and private. This work has shown that health data publicly available in Brazil can be used to evaluate the Brazilian health system performance, and include Brazil in the international benchmark of the OCDE countries for the 22 indicators calculated. It can also promote the comparison of the public health sector in Brazil, SUS, and the private health insurance sector based on the same set of indicators. It also made possible the comparison of in each State for SUS, thus underlining the differences in the health-care services among Brazil States for the public sector. The analysis of the indicators showed that, in general, compared to OCDE countries, Brazil has a below-average performance, which indicates a need for efforts to achieve a higher level in the provision of healthcare services that are under these indicators assessment. When separating SUS and private health insurance, the analysis of Brazil’s indicators shows that the private health sector performance is in the average of the OCDE countries. On the other hand, it was observed that SUS was systematically and significantly under the average of the OCDE countries. This highlights the inequalities in healthcare services provision in Brazil between the SUS and private health insurance. The use of the TISS/ANS database as a source of information for the private health insurance sector for the calculation of these indicators will be an improvement over the data available at the time of this analysis. TISS includes all the information exchanged between healthcare services providers and private health insurance operators, in order to perform the payment of healthcare services provided. / A atenção à saúde da população no Brasil gera um grande volume de dados sobre os serviços de saúde prestados. O tratamento adequado destes dados com técnicas de acesso à grande massa de dados pode permitir a extração de informações importantes para um melhor conhecimento do setor saúde. Avaliar o desempenho dos sistemas de saúde através da utilização da massa de dados produzida tem sido uma tendência mundial, uma vez que vários países já mantêm programas de avaliação baseados em dados e indicadores. Neste contexto, A OCDE – Organização para Cooperação e Desenvolvimento Econômico, que é uma organização internacional que avalia as políticas econômicas de seus 34 países membros, possui uma publicação bienal, chamada Health at a Glance, que tem por objetivo fazer a comparação dos sistemas de saúde dos países membros da OCDE. Embora o Brasil não seja um membro, a OCDE procura incluí-lo no cálculo de alguns indicadores, quando os dados estão disponíveis, pois considera o Brasil como uma das maiores economias que não é um país membro. O presente estudo tem por objetivo propor e implementar, com base na metodologia da publicação Health at a Glance de 2015, o cálculo para o Brasil de 22 indicadores em saúde que compõem o domínio “utilização de serviços em saúde” da publicação da OCDE. Para isto foi feito um levantamento das principais bases de dados nacionais em saúde disponíveis que posteriormente foram capturadas, conforme necessidade, através de técnicas para acessar e tratar o grande volume de dados em saúde no Brasil. As bases de dados utilizadas são provenientes de três principais fontes remuneração: SUS, planos privados de saúde e outras fontes de remuneração como, por exemplo, planos públicos de saúde, DPVAT e particular. A realização deste trabalho permitiu verificar que os dados em saúde disponíveis publicamente no Brasil podem ser usados na avaliação do desempenho do sistema de saúde, e além de incluir o Brasil no benchmark internacional dos países da OCDE nestes 22 indicadores, promoveu a comparação destes indicadores entre o setor público de saúde do Brasil, o SUS, e o setor de planos privados de saúde, a chamada saúde suplementar. Além disso, também foi possível comparar os indicadores calculados para o SUS para cada UF, demonstrando assim as diferenças na prestação de serviços de saúde nos estados do Brasil para o setor público. A análise dos resultados demonstrou que, em geral, o Brasil comparado com os países da OCDE apresenta um desempenho abaixo da média dos demais países, o que indica necessidade de esforços para atingir um nível mais alto na prestação de serviços em saúde que estão no âmbito de avaliação dos indicadores calculados. Quando segmentado entre SUS e saúde suplementar, a análise dos resultados dos indicadores do Brasil aponta para uma aproximação do desempenho do setor de saúde suplementar em relação à média dos demais países da OCDE, e por outro lado um distanciamento do SUS em relação a esta média. Isto evidencia a diferença no nível de prestação de serviços dentro do Brasil entre o SUS e a saúde suplementar. Por fim, como proposta de melhoria na qualidade dos resultados obtidos neste estudo sugere-se o uso da base de dados do TISS/ANS para as informações provenientes do setor de saúde suplementar, uma vez que o TISS reflete toda a troca de informações entre os prestadores de serviços de saúde e as operadoras de planos privados de saúde para fins de pagamento dos serviços prestados.
184

Data mining: aplicação voltada a geração de informações para tomada de decisão na Secretaria de Estado da Educação de São Paulo

Matiello Junior, Américo 12 July 1999 (has links)
Made available in DSpace on 2010-04-20T20:20:34Z (GMT). No. of bitstreams: 0 Previous issue date: 1999-07-12T00:00:00Z / Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados
185

Aplicação de modelos gráficos probabilísticos computacionais em economia

Colla, Ernesto Coutinho 29 June 2009 (has links)
Made available in DSpace on 2010-04-20T20:56:57Z (GMT). No. of bitstreams: 4 Ernesto_Colla.pdf.jpg: 21014 bytes, checksum: 4f059b37f39662752479b4c41e7d0ccd (MD5) Ernesto_Colla.pdf.txt: 293178 bytes, checksum: bbca88752988b32a6da9e503e9fbe5cf (MD5) license.txt: 4810 bytes, checksum: 4ca799e651215ccf5ee1c07a835ee897 (MD5) Ernesto_Colla.pdf: 1784465 bytes, checksum: 7c45a00d36db536ce2c8e1eff4a23b6b (MD5) Previous issue date: 2009-06-29T00:00:00Z / We develop a probabilistic model using Machine Learning tools to classify the trend of the Brazilian country risk expressed EMBI+ (Emerging Markets Bond Index Plus). The main goal is verify if Machine Learning is useful to build economic models which could be used as reasoning tools under uncertainty. Specifically we use Bayesian Networks to perform pattern recognition in observed macroeconomics and financial data. The results are promising. We get the main expected theoretical relationship between country risk and economic variables, as well as international economic context and market expectations. / O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do 'risco país' para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
186

Newsminer: um sistema de data warehouse baseado em texto de notícias / Newsminer: a data warehouse system based on news websites

Nogueira, Rodrigo Ramos 12 May 2017 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-10-09T14:12:56Z No. of bitstreams: 1 NOGUEIRA_Rodrigo_2017.pdf: 5427774 bytes, checksum: db8155583bf1bffe3ceb4c01bf26f66f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-09T14:14:04Z (GMT) No. of bitstreams: 1 NOGUEIRA_Rodrigo_2017.pdf: 5427774 bytes, checksum: db8155583bf1bffe3ceb4c01bf26f66f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-09T14:14:13Z (GMT) No. of bitstreams: 1 NOGUEIRA_Rodrigo_2017.pdf: 5427774 bytes, checksum: db8155583bf1bffe3ceb4c01bf26f66f (MD5) / Made available in DSpace on 2017-10-09T14:14:24Z (GMT). No. of bitstreams: 1 NOGUEIRA_Rodrigo_2017.pdf: 5427774 bytes, checksum: db8155583bf1bffe3ceb4c01bf26f66f (MD5) Previous issue date: 2017-05-12 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Data and text mining applications managing Web data have been the subject of recent research. In every case, data mining tasks need to work on clean, consistent, and integrated data for obtaining the best results. Thus, Data Warehouse environments are a valuable source of clean, integrated data for data mining applications. Data Warehouse technology has evolved to retrieve and process data from the Web. In particular, news websites are rich sources that can compose a linguistic corpus. By inserting corpus into a Data Warehousing environment, applications can take advantage of the flexibility that a multidimensional model and OLAP operations provide. Among the benefits are the navigation through the data, the selection of the part of the data considered relevant, data analysis at different levels of abstraction, and aggregation, disaggregation, rotation and filtering over any set of data. This paper presents Newsminer, a data warehouse environment, which provides a consistent and clean set of texts in the form of a multidimensional corpus for consumption by external applications and users. The proposal includes an architecture that integrates the gathering of news in real time, a semantic enrichment module as part of the ETL stage, which adds semantic properties to the data such as news category and POS-tagging annotation and the access to data cubes for consumption by applications and users. Two experiments were performed. The first experiment selects the best news classifier for the semantic enrichment module. The statistical analysis of the results indicated that the Perceptron classifier achieved the best results of F-measure, with a good result of computational time. The second experiment collected data to evaluate real-time news preprocessing. For the data set collected, the results indicated that it is possible to achieve online processing time. / As aplicações de mineração de dados e textos oriundos da Internet têm sido alvo de recentes pesquisas. E, em todos os casos, as tarefas de mineração de dados necessitam trabalhar sobre dados limpos, consistentes e integrados para obter os melhores resultados. Sendo assim, ambientes de Data Warehouse são uma valiosa fonte de dados limpos e integrados para as aplicações de mineração. A tecnologia de Data Warehouse tem evoluído no sentido de recuperar e tratar dados provenientes da Web. Em particular, os sites de notícias são fontes ricas em textos, que podem compor um corpus linguístico. Inserindo o corpus em um ambiente de Data Warehouse, as aplicações poderão tirar proveito da flexibilidade que um modelo multidimensional e as operações OLAP fornecem. Dentre as vantagens estão a navegação pelos dados, a seleção da parte dos dados considerados relevantes, a análise dos dados em diferentes níveis de abstração, e a agregação, desagregação, rotação e filtragem sobre qualquer conjunto de dados. Este trabalho apresenta o ambiente de Data Warehouse Newsminer, que fornece um conjunto de textos consistente e limpo, na forma de um corpus multidimensional para consumo por aplicações externas e usuários. A proposta inclui uma arquitetura que integra a coleta textos de notícias em tempo próximo do tempo real, um módulo de enriquecimento semântico como parte da etapa de ETL, que acrescenta propriedades semânticas aos dados coletados tais como a categoria da notícia e a anotação POS-tagging, e a disponibilização de cubos de dados para consumo por aplicações e usuários. Foram executados dois experimentos. O primeiro experimento é relacionado à escolha do melhor classificador de categorias das notícias do módulo de enriquecimento semântico. A análise estatística dos resultados indicou que o classificador Perceptron atingiu os melhores resultados de F-medida, com resultado bom de tempo de processamento. O segundo experimento coletou dados para avaliar o pré-processamento de notícias em tempo real. Para o conjunto de dados coletados, os resultados indicaram que é possível atingir tempo de processamento online. / OB800972
187

Máquinas de classificação para detectar polaridade de mensagens de texto em redes sociais / Sentiment analysis on social networks using ensembles

Von Lochter, Johannes 18 November 2015 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:16:57Z No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:17:13Z (GMT) No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:17:24Z (GMT) No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Made available in DSpace on 2016-10-17T13:17:36Z (GMT). No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) Previous issue date: 2015-11-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / The popularity of social networks have attracted attention of companies. The growing amount of connected users and messages posted per day make these environments fruitful to detect needs, tendencies, opinions, and other interesting information that can feed marketing and sales departments. However, the most social networks impose size limit to messages, which lead users to compact them by using abbreviations, slangs, and symbols. Recent works in literature have reported advances in minimizing the impact created by noisy messages in text categorization tasks by means of semantic dictionaries and ontology models. They are used to normalize and expand short and messy text messages before using them with a machine learning approach. In this way, we have proposed an ensemble of machine learning methods and natural language processing techniques to find the best way to combine text processing approaches with classification methods to automatically detect opinion in short english text messages. Our experiments were diligently designed to ensure statistically sound results, which indicate that the proposed system has achieved a performance higher than the individual established classifiers. / A popularidade das redes sociais tem atraído a atenção das empresas. O crescimento do número de usuários e das mensagens enviadas por dia transforma esse ambiente em uma rica fonte de informações para descoberta de necessidades, tendências, opiniões e outras informações que podem auxiliar departamentos de vendas e marketing. Contudo,a maioria das redes sociais impõe limite no tamanho das mensagens, o que leva os usuários a usarem abreviações e gírias para compactarem o texto. Trabalhos na literatura demonstraram avanço na minimização do impacto de mensagens ruidosas nas tarefas de categorização textual através da utilização de dicionários semânticos e modelos ontológicos. Com a aplicação destes, as amostras são normalizadas e expandidas antes de serem apresentadas aos métodos preditivos. Assim, nesta dissertação é proposto um comitê de máquinas de classificação utilizando técnicas de processamento de linguagem natural para detectar opiniões automaticamente em mensagens curtas de texto em inglês. Os resulta-dos apresentados foram validados estatisticamente e indicaram que o sistema proposto obteve capacidade preditiva superior aos métodos preditivos isolados.
188

A influência das folksonomias na eficiência da fase inicial de modelagem conceitual / Influence of folkosonomies on the efficiency of the initial phase of conceptual modeling

Pinheiro, Josiane Melchiori 19 August 2016 (has links)
Fundação Araucária / Este estudo examina a hipótese que usar folksonomias induzidas dos sistemas de tagging colaborativo em modelagem conceitual deve reduzir o número de divergências entre os atores envolvidos no processo quando eles elicitam termos para serem usados no modelo, usando-se como baseline os termos extraídos de páginas Web baseados na frequência de termos. Usa como medida de eficiência o número de divergências, pois quanto menor o número de divergências, menor o tempo e o esforço necessários para criar o modelo conceitual. Descreve os experimentos controlados de modelagem conceitual que foram realizados com grupos experimentais que receberam a folksonomia e com grupos de controle que receberam termos extraídos de páginas Web. Os resultados descritos mostram que grupos experimentais e de controle obtiveram números similares de divergências. Outras medidas de eficiências, assim como o reuso dos termos nos artefatos da modelagem e a facilidade percebida ao realizar a tarefa de modelagem confirmaram os resultados obtidos pelo número de divergências, com uma eficiência ligeiramente maior entre os grupos experimentais. / This study examines the hypothesis that using folksonomies induced from collaborative tagging systems in conceptual modeling should reduce the number of divergences between actors when they elicit terms to be used in a model, using as baseline terms extracted from webpages based on term frequency. It uses as efficiency measure the number of divergences, because the fewer the divergences, the less time and effort required to create a conceptual model. It describes the controlled conceptual modeling experiments that were performed using experimental groups that received a folksonomy and control groups that received terms extracted from webpages. The results show that the experimental and control groups obtained similar numbers of divergences. Other efficiency measures, such as reuse of terms in the phases of conceptual modeling and perceived ease of performing the modeling task, confirmed the results obtained by the number of divergences, with slightly greater efficiency among the experimental groups.
189

A influência das folksonomias na eficiência da fase inicial de modelagem conceitual / Influence of folkosonomies on the efficiency of the initial phase of conceptual modeling

Pinheiro, Josiane Melchiori 19 August 2016 (has links)
Fundação Araucária / Este estudo examina a hipótese que usar folksonomias induzidas dos sistemas de tagging colaborativo em modelagem conceitual deve reduzir o número de divergências entre os atores envolvidos no processo quando eles elicitam termos para serem usados no modelo, usando-se como baseline os termos extraídos de páginas Web baseados na frequência de termos. Usa como medida de eficiência o número de divergências, pois quanto menor o número de divergências, menor o tempo e o esforço necessários para criar o modelo conceitual. Descreve os experimentos controlados de modelagem conceitual que foram realizados com grupos experimentais que receberam a folksonomia e com grupos de controle que receberam termos extraídos de páginas Web. Os resultados descritos mostram que grupos experimentais e de controle obtiveram números similares de divergências. Outras medidas de eficiências, assim como o reuso dos termos nos artefatos da modelagem e a facilidade percebida ao realizar a tarefa de modelagem confirmaram os resultados obtidos pelo número de divergências, com uma eficiência ligeiramente maior entre os grupos experimentais. / This study examines the hypothesis that using folksonomies induced from collaborative tagging systems in conceptual modeling should reduce the number of divergences between actors when they elicit terms to be used in a model, using as baseline terms extracted from webpages based on term frequency. It uses as efficiency measure the number of divergences, because the fewer the divergences, the less time and effort required to create a conceptual model. It describes the controlled conceptual modeling experiments that were performed using experimental groups that received a folksonomy and control groups that received terms extracted from webpages. The results show that the experimental and control groups obtained similar numbers of divergences. Other efficiency measures, such as reuse of terms in the phases of conceptual modeling and perceived ease of performing the modeling task, confirmed the results obtained by the number of divergences, with slightly greater efficiency among the experimental groups.
190

Uso de ferramentas de aprendizado de máquina para prospecção de perdas comerciais em distribuição de energia elétrica / Use of machine learning tools for prospecting commercial losses in electric energy distribution

Ferreira, Hamilton Melo 15 August 2018 (has links)
Orientador: Fernando José Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-15T23:45:59Z (GMT). No. of bitstreams: 1 Ferreira_HamiltonMelo_M.pdf: 539116 bytes, checksum: 3ef220fd5b659d2f8f794d853924ae71 (MD5) Previous issue date: 2008 / Resumo: As concessionárias de energia elétrica deixam de faturar anualmente expressivos valores devido a perdas comerciais, as quais são originadas principalmente por fraudes cometidas por parte dos consumidores e por medidores defeituosos. A detecção automática dos pontos específicos onde ocorrem tais perdas é uma tarefa complexa, dada a grande quantidade de consumidores, a grande variedade de perfis de consumo de energia elétrica e o alto custo de cada inspeção. Este trabalho propõe o uso de técnicas de aprendizado de máquina para a incorporação de processamento inteligente na identificação das fontes de perdas comerciais, usando os dados reais fornecidos pela concessionária de energia elétrica AES Eletropaulo. Além da manipulação dos dados e análise de propostas alternativas presentes na literatura, quatro estratégias de classificação foram implementadas e comparadas, sendo que o algoritmo de indução C4.5 produziu os resultados mais consistentes em termos de especificidade e confiabilidade, tomadas como critérios de desempenho / Abstract: The electric power concessionaires miss along the year significant amount of revenue due to commercial losses, which are mainly caused by frauds produced by consumers and defective sensors. The automatic detection of the specific sites where the losses are located is a complex task, given the high number of consumers, the great variety of electric power consumption profiles, and the high cost of each inspection. This work proposes the use of machine learning techniques capable of incorporating intelligent processing in the identification of the sources of commercial losses, using real data provided by the electric power concessionaire AES Eletropaulo. Besides data manipulation and analysis of alternative proposals presented in the literature, four classification strategies have been implemented and compared. The C4.5 algorithm has produced the most consistent results in terms of specificity and confiability, taken as performance criteria / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica

Page generated in 0.1309 seconds