Spelling suggestions: "subject:"mineração dde dados"" "subject:"mineração dde lados""
341 |
Concentração e emissão de amônia em aviários de frango de corte / Concentration and emission of ammonia in broiler housesBranco, Tatiane 23 February 2017 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The aerial environment in broiler houses requires differentiated management depending on the time of year to maintain an ammonia concentration below 10 ppm, optimal condition for broilers, and adequate performance and well-being. The ammonia is volatilized from the microbial decomposition in the poultry litter and dependent on several factors, among them, internal and external environmental conditions, litter characteristics and facility typology. The systematization and analysis of data can help in to understanding studies that contain a variability of interferences, like an aerial ambience; and a data mining is a technique that has the function of analyzing the generated database. Three studies were carried out to evaluate the production of ammonia in broiler houses in conditions of heat and mild climate, by means of meta-analysis and environmental measurement. The first study resulted in an ammonia concentration database using the meta-analysis technique. Data analysis was with data mining technique, using two ammonia concentration classes: less than 20 ppm and equal or above this limit. Negative pressure facilities presented high ammonia concentration and morning time presented an ammonia concentration equal or above 20 ppm. Conventional facilities, using wood shavings and stoking density whit more than 15 birds m-2 had an ammonia concentration classification above the ideal limit (≥ 20 ppm). The second study provided a meta-analysis of the ammonia emission that allowed, through the data mining technique, to obtain two classification approaches: a) high ammonia emission levels (≥ 42.2 mg Kg-1 of poultry litter) and b) low ammonia emission levels (<42.2 mg Kg-1 poultry litter). Only Dark House was qualified for “High” ammonia emission due the winter season. The wood shavings poultry litter presented low emission when in conventional houses, in contrast to rice husk (high ammonia emission). Poultry litter whit above 8.3 and stocking density greater than 12 birds m-2 obtained “High” ammonia emission classification. In the third study the ammonia concentration, air velocity, internal and external temperature were collected in six broiler houses of different typologies and climatic conditions of heat, being analyzed by geostatistics. The concentration of ammonia tends to be higher in the central and final part of the broiler houses, places where the internal temperature was higher. Better ventilation maneuvers could solve the problems with high temperature and ammonia concentration throughout the broiler houses. The results observed in the concentration and ammonia emission meta-analysis point to conditions of facilities and characteristics of the poultry litter. Data mining allowed the evaluation of ammonia production in different typologies of aviaries in a systematic way through two databases constructed by the meta-analysis technique. The rules of the figure models allowed extracting coherent and useful knowledge in meta-analysis databases. The use of maps of variability is another suitable means for the evaluation of variables such as ammonia concentration and internal temperature. However, several factors influence and, if handled correctly, can minimize the emission and concentration of ammonia inside the broiler house. Combining the thermal and aerial ambience with the ventilation system is an option to improve the welfare indexes in broilers. / O ambiente aéreo em aviários de frango de corte exige manejos diferenciados conforme a época do ano para manter a concentração de amônia abaixo de 10 ppm, condição ótima para frangos de corte apresentarem desempenho e bem-estar adequados. A amônia é volatilizada a partir da decomposição microbiana na cama de frango aviária e dependente de vários fatores, entre eles, condições ambientais internas e externas, características da cama e tipologia de aviário. A sistematização e análise de dados podem auxiliar na compreensão de estudos que contenham uma variabilidade de interferentes, como a ambiência aérea; e a mineração de dados é uma técnica que tem função de analisar o banco de dados gerado. Foram realizados três estudos para avaliar a produção de amônia em galpões de frango de corte durante condições de calor e clima ameno, por intermédio de metanálise e mensuração do ambiente. O primeiro estudo resultou em um banco de dados de concentração de amônia por meio da técnica de metanálise. A análise dos dados foi realizada por meio da técnica de mineração de dados para as classes de concentração de amônia menor que 20 ppm e igual ou acima deste limite. Aviários de pressão negativa apresentaram altas concentrações de amônia e o horário de coleta no turno da manhã apresentou condição de concentração de amônia igual ou acima de 20 ppm. Aviários de tipologia convencional, utilizando maravalha e com densidade de criação maiores de 15 aves m-2 obtiveram classificação de concentração de amônia acima do limite ideal (≥ 20 ppm). O segundo estudo propiciou uma metanálise da emissão de amônia que permitiu, por meio da técnica de mineração de dados, obter duas abordagens de classificação: a) altos níveis de emissão de amônia (≥ 42,2 mg Kg-1 de cama de frango) e b) baixos níveis de emissão de amônia (< 42,2 mg Kg-1 de cama de frango). Aviário de tipologia Dark House foi o único que se classificou para a emissão de amônia em “Elevada” em função da estação do ano ser inverno. A cama de frango de maravalha de madeira apresentou menor emissão em aviários convencionais, ao contrário da casca de arroz (alta emissão de amônia). Cama de aviário com pH acima de 8,3 e densidade de criação maiores de 12 aves m-² obtiveram classificação como “Elevada” emissão de amônia. No terceiro estudo foi realizado a coleta de concentração de amônia, velocidade do ar, temperatura interna e externa em seis aviários de tipologias diferentes e condições climáticas de calor, sendo analisados por meio da geoestatística. A concentração de amônia tende a ser maior na parte central e final dos aviários, lugares em que foi constatado maior temperatura interna. Melhores manejos de ventilação poderiam solucionar os problemas com temperatura alta e concentração de amônia ao longo dos aviários. Os resultados observados nas metanálises de concentração e emissão de amônia apontam para condições de instalações e características da cama de frango. A mineração de dados permitiu avaliar a produção de amônia em diferentes tipologias de aviários de forma sistemática por meio de dois bancos de dados construídos pela técnica de metanálise. As regras dos modelos permitiram extrair conhecimentos coerentes e úteis para os dois bancos de dados metanalíticos. A utilização de mapas de variabilidade é outro meio adequado para a avaliação de variáveis como a concentração de amônia e a temperatura interna. No entanto, vários fatores influenciam e, se manejados corretamente, podem minimizar a emissão e concentração de amônia no interior da instalação. Aliar a ambiência térmica e aérea em função do sistema de ventilação é uma opção para melhorar os índices de bem-estar em frangos de corte.
|
342 |
Sistema de informação gerencial para previsão de produtividade do trabalho na alvenaria de elevaçãoMori, Luci Mercedes De January 2008 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Civil. / Made available in DSpace on 2012-10-24T02:02:31Z (GMT). No. of bitstreams: 1
258217.pdf: 1699115 bytes, checksum: f8595ab04b4b5403ce241da4014d8519 (MD5) / Os indicadores de produtividade de mão-de-obra são elementos importantes para o sistema de produção da construção civil, no fornecimento de informações para a elaboração de planejamento financeiro do empreendimento, da programação físicofinanceira e para o controle do processo produtivo. Neste sentido, o objetivo deste trabalho consiste no desenvolvimento de um sistema de informação gerencial, para fazer predição dos níveis de produtividade que devem ocorrer frente a condições ambientais predeterminadas, considerando o conjunto de fatores mais influentes na produtividade do trabalho do serviço de alvenaria de elevação. A metodologia se baseou na seleção de atributos, mineração de dados e redes neurais. Foram coletados indicadores diários de produtividade, cada um deles associados a 24 fatores passíveis de afetá-los, nas cidades de Florianópolis-SC e Maringá-PR. Esses dados, após serem tratados e normalizados, foram selecionados pelas ferramentas de seleção de atributos information gain, Qui-quadrado e heurística Correlationbased Feature Selection (CFS). Para se identificar os fatores de maior influência, os dados passaram por processo de mineração de dados, com o uso de um algoritmo de classificação. O sistema de informação desenvolvido foi baseado em redes neurais de múltiplas camadas alimentadas adiante, treinadas com o algoritmo de retropropagação do erro (error back-propagation), sendo sua capacidade de generalização analisada em experimentos mediante matriz de confusão e coeficiente Kappa. Os métodos de seleção de atributos associados à mineração de dados permitiram reduzir o número de fatores a serem analisados, bem como selecionar aqueles de maior impacto nos indicadores de produtividade, sem a presença de considerações subjetivas. A partir da mineração de dados, constatou-se diferentes níveis de influência dos atributos na produtividade, entretanto ficou evidente a influência da forma de pagamento da mão-de-obra nos níveis de produtividade. O sistema de informações desenvolvido é capaz de fazer a predição de índices de produtividade e selecionar o conjunto de atributos que proporcionam maior acurácia de generalização. Nos resultados das experimentações, as predições atingiram uma mediana acurácia, em torno de 70% de acerto para o conjunto de teste.
Indicators of labour productivity are important factors for the system of production of civil construction, in the information delivery of the project#s financial planning, and for the physical-financial programming, and control of the production process. On the basis of these considerations, the purpose of this research is to develop a management information system to predict the levels of productivity that should occur due to the predetermined environmental conditions, considering the factors that significantly affect masonry productivity. The methodology was based on the selection of attributes, data mining and neural networks. Daily indicators of productivity were collected, each one of them was associated to 24 factors that could
affect them in the cities of Florianopolis-SC and Maringá-PR. These data, after being treated and standardized, were selected by the tools of attributes selection information gain, chi-square and heuristic-based Correlation Feature Selection (CFS). To identify the factors that have the most influence, the data went through a data mining, with the use of decision tree algorithm. The developed information system was based on neural networks of multiple layers fed ahead, trained with the algorithm of error back-propagation. Its ability of generation was analyzed in experiments by matrix of confusion and Kappa coefficient. The attribute selection methods associated with data mining allowed to reduce the number of factors to be analyzed as well select the ones with greater impact on indicators of productivity, without the presence of subjective considerations. From the data mining it was verified different levels of influence of the attributes of productivity, however the influence of the labour form of payment was evident. The information system developed is capable of generating prediction of the productivity rates and selects the group of attributes that provide greater generalization accuracy. In the results of experiments, the predictions reached a median accuracy, around 70% of hit for the whole test.
|
343 |
O campo da Ciência da Informação : contribuições, desafios e perspectivas da mineração de dados para o conhecimento pós-moderno /Nhacuongue, Januário Albino. January 2015 (has links)
Orientador: Edberto Ferneda / Banca: Zaira Regina Zefalon / Banca: Guilherme Ataíde Dias / Banca: Maria José Vicentini Jorente / Banca: Elvis Fusco / Resumo: O trabalho faz uma abordagem sobre a gênese do campo da Ciência da Informação (CI) e analisa as principais contribuições e desafios impostos pela tecnologia, no que tange à representação e recuperação da informação. O objeto da pesquisa é a Ciência da Informação e o contexto, por um lado, resulta da revolução das ciências, na dicotomia entre a busca pela essência e o foco nos problemas humanos, em concomitância com a relação entre a ciência e a tecnologia. Por outro, do aumento dos recursos informacionais digitais e da complexidade, tanto dos ambientes de produção, comunicação e uso da informação, como dos modelos de representação. Para tal, usou o método qualitativo de caráter descritivo, cujos procedimentos técnicos foram centrados na pesquisa bibliográfica e documental de materiais relativos às variáveis. A partir do delineamento sobre a origem e desdobramentos da CI enleados à tecnologia e do respectivo objeto (informação), identificou como problema da pesquisa, a intangibilidade de algumas informações da Web Social, no ponto de vista do acesso. Assim, a pesquisa partiu da seguinte pergunta de partida: é possível utilizar-se da Mineração de Dados (MD) como uma forma de garantir a recuperação da informação intangível na Web Social? Por conseguinte, a pesquisa identificou como objetivo geral: propor a mineração de dados como solução para a recuperação da informação intangível em ambientes da Web Social. Assim, o trabalho chegou às seguintes conclusões: com base na noção de campo proposta por Pierre Bordieu, a CI é um campo científico e a sua gênese está aliada aos problemas informacionais humanos e à tecnologia. A maioria das suas abordagens é anterior à explosão informacional no período Pós-Guerra e foram incorporadas a partir de relações... resumo completo, clicar acesso eletrônico abaixo) / Abstract: The work is a discussion of the genesis of the field of Information Science (IS) and analyzes the main contributions and challenges posed by technology, regarding the information representation and retrieval. The object of research is the Information Science and the context on the one hand, results of the revolution of the sciences, in the dichotomy between the search for the essence and the focus on human problems, in tandem with the relationship between science and technology. On the other, the increase in digital information resources and the complexity of both production environments, communication and use of information, such as the representation models. To do this, it used the qualitative method of descriptive character, whose technical procedures were focused on bibliographical and documentary research materials related to variables. From the design of the origin and developments of IS ensnared technology and its object (information), identified as the research problem, the intangibility of some information from the Social Web, the point of view of access. Thus, the research came from the following starting question: is it possible to use the Data Mining (DM) as a way to ensure the retrieval of intangible information in the Social Web? Therefore, the survey identified the general objective: propose the data mining as a solution for the retrieval of intangible information in the Social Web environments. Thus, the work reached the following conclusions: based on the notion of field proposed by Pierre Bourdieu, Information Science is a scientific field and its genesis is allied to human problems and informational technology. Most of their approaches is prior to the informational explosion in the postwar period and were incorporated from interdisciplinary relations, especially with the Library, Archival, Documenta ... (Complete abstract click electronic access below) / Doutor
|
344 |
Paralelização do algoritmo DIANA com OpenMP e MPI / Parallelization of the DIANA algorithm with OpenMP and MPIRibeiro, Hethini do Nascimento 31 August 2018 (has links)
Submitted by HETHINI DO NASCIMENTO RIBEIRO (hethini.ribeiro@outlook.com) on 2018-10-08T23:20:34Z
No. of bitstreams: 1
Dissertação_hethini.pdf: 1986842 bytes, checksum: f1d6e8b9be8decd1fb1e992204d2b2d0 (MD5) / Rejected by Elza Mitiko Sato null (elzasato@ibilce.unesp.br), reason: Solicitamos que realize correções na submissão seguindo as orientações abaixo:
Problema 01) A FICHA CATALOGRÁFICA (Obrigatório pela ABNT NBR14724) está desconfigurada e falta número do CDU.
Problema 02) Falta citação nos agradecimentos, segundo a Portaria nº 206, de 4 de setembro de 2018, todos os trabalhos que tiveram financiamento CAPES deve constar nos agradecimentos a expressão:
"O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001
Problema 03) Falta o ABSTRACT (resumo em língua estrangeira), você colocou apenas o resumo em português.
Problema 04) Na lista de tabelas, a página referente a Tabela 9 está desconfigurada.
Problema 05) A cidade na folha de aprovação deve ser Bauru, cidade onde foi feita a defesa.
Bauru
31 de agosto de 2018
Problema 06) A paginação deve ser sequencial, iniciando a contagem na folha de rosto e mostrando o número a partir da introdução, a ficha catalográfica ficará após a folha de rosto e não deverá ser contada.
OBS:-Estou encaminhando via e-mail o template/modelo das páginas pré-textuais para que você possa fazer as correções da paginação, sugerimos que siga este modelo pois ele contempla as normas da ABNT
Lembramos que o arquivo depositado no repositório deve ser igual ao impresso, o rigor com o padrão da Universidade se deve ao fato de que o seu trabalho passará a ser visível mundialmente.
Agradecemos a compreensão
on 2018-10-09T14:18:32Z (GMT) / Submitted by HETHINI DO NASCIMENTO RIBEIRO (hethini.ribeiro@outlook.com) on 2018-10-10T00:30:40Z
No. of bitstreams: 1
Dissertação_hethini_corrigido.pdf: 1570340 bytes, checksum: a42848ab9f1c4352dcef8839391827a7 (MD5) / Approved for entry into archive by Elza Mitiko Sato null (elzasato@ibilce.unesp.br) on 2018-10-10T14:37:37Z (GMT) No. of bitstreams: 1
ribeiro_hn_me_sjrp.pdf: 1566499 bytes, checksum: 640247f599771152e290426a2174d30f (MD5) / Made available in DSpace on 2018-10-10T14:37:37Z (GMT). No. of bitstreams: 1
ribeiro_hn_me_sjrp.pdf: 1566499 bytes, checksum: 640247f599771152e290426a2174d30f (MD5)
Previous issue date: 2018-08-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / No início desta década havia cerca de 5 bilhões de telefones em uso gerando dados. Essa produção global aumentou aproximadamente 40% ao ano no início da década passada. Esses grandes conjuntos de dados que podem ser capturados, comunicados, agregados, armazenados e analisados, também chamados de Big Data, estão colocando desafios inevitáveis em muitas áreas e, em particular, no campo Machine Learning. Algoritmos de Machine Learning são capazes de extrair informações úteis desses grandes repositórios de dados e por este motivo está se tornando cada vez mais importante o seu estudo. Os programas aptos a realizarem essa tarefa podem ser chamados de algoritmos de classificação e clusterização. Essas aplicações são dispendiosas computacionalmente. Para citar alguns exemplos desse custo, o algoritmo Quality Threshold Clustering tem, no pior caso, complexidade O(�������������5). Os algoritmos hierárquicos AGNES e DIANA, por sua vez, possuem O(n²) e O(2n) respectivamente. Sendo assim, existe um grande desafio, que consiste em processar grandes quantidades de dados em um período de tempo realista, encorajando o desenvolvimento de algoritmos paralelos que se adequam ao volume de dados. O objetivo deste trabalho é apresentar a paralelização do algoritmo de hierárquico divisivo DIANA. O desenvolvimento do algoritmo foi realizado em MPI e OpenMP, chegando a ser três vezes mais rápido que a versão monoprocessada, evidenciando que embora em ambientes de memória distribuídas necessite de sincronização e troca de mensagens, para um certo grau de paralelismo é vantajosa a aplicação desse tipo de otimização para esse algoritmo. / Earlier in this decade there were about 5 billion phones in use generating data. This global production increased approximately 40% per year at the beginning of the last decade. These large datasets that can be captured, communicated, aggregated, stored and analyzed, also called Big Data, are posing inevitable challenges in many areas, and in particular in the Machine Learning field. Machine Learning algorithms are able to extract useful information from these large data repositories and for this reason their study is becoming increasingly important. The programs that can perform this task can be called classification and clustering algorithms. These applications are computationally expensive. To cite some examples of this cost, the Quality Threshold Clustering algorithm has, in the worst case, complexity O (n5). The hierarchical algorithms AGNES and DIANA, in turn, have O (n²) and O (2n) respectively. Thus, there is a great challenge, which is to process large amounts of data in a realistic period of time, encouraging the development of parallel algorithms that fit the volume of data. The objective of this work is to present the parallelization of the DIANA divisive hierarchical algorithm. The development of the algorithm was performed in MPI and OpenMP, reaching three times faster than the monoprocessed version, evidencing that although in distributed memory environments need synchronization and exchange of messages, for a certain degree of parallelism it is advantageous to apply this type of optimization for this algorithm. / 1757857
|
345 |
Um estudo comparativo das técnicas de predição na identificação de insucesso acadêmico dos estudantes durante cursos de programação introdutória / A comparative study of prediction techniques in identifying academic failure of students for programming introductory coursesSantana, Marcelo Almeida 06 November 2015 (has links)
The high failure rates of students in the introductory programming course within the universities worldwide have alarmed and worried many educators. Those rates can lead to losses of various types and interests. Thus, there are important reasons to try to clarify the main factors that possibly influence such failures. Furthermore, one of the major challenges is on how to early identify the students likely to in the introductory programming course, eventually allowing effective pedagogical interventions. Thus, in this study we aim to explore educational data mining techniques, in order to compare the effectiveness of prediction algorithms capable of identifying students likely to fail, in a timely manner suitable for pedagogical intervention. This study evaluated the efficacy of prediction algorithms in two different and independent data sources one in the classroom teaching mode and the other in the distance education mode in the disciplines in the introductory programming. The results showed that the techniques discussed in this study are effective in this task of prediction. In addition, it was shown also that after the completion of the pre-processing and adjustments to the parameters of the algorithms analyzed had an improvement in their results. At the end of the process, the Supported Vector Machine (SVM) algorithm showed the best results, both in the classroom teaching mode as in the distance, reaching an f-measure rate of 83% and 93% respectively. / As altas taxas de insucesso nas universidades nos cursos que contemplam a disciplina de programação introdutória na sua grade curricular tem alarmado e preocupado muitos educadores, pois o insucesso dos estudantes podem gerar prejuízos dos mais diversos tipos e interesses. Assim, há relevantes motivos para se tentar esclarecer eventuais fatores que afetam tal insucesso. Ainda neste contexto, um dos desafios importantes é o de identificar antecipadamente os estudantes propensos ao insucessos na disciplina de programação introdutória, assumindo-se em tempo hábil para permitir intervenção pedagógica eficaz. Deste modo, buscou-se neste trabalho um estudo em técnicas de mineração de dados educacionais , objetivando-se comparar a eficácia dos algoritmos de predição capazes de identificar, em tempo hábil para intervenção pedagógica, os estudantes propensos ao insucesso. Neste estudo, avaliou-se a eficácia de algoritmos de predição em duas fontes de dados diferentes e independentes, uma na modalidade presencial e outra na modalidade de ensino a distância sobre as disciplinas de programação introdutória. Os resultados mostraram que as técnicas analisadas no estudo são eficazes na identificação dos estudantes propensos ao insucesso no início da disciplina. Além disso, mostrou-se também que após a realização das etapas de pré-processamento e ajustes nos parâmetros de algoritmos, tais algoritmos analisados tiveram uma melhora em seus resultados. Ao fim do processo, o algoritmo máquina de vetor de suporte (SVM: Support Vector Machine) apresentou os melhores resultados, tanto na modalidade de ensino presencial quanto na modalidade a distância, alcançando uma taxa de f-measure de 83% e 92%, respectivamente.
|
346 |
Visualização em multirresolução do fluxo de tópicos em coleções de textoSchneider, Bruno 21 March 2014 (has links)
Submitted by Bruno Schneider (bruno.sch@gmail.com) on 2014-05-08T17:46:04Z
No. of bitstreams: 1
dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2014-05-13T12:56:21Z (GMT) No. of bitstreams: 1
dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2014-05-14T19:44:51Z (GMT) No. of bitstreams: 1
dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Made available in DSpace on 2014-05-14T19:45:33Z (GMT). No. of bitstreams: 1
dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5)
Previous issue date: 2014-03-21 / The combined use of algorithms for topic discovery in document collections with topic flow visualization techniques allows the exploration of thematic patterns in long corpus. In this task, those patterns could be revealed through compact visual representations. This research has investigated the requirements for viewing data about the thematic composition of documents obtained through topic modeling - where datasets are sparse and has multi-attributes - at different levels of detail through the development of an own technique and the use of an open source library for data visualization, comparatively. About the studied problem of topic flow visualization, we observed the presence of conflicting requirements for data display in different resolutions, which led to detailed investigation on ways of manipulating and displaying this data. In this study, the hypothesis put forward was that the integrated use of more than one visualization technique according to the resolution of data expands the possibilities for exploitation of the object under study in relation to what would be obtained using only one method. The exhibition of the limits on the use of these techniques according to the resolution of data exploration is the main contribution of this work, in order to provide subsidies for the development of new applications. / O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.
|
347 |
Análise lexicográfica da produção acadêmica da Fiocruz: uma proposta de metodologiaLima, Jefferson da Costa 09 September 2016 (has links)
Submitted by Jefferson da Costa Lima (jeffersonlima@gmail.com) on 2016-10-31T15:52:52Z
No. of bitstreams: 1
JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2016-11-07T12:54:12Z (GMT) No. of bitstreams: 1
JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Made available in DSpace on 2016-11-08T17:24:34Z (GMT). No. of bitstreams: 1
JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5)
Previous issue date: 2016-09-09 / With the objective to meet the health needs of the population, a huge amount of publications are generated each year. Scientific papers, thesis and dissertations become available digitally, but make them accessible to the user requires an understanding of the indexing process, which is usually made manually. This work proposes an experiment on the feasibility of automatically identify valid descriptors for the documents in the field of health. Are extracted n-grams of the texts and, after comparison with terms of vocabulary Health Sciences Descriptors (DeCS), are identified those who can act as descriptors for the works. We believe that this process can be applied to classification of document sets with deficiencies in their indexing and, even, in supporting the re-indexing processes, improving the precision and recall of the searches, and the possibility of establishing metrics of relevance. / Com o objetivo de atender às demandas de saúde da população, uma quantidade enorme de publicações são geradas a cada ano. Artigos científicos, teses e dissertações tornam-se digitalmente disponíveis, mas torná-los acessíveis aos usuário exige a compreensão do processo de indexação, que em geral é feito manualmente. O presente trabalho propõe um experimento sobre a viabilidade de identificar automaticamente descritores válidos para documentos do campo da saúde. São extraídos n-grams dos textos e, após comparação com termos do vocabulário Descritores em Ciências da Saúde (DeCS), são identificados aqueles que podem atuar como descritores para as obras. Acreditamos que este processo pode ser aplicado na classificação de conjuntos de documentos com deficiências na indexação e, até mesmo, no apoio a processos de reindexação, melhorando a precisão e a revocação das buscas, além da possibilidade de estabelecer métricas de relevância.
|
348 |
Health care analytics: análise de reincidência e modelagem preditiva para detecção de futuros pacientes de alto custo no sistema de saúde brasileiroSilva, Renata Galdino Rocha e 31 May 2016 (has links)
Submitted by Renata Galdino Rocha e Silva (renatagrs@hotmail.com) on 2016-11-09T18:51:03Z
No. of bitstreams: 1
Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-11-22T17:46:11Z (GMT) No. of bitstreams: 1
Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5) / Made available in DSpace on 2016-12-07T11:31:50Z (GMT). No. of bitstreams: 1
Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5)
Previous issue date: 2016-05-31 / Healthcare sector analyses have proven that a small portion of individuals with chronic conditions consume the majority of the resources needed for the treatment of these conditions. Therefore, to achieve the industry’s primary objectives of providing healthcare, reducing costs and improving the patients’ overall wellness, the Brazilian healthcare system should employ proactive models of intervention regarding patients who are very likely to become high-cost. Approaches focusing on specific populations and data quality allow decision makers to have a clear comprehension of the needs presented by each specific group - groups are established as per industry practice - and to plan actions oriented toward cost reduction and improved quality of the services provided. This study aims to assess a risk modelling strategy for predicting which specific types of patients are likely to become high-cost individuals in the Brazilian healthcare system. Such modeling is comprised by Health Analytics Strategies that characterize the global insurance industry and seeks to identify potentially high-cost patients by using data mining techniques, historical data and predictive analysis. / Análises do setor de saúde têm confirmado que uma pequena parcela de indivíduos com condições crônicas consome a maior parte dos recursos destinados ao tratamento destas doenças. Neste sentido, para alcançar os objetivos básicos do setor de melhorar a qualidade, reduzir os custos e melhorar a experiência do paciente, o sistema de saúde deve focar-se em modelos orientados à atuação proativa com foco em intervenção nos pacientes que possuem maior risco de migração para o grupo de alto custo. Abordagens focadas em populações específicas e com informações íntegras permitem que os tomadores de decisão entendam as necessidades de acordo com cada grupo avaliado e planejem ações direcionadas, de forma a reduzir custos e melhorar a qualidade dos serviços prestados. Desta forma, este trabalho visa efetuar um estudo sobre estratégia de modelagem de riscos para predição de pacientes de alto custo no sistema de saúde brasileiro. Tal modelagem faz parte da estratégia de Health Analytics dos principais grupos seguradores globais e busca, mediante uso de técnicas de mineração de dados e análises preditivas, a identificação de pacientes de alto custo para o ano seguinte com base no histórico de informações.
|
349 |
Reconstrução de curvas isócronas e sua aplicação na identificação de preferências de usuários de modais do transporte urbanoReis, Kizzy Fernanda Terra Ferreira dos 10 July 2017 (has links)
Submitted by Kizzy Fernanda Terra Ferreira dos Reis (kizzyterra@gmail.com) on 2017-09-06T13:00:50Z
No. of bitstreams: 1
texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2017-09-06T14:59:15Z (GMT) No. of bitstreams: 1
texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5) / Made available in DSpace on 2017-09-26T13:48:45Z (GMT). No. of bitstreams: 1
texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5)
Previous issue date: 2017-07-10 / This study comprises the problem of isochrone maps reconstruction as well as their application in the identification of user mode choice preferences. We propose a computational modeling of isochrones based on the theory of implicit functions in order to draw the curve on a map and evaluate geometrical properties of interest. Besides, we discuss the theory of consumer choice applied to urban transportation, suggesting modifications in the utility function of McFadden e Domenich (DOMENCICH; MCFADDEN, 1975) which models urban travel demand to embody isochrone curves properties. At long last, we implement a concept demonstration that constitutes a public utility application for mobile devices that supports the decision making of users through the transport mode suggestion in order to increase their quality of life and facilitate their daily life / Este trabalho constitui um estudo sobre o problema da reconstrução de mapas isócronos bem como sua aplicação na identificação das preferências dos usuários de modais de transportes. Propõe-se uma modelagem computacional das curvas isócronas baseada na teoria das funções implícitas a fim de permitir que se possa desenhar a curva sobre um mapa e computar propriedades geométricas de interesse. Ademais, discute-se nesse contexto a teoria do consumidor aplicada ao transporte urbano, sugerindo a adaptação da função de utilidade de McFadden e Domenich (DOMENCICH; MCFADDEN, 1975), que modela a escolha de modais, através da incorporação de propriedades de curvas isócronas. Implementa-se uma demonstração de conceito constituída em um aplicativo de utilidade pública para dispositivos móveis que dá suporte às tomadas de decisões dos usuários através da comparação de modais com o intuito de aumentar sua qualidade de vida e facilitar seu cotidiano
|
350 |
Análise de técnicas de data mining na aquisição de clientes de cartão de crédito não correntistasKisahleitner, Marcelo 23 March 2009 (has links)
Made available in DSpace on 2010-04-20T20:20:25Z (GMT). No. of bitstreams: 1
68060200600.pdf: 1676148 bytes, checksum: 5cff0f07d403683552d0f33e4607dd05 (MD5)
Previous issue date: 2009-03-23T00:00:00Z / O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
|
Page generated in 0.0637 seconds