• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 14
  • 1
  • Tagged with
  • 152
  • 152
  • 60
  • 41
  • 33
  • 30
  • 29
  • 24
  • 22
  • 18
  • 17
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Análise das bases de dados de patentes Derwent Innovations Index e Espacenet com foco em processos de inteligência competitiva na indústria de cosméticos e produtos para higiene pessoal

Silva, Tatiane Malvestio 28 February 2012 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-04-26T20:25:16Z No. of bitstreams: 1 DissTMS.pdf: 4210213 bytes, checksum: de15a2cacf15c1179f470589ca57169b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-05-02T20:20:12Z (GMT) No. of bitstreams: 1 DissTMS.pdf: 4210213 bytes, checksum: de15a2cacf15c1179f470589ca57169b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-05-02T20:20:25Z (GMT) No. of bitstreams: 1 DissTMS.pdf: 4210213 bytes, checksum: de15a2cacf15c1179f470589ca57169b (MD5) / Made available in DSpace on 2017-05-15T18:02:44Z (GMT). No. of bitstreams: 1 DissTMS.pdf: 4210213 bytes, checksum: de15a2cacf15c1179f470589ca57169b (MD5) Previous issue date: 2012-02-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Patent document is a technological information source, internationally standardized and of great relevance to increase the business potential of competitiveness and innovation. The present research analyses the patent databases Derwent Innovations Index e Espacenet in order to contribute to studies in competitive intelligence through patent analysis related to nanotechnology applications in cosmetics and personal care products. Derwent Innovations Index and Espacenet databases are web accessible databases, with international coverage in all fields of technology. Thus, this study intends to elucidate the features and resources available in each of those databases and contribute to the optimization of the information search and retrieval for patent documents analysis. Based on the proposal, the research is exploratory and descriptive and quantitative and qualitative approach, which aims identify the features offered by each databases and then elaborate patents analysis using softwares and resources for this purpose. As results, Derwent Innovations Index and Espacenet are different in some aspects and those two databases can be used alone or in a complementary manner depending on the objectives, and ultimately, concludes that Derwent Innovations Index is the most suitable database according to the criteria evaluated. / O documento de patente é uma fonte de informação tecnológica padronizada internacionalmente e de grande relevância para o aumento do potencial competitivo e de inovação das empresas. Esta pesquisa analisa as bases de dados de patentes Derwent Innovations Index e Espacenet com o intuito de contribuir com estudos de inteligência competitiva por meio da análise de patentes sobre aplicações da nanotecnologia em cosméticos e produtos de higiene pessoal. A Derwent Innovations Index e a Espacenet são bases de dados acessíveis por meio eletrônico, com abrangência internacional e cobertura de todos os campos tecnológicos. Assim, o presente estudo visa delinear as características e recursos disponíveis em cada uma das bases de acordo com critérios de avaliação adotados e contribuir com a otimização da busca e recuperação da informação para análise dos documentos de patentes. Com base no objetivo proposto, a pesquisa é exploratória e descritiva e com abordagem quantitativa e qualitativa, no qual visa identificar os recursos oferecidos por cada uma das bases de dados e, em etapa posterior, elaborar análises de patentes com a utilização de softwares e recursos para esta finalidade. Com base no desenvolvimento desta pesquisa, pode-se afirmar que a Derwent Innovations Index e a Espacenet são bases de dados diferentes em alguns aspectos e estas duas bases de dados podem ser utilizadas de maneira complementar ou isoladamente dependendo dos objetivos e, por fim conclui-se que a a Derwent Innovations Index é a base de dados a mais indicada de acordo com os critérios avaliados.
122

Recuperação da informação: estudo da usabilidade na base de dados Public Medical (PUBMED).

Coelho, Odete Máyra Mesquita 21 February 2014 (has links)
Made available in DSpace on 2015-04-16T15:23:33Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 4229373 bytes, checksum: 0087285c704b68c550008eeb3ca7869a (MD5) Previous issue date: 2014-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / It investigates the understanding that resident doctors have about the process of information retrieval on the basis of Public Medical (PubMed) data, taking into consideration the aspects of usability in human-computer interaction, the resources available and the level of user satisfaction in searching process. The theoretical framework used for this research relates the concepts of information and information systems for the healthcare, and then addresses the Information Retrieval systems and databases, entering the field of information architecture for evaluating the usability of these sources information. The methodological approach includes exploratory research whose first phase consisted of the heuristic evaluation of the PubMed database interface, using the guidelines proposed by Nielsen and Tahir (2002). The results of this analysis show that although these guidelines have been designed to build homepage, thirty-eight of them are suited to the PubMed interface. Therefore, it is inferred that these guidelines can be used for heuristic evaluation of databases focused on the area of Health regarding the usability of this database, it was observed that the interface has a well-structured architecture, is friendly and objective, and present numerous possibilities for search and retrieval of information. The second phase of empirical study took place through the application of prospective usability testing to measure user satisfaction database. These tests were done using a semi-structured questionnaire administered to resident doctors specialty of Internal Medicine, University Hospital Walter Cantídio the Federal University of Ceará, totaling 36% of participants. The results of this step show a good performance and a good user satisfaction PubMed regarding the usability of the database, considering that enables them to achieve their research goals with real effectiveness and efficiency, yet they do not know all the resources available to search and retrieval of information offered by this database. / Investiga qual o entendimento que os médicos residentes têm sobre o processo de recuperação de informação na base de dados Public Medical (PubMed), levando em consideração os aspectos relativos à usabilidade na interação humano-computador, os recursos disponíveis e o nível de satisfação do usuário no processo de busca. O referencial teórico utilizado para esta pesquisa relaciona os conceitos de informação e de informação para a área da saúde, e em seguida aborda os Sistemas de Recuperação de Informação e as bases de dados, adentrando no campo da arquitetura da informação para avaliar a usabilidade dessas fontes de informação. O percurso metodológico contempla a pesquisa exploratória cuja primeira etapa constou da avaliação heurística da interface da base de dados PubMed, utilizando-se as diretrizes propostas por Nielsen e Tahir (2002). Os resultados dessa análise evidenciam que, embora tais diretrizes tenham sido pensadas para a construção de homepage, trinta e oito delas se adequaram à interface da PubMed. Portanto, infere-se que essas diretrizes podem ser utilizadas para a avaliação heurística de bases de dados voltadas para a área da Saúde. Com relação à usabilidade dessa base de dados, evidenciou-se que a interface tem uma arquitetura bem estruturada, é amigável e objetiva, além de apresentar inúmeras possibilidades de busca e recuperação da informação. A segunda etapa do estudo empírico deu-se por meio da aplicação dos testes prospectivos de usabilidade para mensurar a satisfação dos usuários da base de dados. Esses testes foram feitos por meio de um questionário semiestruturado aplicado aos médicos residentes da especialidade de Clínica Médica do Hospital Universitário Walter Cantídio da Universidade Federal do Ceará, perfazendo um total de 36% de participantes. Os resultados dessa etapa evidenciam um bom desempenho e uma boa satisfação dos usuários da PubMed quanto à usabilidade dessa base de dados, haja vista que permite a eles atingirem seus objetivos de pesquisa com real eficácia e eficiência, ainda que não conheçam todos os recursos disponíveis para a busca e a recuperação da informação oferecidos por essa base de dados.
123

Aplicação de técnicas de Data Mining para auxiliar no processo de fiscalização no âmbito do Tribunal de Contas do Estado da Paraíba

Grilo Júnior, Tarcísio Ferreira 03 September 2010 (has links)
Made available in DSpace on 2015-05-08T14:53:30Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2082485 bytes, checksum: 0c5cd714d0a43bac80888cfc1dd4e7cb (MD5) Previous issue date: 2010-09-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This search has as goal to validate the hypothesis of the applicability of data mining techniques in Bidding and Contracts database managed by the Account Court of Paraiba State, enabling the generation of rules and discovery of hidden knowledge or implicit, contributing to the process of decision making, supervision and celerity in this Court of Auditors. To the best comprehension of this work, It was made a literature revision bringing at first place a historic vision about the decision process, as well as this theme evolution studies and the relation between the tender processes sent to Account Court of Paraiba State and the fraud indication discovery process and irregularities through the data mining process using. We will bring to light the concept of Business Intelligence (BI) and for it`s main components, as well as the concepts of knowledge discovery in database, and a comparing between the using of the instruments of data mining. We expect from this implant of the data mining an increase in the productivity and also an increase in speed of lawsuit process from the public accounts analysis and public money fiscal control. / Esta pesquisa tem como objetivo validar a hipótese da aplicabilidade das técnicas de mineração de dados na base de dados de Licitação e Contratos gerenciada pelo Tribunal de Contas do Estado da Paraíba (TCE-PB), possibilitando a geração de regras e descoberta de conhecimento oculto ou implícito, contribuindo desta forma com o processo de tomada de decisão, fiscalização e celeridade processual no âmbito desta Corte de Contas. Para melhor compreensão desse trabalho foi realizada uma revisão de literatura abordando primeiramente um histórico sobre o processo de decisão, bem como a evolução dos estudos deste tema e da relação entre os processos licitatórios enviados ao TCE-PB e o processo de descoberta de indícios de fraudes e irregularidades através do uso de mineração de dados. São abordados os conceitos sobre a tecnologia de Business Intelligence (BI) e dos seus principais componentes, bem como os conceitos de Descoberta de Conhecimentos em Bases de Dados (Knowledge Discorevy in Databases), e uma comparação das funcionalidades presentes nas ferramentas de mineração de dados. Espera-se com a implantação desta ferramenta de mineração de dados, um ganho de produtividade e um aumento na celeridade do tramite processual decorrentes da análise das contas públicas e na fiscalização do erário.
124

Modelação e análise da vida útil (metrológica) de medidores tipo indução de energia elétrica ativa /

Silva, Marcelo Rubia da. January 2010 (has links)
Orientador: Carlos Alberto Canesin / Banca: Júlio Borges de Souza / Banca: Denizar Cruz Martins / Resumo: O estudo da confiabilidade operacional de equipamentos se tornou fundamental para as empresas possuírem o devido controle dos seus ativos, tanto pelo lado financeiro quanto em questões de segurança. O estudo da taxa de falha de equipamentos prevê quando as falhas irão ocorrer possibilitando estabelecer atitudes preventivas, porém, seu estudo deve ser realizado em condições de operação estabelecidas e fixas. Os medidores de energia elétrica, parte do ativo financeiro das concessionárias de energia, são equipamentos utilizados em diversas condições de operação, tanto nas condições do fluxo de energia, tais como presenças de harmônicos, subtensões, sobre-tensões e padrões de consumo distintos, quanto pelo local físico de instalação, tais como maresia, temperatura, umidade, etc. As falhas nos medidores eletromecânicos de energia elétrica são de difícil constatação uma vez que a maioria dos erros de medição, ocasionados principalmente por envelhecimento de componentes, não alteram a qualidade da energia fornecida e nem interrompem o seu fornecimento. Neste sentido, este trabalho propõe uma nova metodologia de determinação de falhas em medidores eletromecânicos de energia elétrica ativa. Faz-se uso de banco de dados de uma concessionária de energia elétrica e do processo de descoberta de conhecimento em bases de dados para selecionar as variáveis mais significativas na determinação de falhas em medidores eletromecânicos de energia elétrica ativa, incluindo no conjunto de falhas a operação com erros de medição acima do permitido pela legislação nacional (2010). Duas técnicas de mineração de dados foram utilizadas: regressão stepwise e árvores de decisão. As variáveis obtidas foram utilizadas na construção de um modelo de agrupamento de equipamentos associando a cada grupo uma probabilidade... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The operational reliability study of equipments has become primal in order to enterprises have the righteous control over their assets, both by financial side as by security reasons. The study for the hazard rate of equipments allows to foresee the failures for the equipments and to act preventively, but this study must be accomplished under established and fixed operation conditions. The energy meters, for their part, are equipments utilized in several operating conditions so on the utilization manner, like presence of harmonics, undervoltages and over-voltages and distinct consumption patterns, as on the installation location, like swel, temperature, humidity, etc. Failures in electromechanical Wh-meters are difficult to detect once that the majority of metering errors occurred mainly by aging of components do not change the quality of offered energy neither disrupt its supply. In this context, this work proposes a novel methodology to obtain failure determination for electromechanical Whmeters. It utilizes Wh-databases from an electrical company and of the process of knowledge discovery in databases to specify the most significant variables in determining failures in electromechanical Wh-meters, including in the failure set the operation with metering errors above those permitted by national regulations (2010). Two techniques of data mining were used in this work: stepwise regression and decision trees. The obtained variables were utilized on the construction of a model of clustering similar equipments and the probability of failure of those clusters were determined. As final results, an application in a friendly platform were developed in order to apply the methodology, and a case study was accomplished in order to demonstrate its feasibility. / Mestre
125

Seleção e construção de features relevantes para o aprendizado de máquina. / Relevant feature selection and construction for machine learning.

Huei Diana Lee 27 April 2000 (has links)
No Aprendizado de Máquina Supervisionado - AM - é apresentado ao algoritmo de indução um conjunto de instâncias de treinamento, no qual cada instância é um vetor de features rotulado com a classe. O algoritmo de indução tem como tarefa induzir um classificador que será utilizado para classificar novas instâncias. Algoritmos de indução convencionais baseam-se nos dados fornecidos pelo usuário para construir as descrições dos conceitos. Uma representação inadequada do espaço de busca ou da linguagem de descrição do conjunto de instâncias, bem como erros nos exemplos de treinamento, podem tornar os problemas de aprendizado difícies. Um dos problemas centrais em AM é a Seleção de um Subconjunto de Features - SSF - na qual o objetivo é tentar diminuir o número de features que serão fornecidas ao algoritmo de indução. São várias as razões para a realização de SSF. A primeira é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de muitas features, isto é a precisão dos classificadores gerados pode ser melhorada com a aplicação de SSF. Ainda, com um número menor de features, a compreensibilidade do conceito induzido pode ser melhorada. Uma terceira razão é o alto custo para coletar e processar grande quantidade de dados. Existem, basicamente, três abordagens para a SSF: embedded, filtro e wrapper. Por outro lado, se as features utilizadas para descrever os exemplos de treinamento são inadequadas, os algoritmos de aprendizado estão propensos a criar descrições excessivamente complexas e imprecisas. Porém, essas features, individualmente inadequadas, podem algumas vezes serem, convenientemente, combinadas gerando novas features que podem mostrar-se altamente representativas para a descrição de um conceito. O processo de construção de novas features é conhecido como Construção de Features ou Indução Construtiva - IC. Neste trabalho são enfocadas as abordagens filtro e wrapper para a realização de SSF, bem como a IC guiada pelo conhecimento. É descrita uma série de experimentos usando SSF e IC utilizando quatro conjuntos de dados naturais e diversos algoritmos simbólicos de indução. Para cada conjunto de dados e cada indutor, são realizadas várias medidas, tais como, precisão, tempo de execução do indutor e número de features selecionadas pelo indutor. São descritos também diversos experimentos realizados utilizando três conjuntos de dados do mundo real. O foco desses experimentos não está somente na avaliação da performance dos algoritmos de indução, mas também na avaliação do conhecimento extraído. Durante a extração de conhecimento, os resultados foram apresentados aos especialistas para que fossem feitas sugestões para experimentos futuros. Uma parte do conhecimento extraído desses três estudos de casos foram considerados muito interessantes pelos especialistas. Isso mostra que a interação de diferentes áreas de conhecimento, neste caso específico, áreas médica e computacional, pode produzir resultados interessantes. Assim, para que a aplicação do Aprendizado de Máquina possa gerar frutos é necessário que dois grupos de pesquisadores sejam unidos: aqueles que conhecem os métodos de AM existentes e aqueles com o conhecimento no domínio da aplicação para o fornecimento de dados e a avaliação do conhecimento adquirido. / In supervised Machine Learning - ML - an induction algorithm is typically presented with a set of training instances, where each instance is described by a vector of feature values and a class label. The task of the induction algorithm (inducer) is to induce a classifier that will be useful in classifying new cases. Conventional inductive-learning algorithms rely on existing (user) provided data to build their descriptions. Inadequate representation space or description language as well as errors in training examples can make learning problems be difficult. One of the main problems in ML is the Feature Subset Selection - FSS - problem, i.e. the learning algorithm is faced with the problem of selecting some subset of features upon which to focus its attention, while ignoring the rest. There are a variety of reasons that justify doing FSS. The first reason that can be pointed out is that most of the ML algorithms, that are computationally feasible, do not work well in the presence of a very large number of features. This means that FSS can improve the accuracy of the classifiers generated by these algorithms. Another reason to use FSS is that it can improve comprehensibility, i.e. the human ability of understanding the data and the rules generated by symbolic ML algorithms. A third reason for doing FSS is the high cost in some domains for collecting data. Finally, FSS can reduce the cost of processing huge quantities of data. Basically, there are three approaches in Machine Learning for FSS: embedded, filter and wrapper approaches. On the other hand, if the provided features for describing the training examples are inadequate, the learning algorithms are likely to create excessively complex and inaccurate descriptions. These individually inadequate features can sometimes be combined conveniently, generating new features which can turn out to be highly representative to the description of the concept. The process of constructing new features is called Constructive Induction - CI. Is this work we focus on the filter and wrapper approaches for FSS as well as Knowledge-driven CI. We describe a series of experiments for FSS and CI, performed on four natural datasets using several symbolic ML algorithms. For each dataset, various measures are taken to compare the inducers performance, for example accuracy, time taken to run the inducers and number of selected features by each evaluated induction algorithm. Several experiments using three real world datasets are also described. The focus of these three case studies is not only comparing the induction algorithms performance, but also the evaluation of the extracted knowledge. During the knowledge extraction step results were presented to the specialist, who gave many suggestions for the development of further experiments. Some of the knowledge extracted from these three real world datasets were found very interesting by the specialist. This shows that the interaction between different areas, in this case, medical and computational areas, may produce interesting results. Thus, two groups of researchers need to be put together if the application of ML is to bear fruit: those that are acquainted with the existing ML methods, and those with expertise in the given application domain to provide training data.
126

Representação de modelos de dados orientados a objetos através de parametrização de abstrações / Representing object-oriented data model through abstraction instantiations

Mauro Biajiz 03 September 1996 (has links)
Este trabalho apresenta um meta-modelo conceitual de dados para ser usado como ferramenta concetual para a construção de modelos de dados, obedecendo a determinados padrões. Ele é baseado em um metamodelo que permite a instanciação de modelos de dados. Para isso, identificaram-se as abstrações de dados fundamentais utilizadas em modelos de dados em geral: as abstrações de classificação, de associação e de generalização, e a partir delas foi construído um metamodelo que permite a representação de outros modelos de dados. O metamodelo modela os construtores semânticos de um determinado modelo de dados definindo diversas parametrizações das abstrações utilizadas nesse modelo, possivelmente em múltiplas ocorrêncas da mesma abstração num mesmo modelo. Considera-se uma ocorrência de parametrização como a identificação das restrições que envolvem uma abstração e a atribuição de valores a essas restrições, delimitando as possibilidades de cada restrição. Com esse conceito foi estabelecido um arcabouço conceitual que define uma estrutura precisa para cada construtor do metamodelo. A parametrização foi exemplificada pela aplicação ao Modelo Entidade-Relacionamento original, e na construção de um modelo orientado a objetos concebido para atender a necessidades bem especificadas, definidas a priori (atender às necessidades de aplicações de projeto e engenharia e aplicações científicas) que é denominado Modelo SIRIUS. / A set of conceptual constructions was developed to be used as a \"conceptual tool\" aiming the representation or construction of other data models. The result is a Data Meta-Model, which can be used as a reference standard for the construction of other data models. The Meta-model is based on the identification of the fundamental data abstractions used in the existing data models. It is shown that the fundamental abstractions are the classification, the association and the generalization ones. The Meta-model permits the definition of the semantic constructors of each data model the parameterization of the fundamental abstractions used in each constructor of the model. An abstraction is parameterized by collecting its set of restrictions and by setting each restriction with a particular value. Therefore, the same abstraction can generate several distinct abstraction instances. In the same way, several abstraction instances of distinct fundamental abstractions can be associated to build each each semantic constructor of the target data model. This process is exemplified using two case studies. First, it is used to represent the Entity-Relationship Model. Thereafter, it is used to construct a new data model, aiming at supporting the requirements of computer-aided engineering design and of scientific applications. The new data model is named SIRIUS, and incorporates the fundamental abstractions instantiated into semantic constructors tailored to the needs of those domains.
127

A aprendizagem da busca bibliográfica pelo estudante de graduação em enfermagem / Learning concerning bibliographic search of nursing undergraduate students

Maria Bernadete Malerbo 21 September 2011 (has links)
O advento da internet e sua constante evolução exigiu o desenvolvimento de sistemas de informação em saúde, permitindo aos alunos de enfermagem o acesso à informação mais amplo, rápido e eficaz, agregando qualidade às buscas bibliográficas. Apesar da evolução e dinâmica atualização desses recursos informacionais, além da sua disponibilização gratuita, alguns alunos ainda apresentam fragilidades quando se envolvem com a busca e recuperação dessa informação. O objetivo desse estudo qualitativo é conhecer e analisar como são realizadas as buscas bibliográficas quanto à elaboração das estratégias de busca, determinação dos descritores de assunto, uso de bases de dados bibliográficas, recuperação de documentos em texto completo e quais são as dificuldades e os avanços encontrados nesse processo por alunos de graduação em enfermagem, dos cursos de Bacharelado e Bacharelado e Licenciatura da Escola de Enfermagem de Ribeirão Preto-USP. Foram entrevistados 21 alunos desses cursos no mês de novembro de 2010. A partir da análise temática, foram configurados alguns temas: 1 - necessidades e práticas de busca da informação: dificuldades experimentadas pelos estudantes de enfermagem; 2 - a organização do ensino da busca bibliográfica e o papel do professor e 3 - o bibliotecário como educador. O Google destaca-se como principal recurso de busca da WEB privilegiado pelos estudantes, tendo em vista dificuldades de acesso às bases de dados bibliográficas, de domínio da língua inglesa e de recuperação de texto completo. Os alunos apontam a necessidade de orientações e apoio por parte dos professores, assim como destacam atividades educativas desenvolvidas pelo bibliotecário de modo pontual. Nesse contexto, faz-se necessário rever o ensino da busca bibliográfica, inserindo atividade educativa de modo mais integrado às disciplinas dos currículos dos cursos envolvidos, ao longo do processo de formação; reconstruir as práticas pedagógicas dessas atividades, a partir de referencial problematizador e fortalecer a parceria entre professor e bibliotecários. Este estudo também desperta reflexões sobre a formação e a prática profissional do bibliotecário, tendo em vista sua inserção mais significativa no apoio ao desenvolvimento dos cursos de graduação, no contexto da Universidade. / The advent of the Internet and its constant evolution demanded the development of health information systems, which has provided nursing students broad, fast and efficient access to information, adding quality to bibliographic searches. Despite the improved and dynamic actualization of these information resources and their free access, some students still experience difficulties when attempting to search and retrieve information. This qualitative study identifies and analyzes how these bibliographic searches are performed in terms of search strategies, choice of subject descriptors, use of bibliographic databases, recovery of full text documents and also investigates the difficulties faced and advancements achieved in this process by undergraduate nursing students from the Bachelor and Teaching Degree Programs at the University of São Paulo at Ribeirão Preto, College of Nursing. A total of 21 students from these programs were interviewed in November 2010. Some themes emerged from the thematic analysis: 1 - Needs and information-seeking practices: difficulties faced by nursing students; 2 - Organization of teaching bibliographic searches and the role of professors; and 3 - The librarian as an educator. Google stands out as the main search resource on the web used by students given the difficulties faced in accessing bibliographic databases, English-based databases, and in the recovery of full texts. Students point to the need to obtain guidance and support from professors and also stress one-time educational activities developed by the librarian. The need to review the teaching of bibliographic searching is identified in order to include educational activities in a more integrated manner with the courses from the involved programs over the educational process, reconstruct the pedagogical practices of such activities based on the problematizing framework, and strengthen the partnership between professors and librarians. This study also encourages reflecting on the education and professional practice of librarians toward a more significant participation in supporting the development of undergraduate programs in the university context.
128

Análise de grandezas cinemáticas e dinâmicas inerentes à hemiparesia através da descoberta de conhecimento em bases de dados / Analysis of kinematic and dynamic data inherent to hemiparesis through knowledge discovery in databases

Caio Benatti Moretti 31 March 2016 (has links)
Em virtude de uma elevada expectativa de vida mundial, faz-se crescente a probabilidade de ocorrer acidentes naturais e traumas físicos no cotidiano, o que ocasiona um aumento na demanda por reabilitação. A terapia física, sob o paradigma da reabilitação robótica com serious games, oferece maior motivação e engajamento do paciente ao tratamento, cujo emprego foi recomendado pela American Heart Association (AHA), apontando a mais alta avaliação (Level A) para pacientes internados e ambulatoriais. No entanto, o potencial de análise dos dados coletados pelos dispositivos robóticos envolvidos é pouco explorado, deixando de extrair informações que podem ser de grande valia para os tratamentos. O foco deste trabalho consiste na aplicação de técnicas para descoberta de conhecimento, classificando o desempenho de pacientes diagnosticados com hemiparesia crônica. Os pacientes foram inseridos em um ambiente de reabilitação robótica, fazendo uso do InMotion ARM, um dispositivo robótico para reabilitação de membros superiores e coleta dos dados de desempenho. Foi aplicado sobre os dados um roteiro para descoberta de conhecimento em bases de dados, desempenhando pré-processamento, transformação (extração de características) e então a mineração de dados a partir de algoritmos de aprendizado de máquina. A estratégia do presente trabalho culminou em uma classificação de padrões com a capacidade de distinguir lados hemiparéticos sob uma precisão de 94%, havendo oito atributos alimentando a entrada do mecanismo obtido. Interpretando esta coleção de atributos, foi observado que dados de força são mais significativos, os quais abrangem metade da composição de uma amostra. / As a result of a higher life expectancy, the high probability of natural accidents and traumas occurences entails an increasing need for rehabilitation. Physical therapy, under the robotic rehabilitation paradigm with serious games, offers the patient better motivation and engagement to the treatment, being a method recommended by American Heart Association (AHA), pointing the highest assessment (Level A) for inpatients and outpatients. However, the rich potential of the data analysis provided by robotic devices is poorly exploited, discarding the opportunity to aggregate valuable information to treatments. The aim of this work consists of applying knowledge discovery techniques by classifying the performance of patients diagnosed with chronic hemiparesis. The patients, inserted into a robotic rehabilitation environment, exercised with the InMotion ARM, a robotic device for upper-limb rehabilitation which also does the collection of performance data. A Knowledge Discovery roadmap was applied over collected data in order to preprocess, transform and perform data mining through machine learning methods. The strategy of this work culminated in a pattern classification with the abilty to distinguish hemiparetic sides with an accuracy rate of 94%, having eight attributes feeding the input of the obtained mechanism. The interpretation of these attributes has shown that force-related data are more significant, comprising half of the composition of a sample.
129

Uma aplicação de mineração de dados ao programa bolsa escola da prefeitura da cidade do Recife

Tabosa Florencio Filho, Roberto 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:58:15Z (GMT). No. of bitstreams: 2 arquivo3328_1.pdf: 1621200 bytes, checksum: d29e5bc60f1421ccb8a8ca95694cb6d6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Faculdade dos Guararapes / A tarefa de Mineração de Dados envolve um conjunto de técnicas de estatística e inteligência artificial com objetivo de descobrir informações não encontradas por ferramentas usualmente utilizadas para extração e armazenamento de dados em grandes bases de dados. A aplicação da Mineração de Dados pode ser realizada em qualquer área de conhecimento (Ciências Exatas, Humanas, Sociais, Biológica, Saúde, Agrária e outras) proporcionando ganhos de informações e conhecimentos, ora desconhecidos, em qualquer uma delas. Este trabalho apresenta uma aplicação de mineração de dados ao programa Bolsa Escola da Prefeitura da Cidade do Recife (PCR), particularmente na investigação da situação das famílias beneficiadas, com o objetivo de oferecer à administração municipal uma ferramenta de suporte à decisão capaz de aprimorar o processo de concessão de benefícios. Foi analisada uma massa de dados sócio-econômicos inicialmente de cerca de 60 mil famílias cadastradas no programa. Foi utilizada uma rede neural artificial MultiLayer Perceptron (MLP) para classificar as famílias beneficiadas com base nas suas características sócio-econômicas. A avaliação de desempenho e resultados obtidos, além da resposta da especialista no domínio de aplicação, demonstram a viabilidade dessa aplicação no processo de concessão do benefício ao Programa Bolsa Escola da Prefeitura da Cidade do Recife
130

Comitê de classificadores em bases de dados transacionais desbalanceadas com seleção de características baseada em padrões minerados

Campos, Camila Maria 29 January 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T14:42:33Z No. of bitstreams: 1 camilamariacampos.pdf: 929528 bytes, checksum: ebea02fc47981edfa166a24d9c1d7be2 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-05-30T15:36:24Z (GMT) No. of bitstreams: 1 camilamariacampos.pdf: 929528 bytes, checksum: ebea02fc47981edfa166a24d9c1d7be2 (MD5) / Made available in DSpace on 2017-05-30T15:36:24Z (GMT). No. of bitstreams: 1 camilamariacampos.pdf: 929528 bytes, checksum: ebea02fc47981edfa166a24d9c1d7be2 (MD5) Previous issue date: 2016-01-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os resultados dos problemas de classificação por regras de associação sofrem grande influência da estrutura dos dados que estão sendo utilizados. Uma dificuldade na área é a resolução de problemas de classificação quando se trata de bases de dados desbalanceadas. Assim, o presente trabalho apresenta um estudo sobre desbalanceamento em bases de dados transacionais, abordando os principais métodos utilizados na resolução do problema de desbalanceamento. Além disso, no que tange ao desbalanceamento, este trabalho propõe um modelo para realizar o balanceamento entre classes, sendo realizados experimentos com diferentes mé- todos de balanceamento e métodos ensemble, baseados em comitê de classificadores. Tais experimentos foram realizados em bases transacionais e não transacionais com o intuito de validar o modelo proposto e melhorar a predição do algoritmo de classificação por regras de associação. Bases de dados não transacionais também foram utilizadas nos ex perimentos, com o objetivo de verificar o comportamento do modelo proposto em tais bases. Outro fator importante no processo de classificação é a dimensão da base de dados que, quando muito grande, pode comprometer o desempenho dos classificadores. Neste traba lho, também é proposto um modelo de seleção de características baseado na classificação por regras de associação. Para validar o modelo proposto, também foram realizados ex- perimentos aplicando diferentes métodos de seleção nas bases de dados. Os resultados da classificação obtidos utilizando as bases contendo as características selecionadas pelos me- todos, foram comparados para validar o modelo proposto, tais resultados apresentaram-se satisfatórios em relação aos demais métodos de seleção. / The results of Classification Based on Associations Rules (CBA) are greatly influenced by the used data structure. A difficulty in this area is solving classification problems when it comes to unbalanced databases. Thus, this paper presents a study of unbalance in transactional and non-transactional databases, addressing the main methods used to solve the unbalance problem. In addition, with respect to the unbalance problem, this paper proposes a model to reach the balance between classes, conducting experiments with different methods of balancing and ensemble methods based on classifiers committee. These experiments were performed in transactional and non-transactional databases, in order to validate the proposed model and improve Classification Based on Associations Rules prediction. Another important factor in the classification process is database dimensionality, be cause when too large, it can compromise the classifiers performance. In this work, it is also proposed a feature selection model based on the rules of CBA. Aiming to validate this model, experiments were also performed applying different features selection methods in the databases.The classification results obtained using the bases containing the features selected by the methods were compared to validate the proposed model, these results were satisfactory in comparison with other methods of selection.

Page generated in 0.0521 seconds