• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1519
  • 38
  • 27
  • 20
  • 20
  • 19
  • 15
  • 14
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1596
  • 825
  • 659
  • 403
  • 259
  • 220
  • 182
  • 162
  • 141
  • 138
  • 137
  • 135
  • 126
  • 124
  • 121
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Modelo social de relevância para opiniões. / S.O.R.M.: Social Opinion Relevance Model.

Lima, Allan Diego Silva 02 October 2014 (has links)
Esta tese apresenta um modelo de relevância de opinião genérico e independente de domínio para usuários de Redes Sociais. O Social Opinion Relevance Model (SORM) é capaz de estimar a relevância de uma opinião com base em doze parâmetros distintos. Comparado com outros modelos, a principal característica que distingue o SORM é a sua capacidade para fornecer resultados personalizados de relevância de uma opinião, de acordo com o perfil da pessoa para a qual ela está sendo estimada. Devido à falta de corpus de relevância de opiniões capazes de testar corretamente o SORM, fez-se necessária a criação de um novo corpus chamado Social Opinion Relevance Corpus (SORC). Usando o SORC, foram realizados experimentos no domínio de jogos eletrônicos que ilustram a importância da personalização da relevância para alcançar melhores resultados, baseados em métricas típicas de Recuperação de Informação. Também foi realizado um teste de significância estatística que reforça e confirma as vantagens que o SORM oferece. / This thesis presents a generic and domain independent opinion relevance model for Social Network users. The Social Opinion Relevance Model (SORM) is able to estimate an opinions relevance based on twelve different parameters. Compared to other models, SORMs main distinction is its ability to provide customized results, according to whom the opinion relevance is being estimated for. Due to the lack of opinion relevance corpora that are able to properly test our model, we have created a new one called Social Opinion Relevance Corpus (SORC). Using SORC, we carried out some experiments on the Electronic Games domain that illustrate the importance of customizing opinion relevance in order to achieve better results, based on typical Information Retrieval metrics, such as NDCG, QMeasure and MAP. We also performed a statistical significance test that reinforces and corroborates the advantages that SORM offers.
502

Análise de desempenho do HRCTM HPGR em circuito piloto. / Performance analysis of the HRCTM HPGR in pilot plant.

Oliveira, Renato Nunes Martiniano de 05 November 2015 (has links)
A etapa de cominuição é a operação que mais consome energia de forma ineficiente. Pequenos ganhos de eficiência podem impactar significativamente nos custos operacionais da planta. Durante as décadas passadas, foram atingidas melhoras consideráveis na eficácia dos processos não apenas pela otimização integrada das etapas de cominuição, mas também pelo desenvolvimento de tecnologias que permitem o uso mais eficiente da energia. Entre elas está a Prensa de Rolos de Alta Pressão (PRAP, em inglês High Pressure Griding Rolls - HPGR). Uma campanha experimental em planta piloto foi conduzida para avaliar o desempenho da prensa de rolos (PR) em diferentes configurações de circuito. No total, foram conduzidos 18 ensaios em circuito fechado com peneira, com recirculação parcial do produto da PR e recirculação do produto das bordas. Este estudo apresenta os resultados de tal campanha e as análises contemplam: A comparação do desempenho da PR em diferentes configurações do circuito em termos do consumo de energia, da capacidade do circuito e da granulometria do produto. A avaliação do impacto da eficiência de classificação e da carga circulante no desempenho da PR em circuitos fechados. As análises conduzidas compararam o desempenho da PR a partir dos índices de desempenhos do equipamento e do circuito (capacidade específica, relação de redução e potência específica) que foram obtidos através das variáveis de processo como a vazão mássica, o P50 das distribuições granulométricas dos fluxos e o consumo de potência. Porém, dependendo do índice avaliado, uma configuração é mais vantajosa que a outra. Portanto, foi estabelecido um indicador que relacione as três variáveis de processo (capacidade, consumo de potência e granulometria) para determinar o circuito mais energeticamente eficiente. / Comminution is the most energy-intensive and energy-inefficient operation. A small gain in comminution efficiency can have a large impact on the operating cost of a plant. During the last decade, there have been considerable improvements in comminution efficiency not only due to the optimal design of grinding systems and operating variables that enable more efficient use of existing comminution devices, but also due to the development of comminution devices with the ability to enhance energy utilization. One such recognized technology which addresses most of these issues is the highpressure grinding roll (HPGR). A pilot scale test program was conduct in order to evaluate the size reduction performance of HPGR operating in different circuit configurations. In total, eighteen pilot-HPGR locked cycle tests were performed to simulate the HPGR performance in closed circuit with a screen, product recycle and edge recycle. This work provides the results from the pilot scale HPGR test program. The analysis reported herein includes: A comparison of different circuit configurations of HPGR operation in terms of energy consumption and product fineness. An evaluation of the impact of classification efficiency and circulating load on the performance of closed HPGR circuits. Analyses conducted compared the HPGR performance based onequipment and circuits indexes (specific capacity, reduction ratio and specific power) that were obtained through process variables such as flow rate, the P50 of the particle size distribution and power consumption. However, depending on the index evaluated, a configuration is more advantageous than the other. Therefore, an indicator was established that relates the three process variables (capacity, power consumption and particle size) to determine the most energy efficient circuit.
503

Detecção de ilhamento de geradores síncronos distribuídos por correlações da mineração complexa de dados / Islanding detection of distributed synchronous generators by complex data-mining correlations

Gomes, Eduardo Augusto Pereira 31 August 2016 (has links)
Um dos principais problemas que podem ocorrer em sistemas de distribuição ou de subtransmissão de energia elétrica com geração distribuída (GD) é o ilhamento. O ilhamento ocorre quando um ou mais geradores distribuídos alimentam uma porção do sistema que se encontra eletricamente isolada do restante do sistema elétrico. Logo, geradores distribuídos têm de ser equipados com esquema de proteção anti-ilhamento, pois a operação ilhada pode colocar em risco a segurança das pessoas e equipamentos e pode deteriorar a qualidade da energia elétrica suprida aos consumidores locais. Este trabalho está inserido no contexto de proteção de sistemas elétricos de distribuição com GD e propõe uma nova técnica passiva-inteligente de proteção anti-ilhamento para geradores síncronos distribuídos. O método proposto utiliza a mineração de dados do Data Mining of Code Repositories (DAMICORE), o qual possui grandes potencialidades para descobrir correlações em dados complexos. Para realizar essa tarefa, três algoritmos são executados em sequência. São eles: o Normalized Compression Distance (NCD) para calcular a matriz de distância do conjunto de dados; o Neighbor-Joining (NJ) para construir as árvores filogenéticas; e por fim o Fast Newman (FN) para buscar grupos na árvore filogenética nos quais os dados apresentam alto grau de independência. O método de detecção de ilhamento nesta dissertação utiliza 10 características importantes dos sinais de tensão e corrente trifásicas no ponto de acoplamento comum (PAC). Essas 10 características são utilizadas como entrada ao DAMICORE para formular um algoritmo baseado em mineração de dados capaz de detectar ilhamento e de diferenciá-los de outros tipos de distúrbios. Os resultados mostram que o método identifica o ilhamento corretamente, detectando-o rapidamente, especialmente nos casos em que a detecção do ilhamento por relés baseados em medidas de frequência falha ou é lenta. / One of the main issues that can occur into distribution power systems with distributed generation is islanding. Islanding occurs when one or more distributed generators feed a portion of the distribution system that becomes electrically isolated from the rest of the power system. Thus, distributed generators have to be equipped with anti-islanding protection schemes, because the islanded operation may put at risk the safety of people and the equipment. It can also deteriorate the power quality supplied to local consumers. This work is in the context of the protection schemes for distribution power systems with distributed generation and it proposes a new intelligent passive anti-islanding protection scheme for distributed synchronous generators. The scheme is based on the Data Mining of Code Repositories (DAMICORE), which finds the similarity within complex data sets. This task is performed by computing the following algorithms, in sequence: the Normalized Compression Distance (NCD) to calculate a distance matrix among the data sets; the Neighbor-Joining (NJ) to build the phylogenetic trees; and the Fast Newman (FN) to find clusters with high degree of independence by using the phylogenetic trees. The proposed method comprises the extraction of 10 important features of the three-phase voltages and currents measured at the point of common coupling of the distributed generator. These 10 features are then used as input to the DAMICORE in order to formulate a data mining-based algorithm capable of detecting islanding and of distinguishing it from other disturbances. The results show that the method identifies the islanding correctly, detecting it quickly, especially where the detection of islanding by frequency-based relays are slow.
504

Uso de geoestatística para aprimorar o controle de pragas na citricultura. / Use of geoestatistical to improve the pests control in citrus plants.

Okumura, Miriam Harumi 24 October 2007 (has links)
A preocupação com o desenvolvimento de novas tecnologias que priorizem o menor impacto ambiental, é cada vez maior. Esta tendência também ocorre na agroindústria, onde a preocupação com a redução de uso de defensivos agrícolas já é grande. Os problemas fitossanitários sempre foram barreiras que impediram o desenvolvimento da produtividade da citricultura, apenas ácaro da leprose (Brevipalpus phoenicis) representa cerca de 80 % dos custos destinados ao controle de pragas. O desenvolvimento de novas tecnologias, que colaborem com o controle de pragas e doenças já existentes, e outras que podem surgir, são uma necessidade deste setor. Nesta pesquisa foram utilizadas ferramentas informatizadas, utilizadas com sucesso no setor mineiro, no estudo dos ácaro da falsa ferrugem (Phyllocoptruta oleiva), ácaro branco (Plyphagotarsonemus latus) e ácaro da leprose (Brevipalpus phoenicis) com o objetivo de aprimorar o planejamento e gerenciamento da aplicação localizada de defensivos agrícolas, permitindo a verificação das variações espaciais e temporais dos fatores relacionados ao controle dessas pragas que prejudicam a produção citrícola. Estas ferramentas possuem análises geoestatísticas, que são primordiais para a modelagem espacial de fenômenos naturais, como as pragas e doenças, com características regionalizadas, a partir de amostras georreferenciadas. Como resultado tem-se a melhoria do processo de tomada de decisões na utilização de insumos agrícolas (defensivos), a partir do desenvolvimento de metodologia específica, testada e calibrada junto a um importante empreendimento no interior de São Paulo. / There is a great concern nowadays with the development of new technologies that prioritize environmental impact. This trend also occurs in the agribusiness, where one of the main concerns is the reduction in the use of agrochemicals. Phytosanitary issues have traditionally been a barrier for the increase in productivity of the citrus plants, as the leprosis mite (Brevipalpus phoenicis) responds for approximately 80 % of the pests control costs. The development of new technologies to control existing pests and diseases that affect citrus production is a major challenge of the agribusiness. In this research, software successfully developed for the mining industry has been applied to model the spatial distribution of citrus rust mite (Phyllocoptruta oleiva), broad mite (Plyphagotarsonemus latus) and leprosis mite (Brevipalpus phoenicis) with the objective of improving the planning and management of the localized application of agrochemicals. The resulting analysis have allowed the measurement of spatial variations of these pests and diseases. The spatial variation has then been used as the basis for planning the controlled application of agrochemicals for these pests and diseases. The research has applied geostatistical analysis for the detailed modeling of the regionalized behaviour of citrus pests and diseases according to the spatial positions of the field samples. The results obtained in the research include the improvement of the decisionmaking process of planning the application of agrochemicals and the development of a specific methodology which has been tested and calibrated in a test-implementation at an important agribusiness company in São Paulo.
505

Avaliação de impacto ambiental de projetos de mineração em São Paulo: estudo da evolução técnica e temporal e propostas de melhorias / Environmental Impact Assessment on Mining Projects at São Paulo: Technical and Temporal Evolution Study and Improvements Proposals

Rinaldi, Edgard Ortiz 22 June 2017 (has links)
Este trabalho identificou e analisou as principais inovações observadas ao longo do tempo nas práticas de Avaliação de Impacto Ambiental (AIA) de projetos de mineração no estado de São Paulo. Dentre os 322 casos disponíveis nos arquivos da Secretaria do Meio Ambiente do Estado de São Paulo, foram feitas análise documental e de conteúdo de seis processos de licenciamento ambiental prévio, escolhidos intencionalmente de forma a cobrir o maior espectro temporal possível, abranger diferentes regiões do estado e considerar os bens minerais brita e calcário. Roteiros de coleta de dados foram desenvolvidos com base na literatura e utilizados na análise documental dos principais documentos do processo de AIA: Termos de Referência (TR), Atas de audiência pública, Estudos de Impacto Ambiental (EIA) e Complementações e Pareceres Técnicos emitidos pelo órgão ambiental. Os dados coletados foram comparados entre si, visando detectar a presença ou ausência de inovações na prática. Com base nos dados encontrados em literatura, foi possível determinar o panorama da evolução técnica e temporal da AIA em São Paulo. Como principais resultados foram identificados: (1) inserção da etapa de scoping e aumento do nível de detalhamento dos TR; (2) inclusão da etapa de participação pública e melhor consideração das informações obtidas em audiências públicas; (3) EIAs mais longos, com diagnósticos ambientais mais abrangentes e com maior quantidade de dados primários, maior uso de recursos gráficos, proposição de programas ambientais e maior nível de detalhamento geral; (4) pareceres técnicos mais longos e detalhados, com mais exigências técnicas e que consideram as etapas posteriores de licenciamento e a fase de acompanhamento. Também foram identificadas lacunas como: (5) TRs com orientações genéricas; (6) baixa participação de outros órgãos reguladores no processo de AIA; (7) participação pública tardia; (8) deficiente consideração de alternativas locacionais e tecnológicas; (9) diagnósticos ambientais descritivos e sem abordagens analíticas; (10) ausência de guias de orientação; e (11) necessidade de capacitação dos profissionais envolvidos, para novos conteúdos e abordagens. Uma vez verificadas as inovações ausentes ou presentes, as hipóteses sobre os motivadores que as desencadearam foram extraídas a partir da literatura e de documentos de referência internacional. Os principais fatores foram: (i) melhorias em legislação, (ii) aumento do rigor do órgão ambiental, (iii) melhor orientação para os estudos ambientais, (iv) acúmulo de experiência. Baseando-se nas deficiências observadas e nos fatores de motivação identificados para inovações, foram identificadas possibilidades de melhorias, relativas à adoção de novas metodologias; alterações de procedimentos do órgão ambiental; atualização de legislações; adoção de guias de orientação; e inclusão de novos conteúdos a serem abordados. As melhorias propostas são apresentadas na forma de uma carta de propostas e recomendações / This research has identified and reviewed the main innovations over time in Environmental Impact Assessment (EIA) of quarry projects at São Paulo state, Brazil. Among the 322 studies available at Environmental Secretary of São Paulo, it was done contents analysis on documents of six studies of quarry projects, intentionally chosen in order to cover the longest time spectrum possible, comprise different regions and settings of the state and consider different ores (granite, basalt and limestone). Scripts containing questions for analysis were developed based on literature and were used for the review of the main EIA documents: Terms of Reference (ToR); Public Hearing records; Environmental Impact Statement (EIS); its Supplements; and Review Report. Data gathered were compared, aiming to find innovations on IA practice. Based on data from literature, it was possible to set the technical and temporal evolution of EIA at São Paulo. The main results found were: (1) insertion of scoping phase and increase of detailing on ToR; (2) inclusion of public participation and consideration of inputs from public hearings in review reports; (3) longer and more detailed EISs, with more detailed baselines, more primary data, improved cartography and comprising environmental programmes; (4) longer and more detailed Review Report, comprising more commitments to the proponent and considering later phases (installation and operation) and follow-up. Shortcomings were also identified: (5) generic guidelines on ToR; (6) low participation of other regulatory bodies on EIA process; (7) late public participation; (8) poor consideration of technological and locational alternatives; (9) descriptive baselines with no analytical approaches; (10) lack of guidelines for review; and (11) need of training for EIA experts, for new contents and approaches. After the innovations were found, the hypotheses of its drivers were extracted from literature and international documents. The main drivers were: (i) improvements on legislation; (ii) more rigorous review by Environmental Agency; (iii) better guidance for EIS; and (iv) experience accumulation. Based on the shortcomings found and on the innovation drivers; improvements were identified regarding to new methodologies adoption; changes on Environmental Agency procedures; legislation update; guidance adoption; and inclusion of new issues to be considered. The improvements proposed are presented in a recommendation letter
506

Análise de métodos para programação de contextualização. / Analysis of methods for programming of page context classification.

Marangon, Sílvio Luís 26 October 2006 (has links)
A localização de páginas relevantes na Internet em atividades como clipping de notícias, detecção de uso indevido de marcas ou em serviços anti-phishing torna-se cada vez mais complexa devido a vários fatores como a quantidade cada vez maior de páginas na Web e a grande quantidade de páginas irrelevantes retornadas por mecanismos de busca. Em muitos casos as técnicas tradicionais utilizadas em mecanismos de busca na Internet, isto é, localização de termos em páginas e ordenação por relevância, não são suficientes para resolver o problema de localização de páginas específicas em atividades como as citadas anteriormente. A contextualização das páginas, ou seja, a classificação de páginas segundo um contexto definido pelo usuário baseando-se nas necessidades de uma atividade específica deve permitir uma busca mais eficiente por páginas na Internet. Neste trabalho é estudada a utilização de métodos de mineração na Web para a composição de métodos de contextualização de páginas, que permitam definir contextos mais sofisticados como seu assunto ou alguma forma de relacionamento. A contextualização de páginas deve permitir a solução de vários problemas na busca de páginas na Internet pela composição de métodos, que permitam a localização de páginas através de um conjunto de suas características, diferentemente de mecanismos de busca tradicionais que apenas localizam páginas que possuam um ou mais termos especificados. / Internet services as news clipping service, anti-phising, anti-plagiarism service and other that require intensive searching in Internet have a difficult work, because of huge number of existing pages. Search Engines try driver this problem, but search engines methods retrieve a lot of irrelevant pages, some times thousands of pages and more powerful methods are necessary to drive this problem. Page content, subject, hyperlinks or location can be used to define page context and create a more powerful method that can retrieve more relevant pages, improving precision. Classification of page context is defined as classification of a page by a set of its feature. This report presents a study about Web Mining, Search Engines and application of web mining technologies to classify page context. Page context classification applied to search engines must solve the problem of irrelevant pages flood by allowing search engines retrieve pages of a context.
507

Um ambiente para avaliação de algoritmos de aprendizado de máquina simbólico utilizando exemplos. / An environment to evaluate machine learning algorithms.

Batista, Gustavo Enrique de Almeida Prado Alves 15 October 1997 (has links)
Um sistema de aprendizado supervisionado é um programa capaz de realizar decisões baseado na experiência contida em casos resolvidos com sucesso. As regras de classificação induzidas por um sistema de aprendizado podem ser analisadas segundo dois critérios: a complexidade dessas regras e o erro de classificação sobre um conjunto independente de exemplos. Sistemas de aprendizado têm sido desenvolvidos na prática utilizando diferentes paradigmas incluindo estatística, redes neurais, bem como sistemas de aprendizado simbólico proposicionais e relacionais. Diversos métodos de aprendizado podem ser aplicados à mesma amostra de dados e alguns deles podem desempenhar melhor que outros. Para uma dada aplicação, não existem garantias que qualquer um desses métodos é necessariamente o melhor. Em outras palavras, não existe uma análise matemática que possa determinar se um algoritmo de aprendizado irá desempenhar melhor que outro. Desta forma, estudos experimentais são necessários. Neste trabalho nos concentramos em uma tarefa de aprendizado conhecida como classificação ou predição, na qual o problema consiste na construção de um procedimento de classificação a partir de um conjunto de casos no qual as classes verdadeiras são conhecidas, chamado de aprendizado supervisionado. O maior objetivo de um classificador é ser capaz de predizer com sucesso a respeito de novos casos. A performance de um classificador é medida em termos da taxa de erro. Técnicas experimentais para estimar a taxa de erro verdadeira não somente provêem uma base para comparar objetivamente as performances de diversos algoritmos de aprendizado no mesmo conjunto de exemplos, mas também podem ser uma ferramenta poderosa para projetar um classificador. As técnicas para estimar a taxa de erro são baseadas na teoria estatística de resampling. Um ambiente chamado AMPSAM foi implementado para ajudar na aplicação dos métodos de resampling em conjuntos de exemplos do mundo real. AMPSAM foi projetado como uma coleção de programas independentes, os quais podem interagir entre si através de scripts pré-definidos ou de novos scripts criados pelo usuário. O ambiente utiliza um formato padrão para arquivos de exemplos o qual é independente da sintaxe de qualquer algoritmo. AMPSAM também inclui ferramentas para particionar conjuntos de exemplos em conjuntos de treinamento e teste utilizando diferentes métodos de resampling. Além do método holdout, que é o estimador de taxa de erro mais comum, AMPSAM suporta os métodos n-fold cross-validation --- incluindo o leaning-one-out --- e o método bootstrap. As matrizes de confusão produzidas em cada iteração utilizando conjuntos de treinamento e teste podem ser fornecidas a um outro sistema implementado chamado SMEC. Este sistema calcula e mostra graficamente algumas das medidas descritivas mais importantes relacionadas com tendência central e dispersão dos dados. Este trabalho também relata os resultados experimentais a respeito de medidas do erro de classificação de três classificadores proposicionais e relacionais bem conhecidos, utilizando ambos os sistemas implementados, em diversos conjuntos de exemplos freqüentemente utilizados em pesquisas de Aprendizado de Máquina. / A learning system is a computer program that makes decisions based on the accumulative experience contained in successfully solved cases. The classification rules induced by a learning system are judged by two criteria: their classification error on an independent test set and their complexity. Practical learning systems have been developed using different paradigms including statistics, neural nets, as well as propositional and relational symbolic machine learning. Several learning methods can be applied to the same sample data and some of them may do better than others. Still, for a given application, there is no guarantee that any of these methods will work or that any single method is necessarily the best one. In other words, there is not a mathematical analysis method that can determine whether a learning system algorithm will work well. Hence, experimental studies are required. In this work we confine our attention to the learning task known as classification or prediction, where the problem concerns the construction of a classification procedure from a set of data for which the true classes are known, and is termed supervised learning. The overall objective of a classifier is to be able to predict successfully on new data. Performance is measured in terms of the error rate. Error rate estimation techniques not only provide a basis for objectively comparing the error rate of several classifiers on the same data and then estimating their future performance on new data, but they can also be a powerful tool for designing a classifier. The techniques of error rate estimation are based on statistical resampling theory. In this work, rules induced complexity of propositional and relational learning systems as well as several resampling methods to estimate the true error rate are discussed. An environment called AMPSAM has been implemented to aid in the application of resampling methods to real world data sets. AMPSAM consists of a collection of interdependent programs that can be bound together either by already defined or by new user defined scripts. The environment uses a common file format for data sets which is independent of any specific classifier scheme. It also includes facilities for splitting data sets up into test and training sets using different methods. Besides holdout, which is the most common accuracy estimation method, AMPSAM supports n-fold cross-validation --- including leaving-one-out --- and bootstrap. The confusion matrices produced in each run using those test and training sets can be input to another system called SMEC. This system calculates and graphically displays some of the most important descriptive measures related to central tendency and dispersion of those data. This work also reports the results of experiments measuring the classification error of three well known propositional and relational classifiers, using the implemented systems, on several data sets commonly used in Machine Learning research.
508

Escavação de rochas com furos de grande diâmetro na mineração a céu aberto. / Rock blasting with large diameter blastholes in the open pit mining.

Collantes Candia, Renan 17 July 2006 (has links)
Esta dissertação apresenta uma revisão bibliográfica dos principais aspectos envolvidos nas operações de escavação de rochas com furos de grande diâmetro na mineração a céu aberto. O trabalho expõe o método de perfuração rotativa por ser o mais utilizado na execução desta operação unitária de lavra. Faz-se também um estudo dos principais agentes de desmonte que contribuem no emprego de furos de grande diâmetro na indústria da mineração, especialmente na explotação de minérios metálicos. São analisadas as propriedades do maciço rochoso, na determinação da carga específica e sua influência nos resultados da escavação de rochas por explosivos. É realizada ainda uma análise da metodologia utilizada para o dimensionamento do plano de fogo, baseando-se na inter-relação existente entre seus diversos elementos geométricos. Apresenta-se também a teoria de crateras como uma metodologia alternativa para dimensionamento de plano de fogo. Finalmente mostram-se os principais impactos ambientais decorrentes da detonação de explosivos na escavação de rochas. / This dissertation presents a bibliographical review of the main aspects involved in the open pit blasting operation using large diameter blastholes. The work displays the method of rotary drilling, being the most frequent used in the execution of this mining unitary operation. Here is presented a study of the main blasting agents that contribute to the increasing application of large diameter blastholes in the mining industry, especially in the field of metallic ores. The properties of the rock mass are analysed, in the determination of the powder factor and its influence on the results of rock excavation by explosives. An analysis of the methodology used for the determination a shot plan is carried out based on the existing interrelation between diverse geometric elements involved. The crater theory is also presented as an alternative methodology for the same purpose. Finally, the main environmental impacts caused by blasting in the rock excavation are discussed.
509

Analysis of microRNA precursors in multiple species by data mining techniques / Análise de precursores de microRNA em múltiplas espécies utilizando técnicas de mineração de dados

Lopes, Ivani de Oliveira Negrão 18 June 2014 (has links)
RNA Sequencing has recently emerged as a breakthrough technology for microRNA (miRNA) discovery. This technology has allowed the discovery of thousands of miRNAs in a large number of species. However, despite the benefits of this technology, it also carries its own limitations, including the need for sequencing read libraries and of the genome. Differently, ab initio computational methods need only the genome as input to search for genonic locus likely to give rise to novel miRNAs. In the core of most of these methods, there are predictive models induced by using data mining techniques able to distinguish between real (positive) and pseudo (negative) miRNA precursors (pre-miRNA). Nevertheless, the applicability of current literature ab initio methods have been compromised by high false detection rates and/or by other computational difficulties. In this work, we investigated how the main aspects involved in the induction of predictive models for pre-miRNA affect the predictive performance. Particularly, we evaluate the discriminant power of feature sets proposed in the literature, whose computational costs and composition vary widely. The computational experiments were carried out using sequence data from 45 species, which covered species from eight phyla. The predictive performance of the classification models induced using large training set sizes (≥ 1; 608) composed of instances extracted from real and pseudo human pre-miRNA sequences did not differ significantly among the feature sets that lead to the maximal accuracies. Moreover, the differences in the predictive performances obtained by these models, due to the learning algorithms, were neglectable. Inspired by these results, we obtained a feature set which can be computed 34 times faster than the less costly among those feature sets, producing the maximal accuracies, albeit the proposed feature set has achieved accuracy within 0.1% of the maximal accuracies. When classification models using the elements previously discussed were induced using small training sets (120) from 45 species, we showed that the feature sets that produced the highest accuracies in the classification of human sequences were also more likely to produce higher accuracies for other species. Nevertheless, we showed that the learning complexity of pre-miRNAs vary strongly among species, even among those from the same phylum. These results showed that the existence of specie specific features indicated in previous studies may be correlated with the learning complexity. As a consequence, the predictive accuracies of models induced with different species and same features and instances spaces vary largely. In our results, we show that the use of training examples from species phylogenetically more complex may increase the predictive performances for less complex species. Finally, by using ensembles of computationally less costly feature sets, we showed alternative ways to increase the predictive performance for many species while keeping the computational costs of the analysis lower than those using the feature sets from the literature. Since in miRNA discovery the number of putative miRNA loci is in the order of millions, the analysis of putative miRNAs using a computationally expensive feature set and or inaccurate models would be wasteful or even unfeasible for large genomes. In this work, we explore most of the learning aspects implemented in current ab initio pre-miRNA prediction tools, which may lead to the development of new efficient ab initio pre-miRNA discovery tools / O sequenciamento de pequenos RNAs surgiu recentemente como uma tecnologia inovadora na descoberta de microRNAs (miRNA). Essa tecnologia tem facilitado a descoberta de milhares de miRNAs em um grande número de espécies. No entanto, apesar dos benefícios dessa tecnologia, ela apresenta desafios, como a necessidade de construir uma biblioteca de pequenos RNAs, além do genoma. Diferentemente, métodos computacionais ab initio buscam diretamente no genoma regiões prováveis de conter miRNAs. A maioria desses métodos usam modelos preditivos capazes de distinguir entre os verdadeiros (positivos) e pseudo precursores de miRNA - pre-miRNA - (negativos), os quais são induzidos utilizando técnicas de mineração de dados. No entanto, a aplicabilidade de métodos ab initio da literatura atual é limitada pelas altas taxas de falsos positivos e/ou por outras dificuldades computacionais, como o elevado tempo necessário para calcular um conjunto de atributos. Neste trabalho, investigamos como os principais aspectos envolvidos na indução de modelos preditivos de pre-miRNA afetam o desempenho preditivo. Particularmente, avaliamos a capacidade discriminatória de conjuntos de atributos propostos na literatura, cujos custos computacionais e a composição variam amplamente. Os experimentos computacionais foram realizados utilizando dados de sequências positivas e negativas de 45 espécies, cobrindo espécies de oito filos. Os resultados mostraram que o desempenho preditivo de classificadores induzidos utilizando conjuntos de treinamento com 1608 ou mais vetores de atributos calculados de sequências humanas não diferiram significativamente, entre os conjuntos de atributos que produziram as maiores acurácias. Além disso, as diferenças entre os desempenhos preditivos de classificadores induzidos por diferentes algoritmos de aprendizado, utilizando um mesmo conjunto de atributos, foram pequenas ou não significantes. Esses resultados inspiraram a obtenção de um conjunto de atributos menor e que pode ser calculado até 34 vezes mais rapidamente do que o conjunto de atributos menos custoso produzindo máxima acurácia, embora a acurácia produzida pelo conjunto proposto não difere em mais de 0.1% das acurácias máximas. Quando esses experimentos foram executados utilizando vetores de atributos calculados de sequências de outras 44 espécies, os resultados mostraram que os conjuntos de atributos que produziram modelos com as maiores acurácias utilizando vetores calculados de sequências humanas também produziram as maiores acurácias quando pequenos conjuntos de treinamento (120) calculados de exemplos de outras espécies foram utilizadas. No entanto, a análise destes modelos mostrou que a complexidade de aprendizado varia amplamente entre as espécies, mesmo entre aquelas pertencentes a um mesmo filo. Esses resultados mostram que a existência de características espécificas em pre-miRNAs de certas espécies sugerida em estudos anteriores pode estar correlacionada com a complexidade de aprendizado. Consequentemente, a acurácia de modelos induzidos utilizando um mesmo conjunto de atributos e um mesmo algoritmo de aprendizado varia amplamente entre as espécies. i Os resultados também mostraram que o uso de exemplos de espécies filogeneticamente mais complexas pode aumentar o desempenho preditivo de espécies menos complexas. Por último, experimentos computacionais utilizando técnicas de ensemble mostraram estratégias alternativas para o desenvolvimento de novos modelos para predição de pre-miRNA com maior probabilidade de obter maior desempenho preditivo do que estratégias atuais, embora o custo computacional dos atributos seja inferior. Uma vez que a descoberta de miRNAs envolve a análise de milhares de regiões genômicas, a aplicação prática de modelos preditivos de baixa acurácia e/ou que dependem de atributos computacionalmente custosos pode ser inviável em análises de grandes genomas. Neste trabalho, apresentamos e discutimos os resultados de experimentos computacionais investigando o potencial de diversas estratégias utilizadas na indução de modelos preditivos para predição ab initio de pre-miRNAs, que podem levar ao desenvolvimento de ferramentas ab initio de maior aplicabilidade prática
510

O processo de extração de conhecimento de base de dados apoiado por agentes de software. / The process of knowledge discovery in databases supported by software agents.

Oliveira, Robson Butaca Taborelli de 01 December 2000 (has links)
Os sistemas de aplicações científicas e comerciais geram, cada vez mais, imensas quantidades de dados os quais dificilmente podem ser analisados sem que sejam usados técnicas e ferramentas adequadas de análise. Além disso, muitas destas aplicações são voltadas para Internet, ou seja, possuem seus dados distribuídos, o que dificulta ainda mais a realização de tarefas como a coleta de dados. A área de Extração de Conhecimento de Base de Dados diz respeito às técnicas e ferramentas usadas para descobrir automaticamente conhecimento embutido nos dados. Num ambiente de rede de computadores, é mais complicado realizar algumas das etapas do processo de KDD, como a coleta e processamento de dados. Dessa forma, pode ser feita a utilização de novas tecnologias na tentativa de auxiliar a execução do processo de descoberta de conhecimento. Os agentes de software são programas de computadores com propriedades, como, autonomia, reatividade e mobilidade, que podem ser utilizados para esta finalidade. Neste sentido, o objetivo deste trabalho é apresentar a proposta de um sistema multi-agente, chamado Minador, para auxiliar na execução e gerenciamento do processo de Extração de Conhecimento de Base de Dados. / Nowadays, commercial and scientific application systems generate huge amounts of data that cannot be easily analyzed without the use of appropriate tools and techniques. A great number of these applications are also based on the Internet which makes it even more difficult to collect data, for instance. The field of Computer Science called Knowledge Discovery in Databases deals with issues of the use and creation of the tools and techniques that allow for the automatic discovery of knowledge from data. Applying these techniques in an Internet environment can be particulary difficult. Thus, new techniques need to be used in order to aid the knowledge discovery process. Software agents are computer programs with properties such as autonomy, reactivity and mobility that can be used in this way. In this context, this work has the main goal of presenting the proposal of a multiagent system, called Minador, aimed at supporting the execution and management of the Knowledge Discovery in Databases process.

Page generated in 0.0696 seconds