• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 412
  • 14
  • 13
  • 13
  • 13
  • 11
  • 9
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 439
  • 439
  • 95
  • 78
  • 67
  • 62
  • 59
  • 47
  • 47
  • 43
  • 42
  • 41
  • 39
  • 38
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Bak4bio framework - Brasilian army knife for bioinformatics

Andreatta, Anderson January 2013 (has links)
Orientador : Prof. Dr. Alessandro Brawerman / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 09/05/2013 / Inclui referências / Área de concetração: Bioinformática / Resumo:No desenvolvimento de software para a área de Bioinformática, pesquisadores consideram vários fatores para definir as tecnologias e metodologias utilizadas em um determinado projeto, não sendo raro encontrar soluções com finalidades iguais ou similares utilizando diferentes tecnologias. Com a proposta de fortalecer a comunidade de Bioinformática, o framework BAK4BIO - Brazilian Army Knife for Bioinformatics é um conjunto de ferramentas para a construção de aplicativos para a plataformaWeb e Mobile. É composto por uma série de subsistemas, os quais possibilitam ao usuário final buscar informações nos principais bancos de dados biológicos; iniciar e supervisionar processos de Bioinformática em ambiente computacional de alto desempenho - BAK4BIO Cluster; e gerenciar arquivos relacionados a entrada e saída de processos nas nuvens - BAK4BIO BOX. Tudo isto provendo a mobilidade necessária para seus usuários, ao permitir com que todos os processos sejam iniciados a partir de um aplicativo desenvolvido para Android - o BAK4BIO Droid. Existe também módulo BAK4BIO Server, responsável por centralizar o recebimento de requisições do módulo Droid e encaminhar para o destino correto, atuando como um proxy. Finalmente, o BAK4BIO Web, criado para interagir com as soluções do framework via Web. A carência de frameworks para o desenvolvimento de ferramentas em Bioinformática encontrada na literatura demonstra que, a existência do BAK4BIO contribui para a integração entre diferentes trabalhos científicos e o coloca em destaque por seu pioneirismo em âmbito nacional na área de mobilidade. Com destaque ao módulo BAK4BIO Droid, disponível na Google PlayStore e utilizado pela comunidade científica em vários países desde o seu lançamento. Palavras-chave: Framework; Dispositivos Móveis; Integração de sistemas; Acesso a bases biológicas; Ferramentas Biológicas. xiii / Abstract: Software development for Bioinformatics, researchers consider several factors to dene the technologies and methods used in a given project, it isn't uncommon nd solutions with similar purposes using diferent technologies. With the proposal to strengthen the Bioinformatic's community, the framework BAK4BIO - Brazilian Army Knife for Bioinformatics is a set of tools for building applications for the Web and Mobile platforms. It consists of a number of subsystems, which enable the user to retrieve information on major biological databases; initiate and supervise Bioinformatics processes in highperformance computing environment - BAK4BIO Cluster, and manage related to input and output processes in clouds - BAK4BIO BOX. All this providing the necessary mobility to users by allowing that all processes start from an application developed for Android - BAK4BIO Droid. There is also BAK4BIO Server module, responsible for centralizing the receipt of requests from the Droid module and forward to the correct destination, acting as a proxy. Finally, the Web BAK4BIO designed to interact with the framework via Web solutions The lack of frameworks for the development of Bioinformatics tools found in the literature shows that the existence of BAK4BIO contributes to the integration of dierent scientic studies and highlights in for his pioneering nationwide in the area of mobility. Highlighting the BAK4BIO Droid unit, available in Google PlayStore and used by the scientic community in several countries since its launch. Key-words: Framework, Mobile Devices, System's Integration, Access to biological bases; Biological Tools. xiv
122

Avaliação de uma metodologia de baixo custo para o cadastro de propriedades em áreas de expansão e vazios urbanos /

Miyashita, Priscila Midori. January 2008 (has links)
Resumo: É comum encontrar nas prefeituras brasileiras sistemas cadastrais praticamente abandonados com muitas falhas e sem qualquer política de manutenção. Dentre as falhas dos atuais modelos de Cadastro, existe uma que necessita de inovações quanto ao processo de aquisição de informações. Trata-se da definição dos limites das propriedades que não fazem parte dos loteamentos urbanos, tais como chácaras de recreio e vazios urbanos que raramente são cadastrados, prejudicando principalmente o planejamento e a gestão municipal. A falta de cadastramento desses imóveis decorre muitas vezes devido à dificuldade em levantar imóveis grandes, de formatos irregulares e localizados longes dos centros urbanos. As imagens obtidas pelo sensor abordo do satélite QuickBird, após corrigidos geometricamente proporcionam ao usuário vasta aplicabilidade em diversas áreas, incluindo o mapeamento do uso do solo através de técnicas de classificação e atualização cartográfica. Além da utilização das imagens de satélites foi proposto neste trabalho o uso das observáveis coletadas com o receptor de navegação Garmin GPS 12XL para a realização do posicionamento tridimensional... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: It is common to find in Brazilian townhalls cadastral systems almost abandoned with many faults and without any policy of maintenance. Among the imperfections of the current Cadastral models, there is one that needs innovations with regard to the process of acquiring information. It is the definition of the limits of properties that don't make part of urban lots, such as small farms for recreation and urban empty areas that are rarely registered, damaging mainly the planning and municipal management. The lack of registration of these parcels often happen because of the difficulty in survey big parcels of irregular formats and located distant from urban areas. The images obtained by the sensor on board of the QuickBird satellite, after geometrically corrected, offer to the user great applicability in several areas, including the mapping of land use by techniques of classification and update mapping. Besides the use of satellite images, it was proposed in this research the use of navigation Garmin GPS 12XL receiver, to realize the post-process of observables providing the threedimensional positioning... (Complete abstract click electronic access below) / Orientador: Amilton Amorim / Coorientador: Paulo de Oliveira Camargo / Banca: José Milton Arana / Banca: Paulo Márcio Leal de Menezes / Mestre
123

Influência da combinação e modernização dos sistemas que integram o GNSS no georreferenciamento de imóveis rurais /

Pinto, Marcelo Solfa. January 2012 (has links)
Orientador: Paulo de Oliveira Camargo / Coorientador: João Francisco Galera Monico / Banca: Cláudia Pereira Krueger / Banca: Mauro Issamu Ishikawa / Resumo: A questão agrária sempre foi e ainda é um tema bastante discutido no Brasil, principalmente no que diz respeito à posse da terra. A Lei nº 10.267, de 28 de Agosto de 2001, foi um grande avanço para a questão agrária, pois a altera o Sistema Público de Registro de Terras e cria o Cadastro Nacional de Imóveis Rurais (CNIR). A partir de então, todos os imóveis rurais devem ser georreferenciados ao Sistema Geodésico Brasileiro (SGB). Esta lei tem por objetivo evitar a apropriação irregular de terras e identificar terras devolutas federais e estaduais. Para o georreferenciamento dos imóveis ao SGB são utilizados métodos de posicionamento por satélites e convencionais. Mudanças vêm ocorrendo nos sistemas de posicionamento por satélites em razão do acréscimo de novos sinais no GPS (Global Positioning System), a reestruturação do GLONASS (Global Orbiting Navigation Satellite System), além dos novos sistemas que vêm sendo desenvolvidos, como o Galileo e o Beidou/Compass. O acréscimo de observáveis advindas de outros sistemas, além do GPS, possibilita uma nova geometria na distribuição dos satélites e aumento significativo do número de observáveis por época. Para avaliar os efeitos da combinação de dados GPS/GLONASS e o sinal modernizado GPS, foram realizados processamentos com diferentes configurações de sistemas e tempo de rastreio. As estratégias de processamento foram aplicadas para o transporte de coordenadas dos pontos de apoio básico e determinação dos pontos limítrofes de imóveis rurais. Ao final, verificou-se que o uso de efemérides precisas no transporte de pontos de apoio não apresenta influência relevante, pois o transporte com efemérides transmitidas também atende a exigência de precisão da Norma Técnica de Georreferenciamento de Imóveis Rurais (NTGIR); o posicionamento... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The land question has always been and still is a topic widely discussed in Brazil, especially with regard to land tenure. The establishment of Law No. 10,267 on August 28, 2001was a major breakthrough for de agrarian question, because amending the Public Registry of Lands and creates National Registry of Rural Properties was a breakthrough. Since then, all rural properties must be georreferenced to the Brazilian Geodetic System (BGS). This law aims to prevent the illegal appropriation of land and identify federal and state lands. For georreferencing of property to the BGS methods are used satellite positioning and conventional survey are used. Changes have been occurring in the satellite positioning systems, due to the addition of new signals in the GPS system, restructuring of the GLONASS system, as well as new system are being developed, such as Galileo and Beidou/Compass. The addition of observables arising from other systems, in addition to GPS, enables a new geometry in the distribution of satellites and a significant increase in the number of observables per epoch. To evaluate the effects of combination data GPS/GLONASS and modernizes GPS signal, processing were performed with different system configurations and time tracking. The processing strategies have been applied for the transport of coordinates of the points of support and determining the neighboring points. Finally, it was found that the use of precise ephemeris in coordinate transport not have important influence, because the broadcast ephemeris was also satisfactory when required, according to Standard Techinique Georreferencing Rural Properties, the precise point positioning (PPP) also showed satisfactory accuracy for such processing of support point. In the case of adjacent points, the same system is also recommended, even with lower trace time. Also been found that the use of data GPS/GLONASS showed the best results, both for determination of suport point as limits / Mestre
124

O software MAXIMA aplicado ao cálculo diferencial /

Martini, Alexandre Henrique de. January 2011 (has links)
Orientador: Eliris Cristina Rizziolli / Banca: Henrique Lazari / Banca: Aldício José Miranda / Resumo: Neste trabalho estudamos tópicos de cálculo diferencial para funções de várias variáveis a valor real, utilizando como ferramenta o programa livre MAXIMA / Abstract: We study some topics of the differential calculus using the software as a tool MAXIMA / Mestre
125

Comparação da redução de dimensionalidade de dados usando seleção de atributos e conceito de framework: um experimento no domínio de clientes

Macedo, Dayana Carla de 05 March 2012 (has links)
Os dados de clientes nas empresas são coletados e armazenados em um Banco de Dados e sua administração requer o uso de uma ferramenta computacional. A construção de um modelo de Perfil de Cliente a partir de um banco de dados requer o processo descoberta de conhecimento em uma base de dados. Essa busca de conhecimento e extração de padrões das bases de dados demanda a utilização de um aplicativo com capacidade analítica para extrair informações que estão implícitas e desconhecidas, porém, potencialmente úteis. Um Banco de Dados por meio do processo de recuperação é capaz de obter informações dos clientes, mas a dificuldade é de que esses sistemas não geram padrões. Estes Bancos de dados contêm uma quantidade expressiva de atributos, os quais podem prejudicar o processo de extração de padrões. Assim, métodos de redução de dimensionalidade são empregados para eliminar atributos redundantes e melhorar o desempenho do processo de aprendizagem tanto na velocidade quanto na taxa de acerto. Também identificam um subconjunto de atributos relevantes e ideal para uma determinada base de dados. Os dois métodos de redução utilizados nesta pesquisa foram: Seleção de Atributos e Conceitos de Framework, até então não aplicados no domínio de Clientes. O Método de Seleção de Atributos tem o intuito de identificar os atributos relevantes para uma tarefa alvo na Mineração de Dados, levando em conta os atributos originais. Já os Conceitos de Framework promovem sucessivos refinamentos nos atributos que podem levar a construção de um modelo mais consistente em um domínio de aplicação. A presente pesquisa aplicou esses dois métodos para comparação destes no domínio Clientes,usando três bases de dados chamadas: Stalog, Customere Insurance. Identificaram-se cinco etapas principais para a comparação dos dois métodos de redução: Preparação das Bases de Dados, Escolha das Bases de Dados, Aplicação dos Métodos de Seleção de Atributos e dos Conceitos de Framework, Execução dos Algoritmos de Classificação e Avaliação dos Resultados. Com a operacionalização das cinco etapas, compostas por vários processos, foi possível comparar os dois métodos e identificar os melhores algoritmos que aumentam a taxa de acerto dos algoritmos classificadores e consequentemente gerar os atributos mais relevantes para uma base de dados, aumentando o desempenho do processo de aprendizagem. Desta forma, com os melhores subconjuntos identificados é possível submetê-los a aplicação de tarefas da Mineração de Dados as quais permitem a construção de regras que ajudam na Gestão do Conhecimento do Perfil do Cliente. / Information related to the Customers at companies are collected and stored in databases. The administration of these data often requires the use of a computational tool. The building of a Customer Profile model from the database requires the process of knowledge discovery in databases. This search of knowledge and extraction patterns of the databases demands the use of a tool with analytics capability to extract information that are implicit, and are previously unknown, but, potentially useful. A data base through of the recovery of date, obtain information of the Customers, but the difficulty is in the fact of these systems do not generate patterns. However, these databases have an expressive amount of data, where redundant information it prejudices this process of patterns extraction. Thus, dimensionality reduction methods are employed to remove redundant information and improve the performance of the learning processes the speed as in the performance of classifier. Furthermore, it identifies a subset of relevant and ideal attributes for a determinate database. The two methods of dimensionality reduction used in this search were: Attribute Selection and Framework Concepts which theretofore were not applied in Customer domain. The Attribute Selection Method has as goal to identify the relevant attributes for a target task, taking into account the original attributes. Considering the Framework Concepts it promotes successive refinements on the attributes where can tale he building of a model more consistent application domain. The present search applied these two methods in order to comparison of these in the Customer domain, using three databases called: Stalog, Customer e Insurance. This paper identified five main steps in order to comparison of the two methods: Preparation of Database, Choice of Database, Application of the Attributes Selection and Framework Concepts Methods, Execution of the Algorithms of the Classification and Evaluation of the Results. With the implementation of theses five steps composed of several processes, it was possible to compare the two methods and identify the best classifiers algorithms and consequently to create the attributes more relevant for a database, increasingthe performance of the learning process. Of this way, with the best subset identified is possible submit them to the application of the Data Mining Tasks which allow the building of rules that help the Knowledge Management of Customer Profile.
126

Comparação da redução de dimensionalidade de dados usando seleção de atributos e conceito de framework: um experimento no domínio de clientes

Macedo, Dayana Carla de 05 March 2012 (has links)
Os dados de clientes nas empresas são coletados e armazenados em um Banco de Dados e sua administração requer o uso de uma ferramenta computacional. A construção de um modelo de Perfil de Cliente a partir de um banco de dados requer o processo descoberta de conhecimento em uma base de dados. Essa busca de conhecimento e extração de padrões das bases de dados demanda a utilização de um aplicativo com capacidade analítica para extrair informações que estão implícitas e desconhecidas, porém, potencialmente úteis. Um Banco de Dados por meio do processo de recuperação é capaz de obter informações dos clientes, mas a dificuldade é de que esses sistemas não geram padrões. Estes Bancos de dados contêm uma quantidade expressiva de atributos, os quais podem prejudicar o processo de extração de padrões. Assim, métodos de redução de dimensionalidade são empregados para eliminar atributos redundantes e melhorar o desempenho do processo de aprendizagem tanto na velocidade quanto na taxa de acerto. Também identificam um subconjunto de atributos relevantes e ideal para uma determinada base de dados. Os dois métodos de redução utilizados nesta pesquisa foram: Seleção de Atributos e Conceitos de Framework, até então não aplicados no domínio de Clientes. O Método de Seleção de Atributos tem o intuito de identificar os atributos relevantes para uma tarefa alvo na Mineração de Dados, levando em conta os atributos originais. Já os Conceitos de Framework promovem sucessivos refinamentos nos atributos que podem levar a construção de um modelo mais consistente em um domínio de aplicação. A presente pesquisa aplicou esses dois métodos para comparação destes no domínio Clientes,usando três bases de dados chamadas: Stalog, Customere Insurance. Identificaram-se cinco etapas principais para a comparação dos dois métodos de redução: Preparação das Bases de Dados, Escolha das Bases de Dados, Aplicação dos Métodos de Seleção de Atributos e dos Conceitos de Framework, Execução dos Algoritmos de Classificação e Avaliação dos Resultados. Com a operacionalização das cinco etapas, compostas por vários processos, foi possível comparar os dois métodos e identificar os melhores algoritmos que aumentam a taxa de acerto dos algoritmos classificadores e consequentemente gerar os atributos mais relevantes para uma base de dados, aumentando o desempenho do processo de aprendizagem. Desta forma, com os melhores subconjuntos identificados é possível submetê-los a aplicação de tarefas da Mineração de Dados as quais permitem a construção de regras que ajudam na Gestão do Conhecimento do Perfil do Cliente. / Information related to the Customers at companies are collected and stored in databases. The administration of these data often requires the use of a computational tool. The building of a Customer Profile model from the database requires the process of knowledge discovery in databases. This search of knowledge and extraction patterns of the databases demands the use of a tool with analytics capability to extract information that are implicit, and are previously unknown, but, potentially useful. A data base through of the recovery of date, obtain information of the Customers, but the difficulty is in the fact of these systems do not generate patterns. However, these databases have an expressive amount of data, where redundant information it prejudices this process of patterns extraction. Thus, dimensionality reduction methods are employed to remove redundant information and improve the performance of the learning processes the speed as in the performance of classifier. Furthermore, it identifies a subset of relevant and ideal attributes for a determinate database. The two methods of dimensionality reduction used in this search were: Attribute Selection and Framework Concepts which theretofore were not applied in Customer domain. The Attribute Selection Method has as goal to identify the relevant attributes for a target task, taking into account the original attributes. Considering the Framework Concepts it promotes successive refinements on the attributes where can tale he building of a model more consistent application domain. The present search applied these two methods in order to comparison of these in the Customer domain, using three databases called: Stalog, Customer e Insurance. This paper identified five main steps in order to comparison of the two methods: Preparation of Database, Choice of Database, Application of the Attributes Selection and Framework Concepts Methods, Execution of the Algorithms of the Classification and Evaluation of the Results. With the implementation of theses five steps composed of several processes, it was possible to compare the two methods and identify the best classifiers algorithms and consequently to create the attributes more relevant for a database, increasingthe performance of the learning process. Of this way, with the best subset identified is possible submit them to the application of the Data Mining Tasks which allow the building of rules that help the Knowledge Management of Customer Profile.
127

Pós-processador de verificação estrutural para o sistema GAELI

Morsch, Inacio Benvegnu January 1991 (has links)
O objetivo deste trabalho é implementar procedimentos de verificação de estruturas ou peças metálicas de forma qualquer. Os procedimentos de verificação foram implementados no pós-processador do sistema GAELI em desenvolvimento no CPGEC da UFRGS. Os procedimentos de verificação implementados por este trabalho são os de verificação da tensão limite, verificação de elementos de barra com seções de chapa dobrada de pequena espessura (perfis finos) pela norma CAN S136-M84, verificação de tubulações industriais petroquímicas pela norma ANSI 831.3 e verificação de estruturas à fadiga considerando cargas de efeito quase estático. Uma das vantagens destas implementações refere-se ao fato de que uma estrutura pode ser verificada segundo múltiplos critérios permitindo a obtenção de um quadro mais completo da resistência da estrutura ou peça. Isto é poss1vel graças ao fato de que a base de dados para cada uma das verificações é praticamente a mesma com relação as demais. Longe de se pretender esgotar trabalho pretende ser uma contribuição a o assunto, este mais destinada a facilitar o trabalho de engenheiros e estudantes.
128

Modelagem da esteira e otimização do posicionamento de aerogeradores em parques eólicos

Nowaczyk, Eduardo Ribas January 2015 (has links)
A otimização de processos tem como objetivo a maximização, ou minimização, de uma função objetivo que descreve o problema a ser resolvido. Para tanto, dependendo do problema e visando a obtenção da melhor resposta no menor tempo, podem ser utilizadas técnicas estocásticas ou determinísticas. Atualmente, o emprego de otimizadores não mais se restringe às aplicações da indústria de processos e manufaturas, mas também em outras áreas, como, por exemplo, a de energias renováveis. Esse fato se deve à conscientização acerca das consequências da utilização combustíveis fósseis e da busca pelo maior custo-benefício em projetos da área. Este trabalho tem como objetivo estudas o posicionamento de aerogeradores em um parque eólico utilizando otimização de processos. Para tal, foi desenvolvido um modelo baseado em Katic et al. (1986) para a descrição do déficit de velocidade do vento, aplicando o conceito de blending functions para combinar as perdas pelo efeito de esteira em todas as direções de vento incidente. O resultado é um modelo de rápida execução e qualitativamente correto. Comparou-se, então, soluções de otimizadores de busca direta global do tipo estocástico (PSO) e determinístico (DIRECT), escolhidos em função da não-regularidade da função objetivo. Considerou-se, também, o valor de 15% de perda de energia em relação à geração ideal como sendo o máximo aceitável para as respostas. O DIRECT alcançou soluções viáveis para até 8 turbinas, enquanto o PSO solucionou o problema para até 13 aerogeradores. Os resultados do PSO com 80 partículas e 100 iterações, para posicionamento de 13 aerogeradores, foi comparado com os resultados mostrados por Mosetti et al. (1994), mostrando uma necessidade de área de terreno cerca de cinco vezes menor para cada turbina. Avaliou-se, então, a influência os parâmetros algoritmo PSO, tanto os internos quantos os externos (número de partículas e iterações), em cenários de média e alta complexibilidade para a mesma quantidade de avaliações da função objetivo, respectivamente. As soluções encontradas mostraram que tais parâmetros tem grande efeito nas respostas dos otimizadores. / The aim of process optimization is maximize, or minimize, an objective function that describes a problem to be solved. To do that, depending on the problem and aiming the best solution in a shortest time, stochastic or deterministic techniques can be used. Currently, the use of optimizers no longer is restricted to process and manufacturing industrial problems, but in many others fields, like, for example, the renewable energy. This is due to the awareness about the consequences of using fossils fuels and looking for the best cost-effective in the projects of this area. The objective of this work is study the set of wind turbines in a wind park using process optimization. To do that, it was developed a model based on Katic et al. (1986) to describe the wind speed decay, using the knowledge of blending functions to add the wake losses in all wind directions. The result is a fast performance and qualitatively correct model. Then, global direct search optimizers solutions, a stochastic (PSO) and a deterministic (DIRECT), were compared. Those were chosen due the non-regular objective function. It was considerer 15% as the maximum acceptable energy losses, compared to the ideal, of the positioning answeres. The DIRECT reached viable solutions up to 8 turbines while the PSO solved the problem up to 13 turbines. The results of the PSO with 80 particles and 100 iteractions to positioning 13 turbines, was compared with the results shown by Mosetti et al. (1994) resulting in about 5 times less land required to each turbine. Then, it was evaluated the effect os the PSO parameters, inner and outer (number of particles and iteractions), in medium and high complexity scenarios to the same amount of objective functions evaluations. The solutions reached shown that those parameters have large influence in the optimizers solutions.
129

Proposição geoestatística para quantificação do erro em estimativas de tonelagens e teores

Souza, Luis Eduardo de January 2007 (has links)
A crescente preocupação da indústria mineral no que se refere ao estabelecimento de normas ou padrões para a classificação de recursos e reservas tem se refletido ao longo dos anos no emprego e disseminação de uma ampla gama de metodologias. Atualmente, devido ao fato dos principais critérios de classificação não serem prescritivos quanto aos tipos de técnicas a serem empregadas e pela dificuldade na quantificação do grau de certeza associado às estimativas, a maioria das empresas de mineração têm seus próprios conjuntos de normas e procedimentos. Além disso, sabe-se que várias das abordagens historicamente empregadas no setor mineiro para estimativa e classificação de recursos não são capazes de realmente fornecer uma medida do erro associado às estimativas, não atendendo assim aos mais atuais códigos de classificação que requerem o estabelecimento de um nível de confiança quanto a essas estimativas. Assim, como raramente limites de confiança são claramente definidos, quando eles o são, freqüentemente não levam em consideração muitos dos fatores que provocam incerteza nos teores e tonelagens estimadas ou são baseados em métodos puramente empíricos. Nesse sentido, esse trabalho se propôs a desenvolver uma metodologia de análise quantitativa e qualitativa de recursos minerais que possibilitasse a incorporação da incerteza às estimativas por meio da determinação do erro ou risco associado. A metodologia idealizada incluiu a implementação computacional das principais técnicas ou métodos empregados pela indústria mineira para elaboração de inventários e relatórios de recursos e reservas minerais, de maneira a permitir um claro e rápido estudo comparativo, em termos de recursos totais nas diversas classes usadas na classificação, do impacto da utilização de cada técnica no inventário final de recursos. Além disso, foi investigada a análise da incerteza com a utilização de simulação seqüencial gaussiana e por bandas rotativas e o inventário de recursos foi comparado àquele obtido à partir das técnicas tradicionais exploradas anteriormente, discutindo-se as vantagens e/ou limitações da metodologia Ilustra-se a metodologia em um estudo de caso com um banco de dados típico de um depósito de ferro. Demonstra-se, que além da proposta ser apropriada para abordar o problema da quantificação da incerteza, possibilitando sua utilização pelos sistemas de classificação de recursos e reservas, ela permite observar claramente as limitações de cada técnica e de seus parâmetros-chave. Comprova-se que os resultados variam entre os diversos métodos em função dos critérios adotados por cada usuário, ressaltando assim seu caráter subjetivo. Da mesma forma, as ferramentas computacionais desenvolvidas permitiram a realização de uma análise de sensibilidade dos métodos analisados e a confecção de diferentes cenários, além da verificação do impacto nos recursos quando cada um dos diferentes métodos é selecionado. / It is recognized by the major international codes that resource classification involves the interaction of numerous qualitative and quantitative criteria such as data quality, geological and grade continuity, etc. However, the difficulty in quantifying the degree of uncertainty associated with mineral resources estimation has led to the creation of a large suite of methodologies, terms, and definitions, with almost every mining company having its own set of standards. It is also intuitively known that traditional methods used to evaluate resources such as number of samples used to interpolate a block or samples position surrounding this block do not take into account the spatial continuity of the grades, and even some approaches based on geostatistical methods are unable to provide a measure of the error associated with their estimates. Since they do not provide an error assessment, these methods are inappropriate to assess local or global uncertainty associated with an estimate. Posed these problems, this thesis aims at developing a methodology for either quantitative or qualitative analysis of mineral resources estimation through the uncertainty incorporation, and the correct definition of the associated risk or error. The proposed methodology includes the development of a software incorporating all the main classification techniques used by the mineral industry. A comprehensive study about each technique was conducted allowing a comparison among the parameters affecting mineral inventory assessment. Additionally, some alternative methods capable of incorporating uncertainty to the estimates of resources and reserves were investigated, and their appropriateness was discussed. Stochastic simulation techniques such as sequential Gaussian simulation and turning bands were employed to evaluate the error associated with an estimate using multiple simulated models to define confidence limits. A proposal based on the use of simulated models as references to calculate the “true” error was tested as much to simply classify the resources,as to become a calibration tool to the previously categorized models. Either sequential Gaussian or turning bands simulation provided similar results in terms of space of uncertainty, precision and accuracy. A case study was conducted with a typical iron ore deposit dataset from the Conceição Mine of the Itabira Complex at the Iron Quadrangle. The results showed the specific limitations of each classification system and the influence in selecting their key parameters. The developed software was employed and the results demonstrated the empirical nature of the traditional methods, always based on subjective choices. Finally, the simulation techniques were adequately able to assess the uncertainty, and through the use of reference scenarios was possible to propose a more reliable technique to classify resources, and a way to assess the error in case of one chooses to use any other traditional criteria.
130

Desenvolvimento e validação de uma metodologia de análise eletromagnética de cubas de alumínio utilizando os pacotes comerciais ANSYS 9.0 e ALGOR 12.28

Schneider, André Felipe January 2006 (has links)
O alumínio primário é obtido através da redução eletroquímica da alumina em cubas Hall-Héroult. Em uma planta, muitas cubas são conectadas em série para formar uma ou mais linhas de redução. As cubas são alimentadas com corrente DC e a energia é transferida de uma a outra através de barramentos de alumínio. Correntes elétricas geram campos magnéticos. O produto vetorial entre os campos elétrico e magnético geram forças de corpo nas fases líquidas, conhecidas como Forças de Lorentz. Estas agem como a fonte de momentum do banho e do metal e também são responsáveis pela deformação da interface entre estas duas fases. O objetivo deste trabalho é desenvolver uma metodologia para a análise eletromagnética de cubas eletrolíticas de redução utilizando os pacotes comerciais ANSYS 9.0 e ALGOR 12.28. Aspectos relevantes do modelo são discutidos, tais como, a modelagem da resistência de contato catódica, do casco de aço e do volume de ar que o envolve. Demonstra-se que o bias da componente vertical do campo magnético sempre aumenta a energia associada a esta componente. A metodologia é validada experimentalmente em fornos reais. / Primary aluminum is obtained by a complex process of electrochemical reduction of alumina in Hall-Héroult cells. In a smelter there are many cells, connected in series to form one or more pot lines. DC current flows from cell to cell in aluminum busbars. Electric currents generate magnetic fields. The combination of the electric current and the magnetic field gives volumetric forces, known as Lorentz or electromagnetic forces. These set the metal and the bath in motion and deform the metal-bath interface. The aim of this work is to develop a methodology for electromagnetic field analysis of aluminum reduction cells using the commercial packages ANSYS 9.0 e ALGOR 12.28. Model’s relevant aspects, such as cathode contact resistance, pot shell and its surrounding air volume are discussed. It is demonstrated that the magnetic field bias always increase the energy associated to the magnetic flux density’s vertical component BZ. The methodology is validated with experiments in real cells.

Page generated in 0.0882 seconds