• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 879
  • 60
  • 59
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1019
  • 709
  • 298
  • 242
  • 161
  • 157
  • 150
  • 148
  • 146
  • 142
  • 133
  • 131
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Indicador de inconformidades em instala??es el?tricas de baixa tens?o

Lima, Alfredo Rodrigues de 28 January 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-07-12T17:04:52Z No. of bitstreams: 1 AlfredoRodriguesDeLima_DISSERT.pdf: 1909195 bytes, checksum: 8680571905f085a9a3f6def1f176e2db (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-07-19T21:51:52Z (GMT) No. of bitstreams: 1 AlfredoRodriguesDeLima_DISSERT.pdf: 1909195 bytes, checksum: 8680571905f085a9a3f6def1f176e2db (MD5) / Made available in DSpace on 2016-07-19T21:51:52Z (GMT). No. of bitstreams: 1 AlfredoRodriguesDeLima_DISSERT.pdf: 1909195 bytes, checksum: 8680571905f085a9a3f6def1f176e2db (MD5) Previous issue date: 2016-01-28 / Com o avan?o da tecnologia de equipamentos, das formas de gera??o e utiliza??o de energia, os par?metros de qualidade de energia passam a influenciar de forma mais expressiva os diversos tipos de cargas consumidoras. Atualmente, s?o muitos os tipos de equipamentos que analisam a qualidade de energia. Entretanto, existe a necessidade de criar dispositivos que, al?m de realizar medi??es e calcular par?metros, encontrem falhas, sugiram altera??es, e possam dar suporte ao gerenciamento da instala??o. Al?m disso, ? necess?rio garantir que tais dispositivos sejam acess?veis. Para manter esse equil?brio, deve ser utilizado um m?todo de medi??o de grandezas que n?o requeira grandes recursos de processamento ou de mem?ria. O trabalho mostra que aplica??o do algoritmo de Goertzel, em compara??o com a comumente utilizada FFT, permite que as medi??es sejam feitas utilizando menos recursos de hardware, disponibilizando espa?o na mem?ria para implementa??o de fun??es de gerenciamento. O ponto inicial do trabalho consiste na pesquisa dos dist?rbios que s?o mais frequentes para consumidores de baixa tens?o. Em seguida ? proposto o diagrama funcional que indicar? o que ser? medido, calculado, quais problemas ser?o detectados e que solu??es podem ser encontradas. Simulando o algoritmo de Goertzel atrav?s do Scilab, mostra-se que ? poss?vel calcular componentes de frequ?ncia de um sinal distorcido com resultados satisfat?rios. Finalmente, ? montado o prot?tipo e s?o realizados os testes, ajustando os par?metros necess?rios para que se consiga manter o dispositivo confi?vel sem aumentar seu custo. / With the progress of devices technology, generation and use of energy ways, power quality parameters start to influence more significantly the various kinds of power consumers. Currently, there are many types of devices that analyze power quality. However, there is a need to create devices, and perform measurements and calculate parameters, find flaws, suggest changes, and to support the management of the installation. In addition, you must ensure that such devices are accessible. To maintain this balance, one magnitude measuring method should be used which does not require great resources processing or memory. The work shows that application of the Goertzel algorithm, compared with the commonly used FFT allows measurements to be made using much less hardware resources, available memory space to implement management functions. The first point of the work is the research of troubles that are more common for low voltage consumers. Then we propose the functional diagram indicate what will be measured, calculated, what problems will be detected and that solutions can be found. Through the Goertzel algorithm simulation using Scilab, is possible to calculate frequency components of a distorted signal with satisfactory results. Finally, the prototype is assembled and tests are carried out by adjusting the parameters necessary for one to maintain a reliable device without increasing its cost.
452

Algoritmos gen?ticos: uso de l?gica nebulosa e an?lise de converg?ncia por cadeia de Markov

Carlos, Luiz Amorim 05 November 2013 (has links)
Made available in DSpace on 2014-12-17T14:55:16Z (GMT). No. of bitstreams: 1 LuizAC_TESE.pdf: 1792266 bytes, checksum: ec666aacc6a6bc6fc6e042bf7f0ce339 (MD5) Previous issue date: 2013-11-05 / In this work, the Markov chain will be the tool used in the modeling and analysis of convergence of the genetic algorithm, both the standard version as for the other versions that allows the genetic algorithm. In addition, we intend to compare the performance of the standard version with the fuzzy version, believing that this version gives the genetic algorithm a great ability to find a global optimum, own the global optimization algorithms. The choice of this algorithm is due to the fact that it has become, over the past thirty yares, one of the more importan tool used to find a solution of de optimization problem. This choice is due to its effectiveness in finding a good quality solution to the problem, considering that the knowledge of a good quality solution becomes acceptable given that there may not be another algorithm able to get the optimal solution for many of these problems. However, this algorithm can be set, taking into account, that it is not only dependent on how the problem is represented as but also some of the operators are defined, to the standard version of this, when the parameters are kept fixed, to their versions with variables parameters. Therefore to achieve good performance with the aforementioned algorithm is necessary that it has an adequate criterion in the choice of its parameters, especially the rate of mutation and crossover rate or even the size of the population. It is important to remember that those implementations in which parameters are kept fixed throughout the execution, the modeling algorithm by Markov chain results in a homogeneous chain and when it allows the variation of parameters during the execution, the Markov chain that models becomes be non - homogeneous. Therefore, in an attempt to improve the algorithm performance, few studies have tried to make the setting of the parameters through strategies that capture the intrinsic characteristics of the problem. These characteristics are extracted from the present state of execution, in order to identify and preserve a pattern related to a solution of good quality and at the same time that standard discarding of low quality. Strategies for feature extraction can either use precise techniques as fuzzy techniques, in the latter case being made through a fuzzy controller. A Markov chain is used for modeling and convergence analysis of the algorithm, both in its standard version as for the other. In order to evaluate the performance of a non-homogeneous algorithm tests will be applied to compare the standard fuzzy algorithm with the genetic algorithm, and the rate of change adjusted by a fuzzy controller. To do so, pick up optimization problems whose number of solutions varies exponentially with the number of variables / Neste trabalho, a cadeia de Markov ser? a ferramenta usada na modelagem e na an?lise de converg?ncia do algoritmo gen?tico, tanto para sua vers?o padr?o quanto para as demais vers?es que o algoritmo gen?tico permite. Al?m disso, pretende-se comparar o desempenho da vers?o padr?o com a vers?o nebulosa, por acreditar que esta vers?o d? ao algoritmo gen?tico uma grande capacidade para encontrar um ?timo global, pr?prio dos algoritmos de otimiza??o global. A escolha deste algoritmo deve-se tamb?m ao fato do mesmo ter se tornado, nos ?ltimos anos, uma das ferramentas mais usadas para achar uma solu??o do problema de otimiza??o. Esta escolha deve-se ? sua comprovada efic?cia na busca de uma solu??o de boa qualidade para o problema, considerando que o conhecimento de uma solu??o de boa qualidade torna-se aceit?vel tendo em vista que pode n?o existir um outro algorimo capaz de obter a solu??o ?tima, para muitos desses problemas. Entretanto, esse algoritmo pode ser definido, levando em conta que o mesmo ? dependente n?o apenas da forma como o problema ? representado, mas tamb?m como s?o definidos alguns dos operadores, desde sua vers?o padr?o, quando os par?metros s?o mantidos fixos, at? suas vers?es com par?metros vari?veis. Por isso, para se alcan?ar um bom desempenho com o aludido algoritmo ? necess?rio que o mesmo tenha um adequado crit?rio na escolha de seus par?metros, principalmente da taxa de muta??o e da taxa de cruzamento ou, at? mesmo, do tamanho da popula??o. ? importante lembrar que as implementa??es em que par?metros s?o mantidos fixos durante toda a execu??o, a modelagem do algoritmo por cadeia de Markov resulta numa cadeia homog?nea, e quando permite a varia??o de par?metros ao longo da execu??o, a cadeia de Markov que o modela passa a ser do tipo n?o-homog?nea. Portanto, na tentativa de melhorar o desempenho do algoritmo, alguns trabalhos t?m procurado realizar o ajuste dos par?metros atrav?s de estrat?gias que captem caracter?sticas intr?nsecas ao problema. Essas caracter?sticas s?o extra?das do estado presente de execu??o, com o fim de identificar e preservar algum padr?o relacionado a uma solu??o de boa qualidade e, ao mesmo tempo, descartando aquele padr?o de baixa qualidade. As estrat?gias de extra??o das caracter?sticas tanto podem usar t?cnicas precisas quanto t?cnicas nebulosas, sendo neste ?ltimo caso feita atrav?s de um controlador nebuloso. Com o fim de avaliar empiriccamente o desempenho de um algoritmo n?o-homog?neo, apresenta-se testes onde se compara o algoritmo gen?tico padr?o com o algoritmo gen?tico nebuloso, sendo a taxa de muta??o ajustada por um controlador nebuloso. Para isso, escolhe-se problemas de otimiza??o cujo n?mero de solu??es varia exponencialmente com o n?mero de vari?veis
453

Avaliação não supervisionada do processo de segmentação de imagens utilizadas em geociências / Unsupervised evaluation of segmentation process of images used in geoscience.

Ana Maria Brandão Mileze 28 September 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir). / With the need of extracting the information contained in satellite images in a quick, efficent and economic way computational image process tecniques are being used more frequently, such as the automatic segmentation. Segmenting an image consists on dividing it in regions acording to a similarity standard, where the pixels which are contained there have the same characteristic, for example, level of gray, texture, that is, the one that best represents the objects on the image. There are lots of examples of segmentary algorithm like the development of areas where the pixels 'grow" and are agglutinated forming regions. To determine which are the best parameters utilized in these segmentary algorithms it is necessary to evaluate the results from the methods used more often, they are the supervized where there is a need of a reference image, considered ideal, giving us a priori knowledge of the regions in study. The unsupervised, where there is not the need of a reference image, make the user save time. Due to the difficulty of obtaining evaluators, for different kinds of images, is proposed the methodology that allows to evaluate images that have vegetation areas, where it will be formed large regions (Crianass), and the one that will evaluate the images with urban areas, where it will be needed more detailing (Cranassir).
454

Recuperação de imagens por conteúdo: uma abordagem multidimensional de modelagem de similaridade e realimentação de relevância

Barcelos, Emílio Zorzo 10 July 2009 (has links)
This work presents a multi-dimensional similarity modeling strategy and relevance feedback technique for minimizing the semantic gap intrinsic problem of CBIR systems by allowing users to customize their queries according to their requirements and preferences. We propose a composite strategy using a multi-dimensional, vectorial, spatially clustered, and relevance-ordered approach. Given a set of k features which represents the elements in an image database, the similarity measure between a query image and another from the image collection is analyzed in k components, and the images are ranked on a k dimensional space according to their projections over the axis xn, where n = 1, 2, ... k. System experimentation was executed thoroughly using a test image database containing up to 20,000 pictures. The experimental results have shown that the presented approach can substantially improve the outcome in image retrieval systems. / Este trabalho apresenta uma estratégia multidimensional de modelagem de similaridade e técnica de realimentação de relevância para a minimização do problema do salto semântico, intrínseco dos sistemas CBIR, permitindo aos usuários a customização de suas pesquisas de acordo com seus requisitos e preferências. Propõe-se uma estratégia composta, utilizando uma abordagem multidimensional, vetorial, com agrupamento espacial e ordenada por relevância. Considerando um grupo de k características que representam os elementos em um banco de dados de imagens, a medida de similaridade entre a imagem de consulta e outra da coleção de imagens é analisada em um espaço k dimensional de acordo com suas projeções sobre os eixos xn, onde n = 1, 2, ... k. Vários testes foram realizados com o sistema proposto utilizando um banco de imagens de testes contendo até 20.000 figuras. Os resultados obtidos mostraram que a abordagem apresentada pode aprimorar substancialmente o resultado em sistemas de recuperação de imagens. / Mestre em Ciências
455

Análise associativa: identificação de padrões de associação entre o perfil socioeconômico dos alunos do ensino básico e os resultados nas provas de matemática / Association analysis: identification of patterns related to the socioeconomic profiles

Lyvia Aloquio 20 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental. / Nowadays, most of the transactions made by companies and organizations is stored in databases that can be explored by researchers in order to obtain useful information to aid decision making. Due to the large volume involved, the extraction and analysis of data is not a simple task. The general process of converting raw data into useful information is called Knowledge Discovery in Databases (KDD). One step in this process is the Data Mining, which involves the application of algorithms and statistical techniques to exploit information contained implicitly in large databases. Many areas use the KDD process to facilitate the recognition of patterns or models on their bases of information. This work presents a practical application of KDD process using the database of students in the 9th grade of elementary education in the State of Rio de Janeiro, available in INEP site, with the aim of finding interesting patterns between the socioeconomic profile of the student and his/her performance obtained in Mathematics. The tool called Weka was used and the Apriori algorithm was applied to extracting association rules. This study revealed, for example, that students who have been reproved once tend to get a lower score on the math test, as well as students who had never been disapproved have had superior performance. Other factors like student future perspectives, ethnic group, parent's schooling, satisfaction in mathematics studying, and the frequency of access to Internet also affect positively or negatively the students learning. An analysis related to the schools infrastructure was made, with the conclusion that patterns do not change regardless of the student studying in good or bad infrastructure schools. The results obtained can be used to trace the students profiles which have a better or a worse performance in mathematics and to the development of public policies in education, aimed at elementary education.
456

Projeto construtal de complexos caminhos condutivos para o arrefecimento de corpos submetidos à geração de calor

Beckel, Cassia Cris January 2016 (has links)
Problemas de resfriamento de circuitos, presentes nas indústrias de eletrônicos e miniaturizados, têm sido amplamente estudados com o propósito de desenvolver mecanismos capazes de reduzirem a taxa de falha nos equipamentos devido às altas temperaturas. O presente trabalho utiliza o método Design Construtal associado com algoritmos de otimização, busca exaustiva e algoritmo genético, para realizar o estudo numérico de corpos sólidos com geração de calor uniforme onde são inseridos caminhos altamente condutivos em forma de “Y”, “Y-Y”, duplo “Y-Y” e “T”. O objetivo principal das otimizações realizadas consiste em minimizar a resistência ao fluxo de calor, quando as áreas ocupadas pelos materiais de alta e baixa condutividades são mantidas constantes, variando-se os comprimentos e espessuras dos caminhos condutivos. Para a solução numérica da equação da difusão do calor com as condições de contorno estabelecidas em cada caso, foi utilizado o PDETool do software MatLab. A formulação para o caminho condutivo em forma de “Y” apresenta a construção de volumes elementares, mantendo a mesma condutividade térmica para todo o caminho condutivo. Na configuração em forma de duplo “Y – Y” foi utilizado o método de busca exaustiva associado ao algoritmo genético (GA). Nas simulações realizadas com o caminho condutivo em forma de “T”, a configuração apresenta combinações de condutividade térmica diferentes para a base e para a parte superior, enfatizando que a geometria depende das condições impostas pelo ambiente. Para o caso com um volume elementar, a configuração em forma de “Y” degenera-se gerando um caminho condutivo em forma de “U” e com dois volumes, a variação ocorre no comprimento dos ramos do caminho condutivo. Para a configuração com quatro volumes, a configuração ótima tem a forma de “X”. No caso do caminho em forma de “T”, a configuração que minimiza a máxima temperatura em excesso tem a forma de um “I”. Como previsto no princípio da ótima distribuição das imperfeições, a geometria ótima para os casos estudados é aquela que melhor distribui as imperfeições do sistema. / Problems that embody cooling of circuits that appears in electronics and miniaturized industries, have been widely studied to develop mechanisms capable of reducing the failure rate of the equipment due to high temperatures. The present work applies the Constructal Design method associated with optimization algorithms, exhaustive search and genetic algorithm, to perform the numerical study of solid bodies with uniform heat generation in which are inserted high-conducting pathways with “Y”, “Y–Y”, double “Y–Y” and “T” shapes. The main goal of the performed optimizations consists in minimizing the resistance to the heat flux when the occupied areas of high and low conductivity materials are maintained constant, varying the lengths and thickness of conductive paths. For the numerical solution of the heat diffusion equation with the boundary conditions established in each case, it was used the PDETool from MatLab software. The formulation for the conductive pathway with "Y" shape presents the construction of elementary volumes, maintaining the same thermal conductivity across the entire conductive pathway. In the configuration in double “Y–Y” form it was used exhaustive search method associated with genetic algorithm (GA). In the simulations performed with the T-shaped conductive pathway, the configuration provides combinations of different thermal conductivity for the base and the top, emphasizing that the geometry depends on the conditions imposed by the environment. For the case with one elementary volume, the Y-shaped configuration degenerates producing a conductive pathway with U-shape; and with two volumes, the variation occurs in the length of branches of the conductive pathway. For the configuration with four volumes, the optimum configuration has the form of “X”. In the case of T-shaped pathway, the configuration that minimizes the maximal excess of temperature is I-shaped. As predicted by the principle of optimal distribution of the imperfections, the optimal geometry for the cases studied is the one that promotes the best distribution of the imperfections of the system.
457

Otimização multiobjetivo de uma máquina pentafásica utilizando NSGA-II

Dias, Tiago Fouchy January 2016 (has links)
Neste trabalho é desenvolvida uma metodologia de otimização multiobjetivo baseada no NSGA-II (Nondominated Sorting Genetic Algorithm), a qual visa a otimização do projeto de máquinas de indução pentafásicas. A escolha deste tipo de máquina se justifica pelo fato de que elas apresentam vantagens importantes quando comparadas com as trifásicas convencionais, tais como maior potência e maior torque para um mesmo volume de material ativo, além da possibilidade de operar na ocorrência de falhas (perda de uma ou duas fases). Na otimização de máquinas de indução vários objetivos podem ser definidos, sendo estes muitas vezes conflitantes. Neste contexto, este trabalho visa obter soluções que representam um compromisso entre dois objetivos: rendimento e custo do material ativo (ferro e material condutor). O algoritmo de otimização desenvolvido e implementado utiliza dois controles de diversidade da população, um baseado no fenótipo dos indivíduos, que é característico do NSGA-II, e outro adicional que é baseado no genótipo. A geometria do estator e do rotor da máquina e o seu modo de acionamento são parametrizados por 14 variáveis inteiras. O método desenvolvido foi implementado no Matlab R e aplicado a um caso prático de otimização de uma máquina de indução pentafásica considerando os dois objetivos citados. Os resultados práticos mostram que o método é capaz de obter projetos otimizados com maior rendimento e menor custo aproveitando as características particulares deste tipo de máquina. / In this work, it is developed a method of multiobjective optimization based on NSGAII (Nondominated Sorting Genetic Algorithm), which aims at optimizing the design of five-phase induction machines. The choice of this particular type of machine is justified by the fact that they have important advantages over conventional three-phase machines, such as higher power and higher torque for the same volume of material; in addition, they can operate under fault (loss of one or even two phases). When optimizing induction machines, several objectives can be defined, which are often conflicting. In this context, this work aims to obtain solutions that represent a trade-off between two objectives: efficiency and cost of active material (iron and conductor materials). The optimization algorithm that was developed and implemented uses two types of control for the diversity of the population, one based on the phenotype of the individuals, characteristic of the NSGA-II, and another one based on the genotype. The geometrical dimensions of the stator and rotor, together with the driving strategy, are parameterized by 14 integer variables. The developed method was implemented using Matlab R and applied to a practical case of a five-phase induction machine considering the aforementioned objectives. The practical results show that the method can lead to an optimized design with higher efficiency and at a lower cost, accounting for the special characteristics of this type of machine.
458

Um algoritmo para o cálculo dos valores da matriz LTSN

Denardi, Vania Bolzan January 1997 (has links)
Apresentamos um novo algoritmo, baseado no algoritmo de inversão de matrizes de Leverrier-Fadeev, para extrair os autovalores e os coeficientes do polinômio característico da matriz (si+ A), não-simétrica, que surge em conexão com o método LTSN - o qual utiliza a transformada de Laplace para a solução da equação de ordenadas discretas S N. O algoritmo baseia-se em propriedades exibidas pela matriz, cuja estrutura e valores dos elementos fazem com que todos os seus autovalores sejam reais e simétricos em relação a zero. Evidências experimentais demonstram que, os autovalores do bloco superior esquerdo da matriz, de dimensão N /2, entrelaçam os autovalores negativos de -A. O algoritmo foi implementado em FORTRAN 77, usando algumas rotinas do BLAS e do LAPACK, e estruturado de forma a explorar a estrutura da matriz, permitindo efetuar os cálculos necessários em um menor tempo e com um menor gasto de menória. No entanto, apesar de ganhos obtidos em comparação com o algoritmo usualmente utilizado, proposto por Barichello, nossos experimentos demonstram a instabilidade numérica do algoritmo de Leverrier-Fadeev. / We present a new algorithm to compute the eigenvalues and the coefficients o f the characteristic polynomial o f a nonsymmetric matrix o f the form (sI+ A), which arises in connection with the LTSN method for the solution of thc discrete ordinates equations S N. Our algorithm is a modifi.cation of the matrix inversion Leverrier-Fadeev algorithm, exploiting the pattern existent in the matrix -A and some properties exhibited by its eigenvalues, which have been determined experimentally. More specifi.cally, its eigenvalues alllie on the real axis and are symmetrically distributed around zero. Also, -A has a block structure and the eigenvalues of the left-hand superior block interleave the negative eigenvalues of the matrix. The algorithm was designed to exploit these characteristics, computing only the nega:tive eigenvalues of -A (due to their symmetrical distribution) by means of the well-know bisection method to obtain the zeros of thc characteristic polynomial. Since the eigenvalues of the left-hand superior block of A interleave those of the matrix, it is possible to use intervals made of pairs of those eigenvalues which contain just a single eigenvalue of - A. Also, the structure of -A was used to develop optimized sections of code of thc algorithm to reduce the number of operations required. The whole algorithm was implementcd in FORTRAN 77, making use of some of the BLAS and LAPACK routines. The results obtained although presenting a better performance than that used currently, due to Barichello, show that the algorithm is susceptible to the ill-conditioning of the matrix.
459

Associações sociotécnicas: mediações algorítmicas e a economia das ações no Facebook / Sociotechnical associations: algorithmic mediations and the actions economy on Facebook

Moura, Carolina Silva de 02 April 2018 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2018-05-03T13:53:27Z No. of bitstreams: 2 Dissertação - Carolina Silva de Moura - 2018.pdf: 5329584 bytes, checksum: 5bfa61f6504213d3213b09998b948dfa (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-03T14:53:50Z (GMT) No. of bitstreams: 2 Dissertação - Carolina Silva de Moura - 2018.pdf: 5329584 bytes, checksum: 5bfa61f6504213d3213b09998b948dfa (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-03T14:53:50Z (GMT). No. of bitstreams: 2 Dissertação - Carolina Silva de Moura - 2018.pdf: 5329584 bytes, checksum: 5bfa61f6504213d3213b09998b948dfa (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-04-02 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The project seeks to map the economy mediated by the association between the algorithms and the user on Facebook turning to the commercial pages.Economics keep a direct relationship with the processes of collecting, storing and articulating data favoring a personalization of content. The first part presents the project regarding the problem, objectives and your relevance. The second delivery of conceptual discussion about algorithms, their developments, research perspectives and which ones are sought in this analysis. The third one deals with the Theory-Actor Network, a theoretical proposal for research to consider symmetrical human and non-human highlightly Latour (1994a, 2012). Therefore, we explore ways of implementing empirical research based on the development of cartography (VENTURINNI, 2010; BARROS, KASTRUP, 2009; ROMAGNOLI, 2009; PRADO FILHO, TETI, 2013). Taking this as a reference, the empirical exercise was carried out from the profile of the researcher on Facebook for a month was observed on based on the selection of some internal and external variables about platform. The following reading exposes the data observed in this analysis that point to an economy based on the circulation of segmented contents based on the actions of the user, in which the user's action deals of algorithm transactions that reverberate is not that it is not News Feed and so the user also carries out their translations in a network that is made and remade in a constant way. / O projeto busca cartografar a economia mediada pela associação entre os algoritmos e o usuário no Facebook voltando-se às páginas comerciais. Economia essa que estabelece relação direta com os processos de coleta, armazenamento e articulação de dados favorecendo a personalização de conteúdo. Na primeira parte apresenta-se o projeto quanto ao problema, objetivos e relevância. A segunda dá seguimento à discussão conceitual sobre algoritmos, seus desdobramentos, perspectivas de pesquisa e quais delas são buscadas nessa análise. A terceira aborda a Teoria Ator-Rede, proposta teórica para a pesquisa por considerar simétricos agentes humanos e não humanos a luz especialmente de Latour (1994a, 2012). Por conseguinte se explora as formas de implementação da pesquisa empírica fundamentada no desenvolvimento de uma cartografia (VENTURINNI, 2010; BARROS, KASTRUP, 2009; ROMAGNOLI, 2009; PRADO FILHO, TETI, 2013). Tomando isso como referência, o exercício empírico, foi realizado a partir do perfil da pesquisadora no Facebook que durante um mês foi observado com base na seleção de algumas variáveis internas e externas à plataforma. A leitura seguinte expõe os dados observados nessa análise que apontam para uma economia pautada na circulação de conteúdos segmentados com base nas ações do usuário, em que o agir dele promove traduções do algoritmo as quais reverberam no que é exposto no Feed de Notícias e assim o usuário também realiza suas traduções em uma rede que se faz e refaz de modo constante.
460

Algoritmo genético aplicado à otimização de asas de material compósito de veículos aéreos não tripulados / Genetic algorithm applied to optimization of composite material wings of unmanned air vehicles

Klaus Widmaier 19 December 2005 (has links)
O advento dos veículos aéreos não tripulados (VANTs) representa uma quebra de paradigma no ramo aeronáutico. São revisados os conceitos de projeto envolvidos no desenvolvimento de VANTs e levantadas as suas potenciais aplicações. São também analisadas as características de sua operação e discutidas as questões regulatórias envolvidas na certificação e integração dos VANTs ao tráfego aéreo civil. Dentre as várias características singulares dos VANTs, enfatiza-se a sua necessidade de realizar vôos a grande altitude e com longa autonomia. Isso leva ao emprego de materiais mais leves e configurações com asas de grande alongamento, que provocam menor arrasto induzido. É feita uma revisão sobre materiais compósitos, que são materiais de uso crescente no ramo aeronáutico por sua leveza e resistência, e que por sua característica de anisotropia, são suscetíveis à otimização estrutural. Métodos e ferramentas de otimização estrutural de compósitos laminados ainda são pouco empregados, por suas características discretas e pelo grande número de parâmetros envolvidos. Um método eficiente e adequado à otimização de um problema desse tipo é o método dos algoritmos genéticos (AG). Assim foi desenvolvida uma sub-rotina de otimização baseada em algoritmos genéticos, usando a linguagem de programação Fortran. A sub-rotina desenvolvida trabalha em conjunto com um programa comercial de análise estrutural baseado no método dos elementos finitos, o Ansys. Foi também proposta uma configuração de asa de um VANT típico, de grande alongamento e fabricada com materiais compósitos reforçados com fibras (CRF). A asa proposta teve o número e a orientação das camadas do laminado otimizadas com o uso da sub-rotina desenvolvida, e resultados satisfatórios foram encontrados. Foram também analisados os efeitos da variação dos parâmetros dos operadores do AG, como probabilidades de mutação, cruzamento, tipo de escalonamento, entre outros, no desempenho do mesmo. Também foram feitas otimizações no mesmo modelo de asa proposto, empregando outros métodos disponíveis no próprio programa de análise estrutural. Os resultados das otimizações através desses métodos foram comparados com os resultados obtidos com a sub-rotina desenvolvida / The advent of the unmanned air vehicles (UAVs) represents a paradigm break in the aeronautical field. The project concepts involved in the development of UAVs are revised and its potential applications are rose. Also the issues related to UAVs operation are assessed and the regulatory questions involved in their certification and integration to the civil air space are argued. Amongst many singular characteristics of the UAV, its necessity of performing flights at high altitudes and with long endurance is emphasized. This leads to the employment of lighter materials and to configurations with high aspect ratio wings that cause minor induced drag. A revision on composite materials, which are of increasing use in the aeronautical field for their lightness and strength, and that are appropriate for being optimized due to their anisotropy characteristics, is made. Methods and tools of structural optimization of laminated composites are still seldom employed, due to their discrete nature and to the large number of parameters involved. An efficient and suitable method for the optimization of this kind of problem is the genetic algorithm (GA). Thus, an optimization sub-routine based on genetic algorithms was developed, using FORTRAN programming language. The developed sub-routine works in combination with Ansys, a structural analysis commercial program based on the finite elements method. A configuration of a typical UAV wing, made from composite reinforced plastics (CRP) was also proposed. The proposed wing had the number of plies and the orientations of its layers optimized using the developed sub-routine, and satisfactory results had been found. Also the effect of the variation of AG’s operator parameters in its performance, as mutation probabilities, crossover probabilities, fitness scaling, among others, have been assessed. The same wing model considered was also optimized using other build-in methods of the structural analysis program. The results of these optimizations have been compared with the results obtained with the developed sub-routine

Page generated in 0.0727 seconds