• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 855
  • 57
  • 51
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 984
  • 667
  • 263
  • 241
  • 157
  • 148
  • 146
  • 141
  • 136
  • 133
  • 129
  • 128
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Um algoritmo evolutivo para o problema de dimensionamento de lotes em fundições de mercado / An evolutionary algorithm to the lot-sizing in market foundries

Camargo, Victor Claudio Bento de 16 March 2009 (has links)
Segundo uma pesquisa recente realizada junto ao setor de fundições, uma importante preocupação do setor é melhorar seu planejamento de produção. Um plano de produção em uma fundição envolve duas etapas interdependentes: a determinação das ligas a serem fundidas e dos lotes que serão produzidos. Neste trabalho, estudamos o problema de dimensionamento de lotes para fundições de pequeno porte, cujo objetivo é determinar um plano de produção de mínimo custo. Como sugerido na literatura, a heurística proposta trata as etapas do problema de forma hierárquica: inicialmente são definidas as ligas e, posteriormente, os lotes que são produzidos a partir delas. Para a solução do problema, propomos um algoritmo genético que explora um conjunto de possibilidades para a determinação das ligas e utiliza uma heurística baseada em relaxação lagrangiana para determinação dos itens a serem produzidos. Além disso, uma abordagem para o mesmo problema é proposta utilizando o problema da mochila para determinar os itens a serem produzidos. Bons resultados foram obtidos pelos métodos propostos / According to a recent research made by the foundry sector, one of the most concern of the industry is to improve its production planning. A foundry production plan involves two independent stages: the determination of alloys to be merged and the lots that will be produced. In this work, we studied the lot-sizing problem for small foundries, whose purpose is to determine a plan of minimum production cost. As suggested in the literature, the heuristic proposed addresses the problem stages in a hierarchical way: rst we dene the alloys and, subsequently, the lots that are produced from them. We propose a genetic algorithm that explores some possible sets of alloys produced and uses a Lagrangian heuristic to determine the items to be produced. Also, we propose one approach to the same problem that uses the knapsack problem to determine the items to be produced. Good results were obtained by the methods proposed
42

Análise comparativa dos algoritmos EM e SIMEX nos modelos lineares mistos aplicados ao análise de regressão com erros nas variáveis.

Zavala Zavala, Arturo Alejandro 16 February 2001 (has links)
O objetivo deste trabalho é apresentar a eficiência dos estimadores quando são usados os algoritmos SIMEX e EM nos modelos de regressão lineares mistos com erros nas variáveis, numa primeira etapa apresentamos o análise do algoritmo SIMEX num modelo de regressão simples com a finalidade de ver seus vantagens, numa segunda etapa apresentamos o modelos de regressão linear misto sem erros nas variáveis com a finalidade de observar seus estimadores, numa terceira etapa consideramos os algoritmos SIMEX e EM num modelo de regressão linear misto com erros nas variáveis, observando os estimadores obtidos e comparando-los com aqueles obtidos no modelo de regressão linear misto sem erros nas variáveis, com a finalidade de ver se os estimadores obtidos com os dois algoritmos são razoáveis, fazendo também uma comparação entre os estimadores obtidos por ambos algoritmos. Os programas foram feitos no pacote OX para a obtenção das estimativas dos algoritmos propostos.
43

? o algoritmo, est?pido : como os softwares provocam altera??es no conceito de newsmaking

Gomes J?nior, Paulo Pinheiro 16 August 2017 (has links)
Submitted by PPG Comunica??o Social (famecos-pg@pucrs.br) on 2017-12-18T10:09:22Z No. of bitstreams: 1 PAULO_PINHEIRO_GOMES_JR_TES.pdf: 1838646 bytes, checksum: a2a8523e73ef305588015b1b744dfbdc (MD5) / Approved for entry into archive by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-12-19T19:33:20Z (GMT) No. of bitstreams: 1 PAULO_PINHEIRO_GOMES_JR_TES.pdf: 1838646 bytes, checksum: a2a8523e73ef305588015b1b744dfbdc (MD5) / Made available in DSpace on 2017-12-19T19:56:30Z (GMT). No. of bitstreams: 1 PAULO_PINHEIRO_GOMES_JR_TES.pdf: 1838646 bytes, checksum: a2a8523e73ef305588015b1b744dfbdc (MD5) Previous issue date: 2017-08-16 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / The thesis analyzes the emergence of a new category of newsmaking caused by the influence of the Facebook?s algorithm. The amount of interactions carried out by the internet affects the list of incoming news. To understand the performance of this algorithm on the news it was conducted an interview with editors of Zero Hora?s page in the social network. It turned out then that there is no guarantee that the users actually see the whole content produced by the newspaper. The editors estimate that approximately only 5 % of the page followers will end up being aware of the posts that have been published by Zero Hora. In research conducted with the creation of a Facebook user the thesis found that there is a difference between news-values and algorithm values. / A tese analisa o surgimento de uma nova categoria de newsmaking provocada pela a??o do algoritmo do Facebook. A quantidade de intera??es realizadas pelo internauta afeta a lista de not?cias recebidas. Para entender a a??o deste algoritmo sobre as not?cias foram entrevistados os editores da p?gina de Zero Hora na rede social. Descobriu-se, ent?o, que n?o h? a garantia de que o usu?rio veja todo o conte?do produzido pelo jornal. Os editores estimam que apenas 5% dos curtidores da p?gina v?o acabar enxergando os posts que foram publicados por Zero Hora. Em pesquisa realizada com a cria??o de um usu?rio do Facebook a tese descobriu que existe diferen?a entre os valores-not?cia e os valores do algoritmo.
44

Modelagem matemática do tempo de vida de baterias de lítio íon polímero utilizando algoritmos genéticos

Brondani, Marcia de Fatima 06 May 2015 (has links)
O uso de dispositivos móveis teve um amplo crescimento na última década, aliado a este crescimento, houve uma diversi cação dos serviços utilizados. Estas características implicam um aumento no consumo de energia e da expectativa do tempo de uso. Neste contexto, o estudo de métodos que possibilitem aumentar ou mesmo prever o tempo de vida de uma bateria passam a ter signi cativa importância. Uma maneira de predizer o tempo de vida de baterias é através do uso de modelos matemáticos que simulam a descarga de energia nas mesmas. Este trabalho apresenta a modelagem matemática da predição do tempo de vida de baterias de Lítio Íon Polímero, através do modelo elétrico Battery, fazendo uso de um amplo conjunto de dados de descarga de baterias obtidos a partir da utilização de uma plataforma de testes. O modelo Battery necessita a estimação de um conjunto de parâmetros que são geralmente estimados através da análise visual de alguns pontos nas curvas características de descarga das baterias. Neste trabalho é proposto um Algoritmo Genético para sistematizar e otimizar a estimação destes parâmetros. Os resultados obtidos demonstram a superioridade do Algoritmo Genético na estimação dos parâmetros, já que este obteve uma taxa média de erro consideravelmente inferior às taxas de erro encontradas com os métodos de análise de curvas de descarga, demonstrando tanto a e cácia do modelo elétrico Battery, quanto a e ciência do Algoritmo Genético em estimar seus parâmetros. / 114 f.
45

Estudo e aplicação do algoritmo FDK para a reconstrução de imagens tomográficas multi-cortes / Study and application of the FDK algorithm for multi-slice tomographic images reconstruction

Araujo, Ericky Caldas de Almeida 29 October 2008 (has links)
O presente projeto consistiu no estudo e aplicação do algoritmo FDK (Feldkamp-Davis-Kress) para a reconstrução de imagens tomográficas utilizando a geometria de feixe cônico, resultando na implementação de um sistema adaptado de tomografia computadorizada multicortes (TCMC). Para a aquisição das projeções, utilizou-se uma plataforma giratória com goniômetro acoplado, um equipamento de raios X e um detector digital, tipo CCD. Para processar a reconstrução das imagens, foi utilizado um PC, no qual foi implementado o algoritmo FDK. Inicialmente foi aplicado o algoritmo FDK original, no qual se assume o caso físico ideal no processo de medições. Em seguida, foram incorporadas ao algoritmo, algumas correções de artefatos relacionados ao processo de medição das projeções. Para testar o funcionamento do algoritmo implementado, foram feitas reconstruções a partir de projeções simuladas computacionalmente. Foram montados e testados três sistemas de aquisição de projeções, nos quais foram usados diferentes equipamentos de raios X, detectores, metodologias e técnicas radiográficas, a fim de garantir que fossem coletados os melhores conjuntos possíveis de projeções. Realizou-se a calibração do sistema de TCMC implementado. Para isso, utilizou-se um objeto com uma distribuição de coeficientes de atenuação linear conhecida, que foi projetado e fabricado especificamente para isto. Por fim, o sistema de TCMC implementado foi utilizado na reconstrução tomográfica de um objeto não homogêneo, cuja distribuição volumétrica do coeficiente de atenuação linear é desconhecida. As imagens reconstruídas foram analisadas a fim de avaliar o desempenho do sistema de TCMC implementado. / This work consisted on the study and application of the FDK (Feldkamp-Davis-Kress) algorithm for tomographic image reconstruction using cone-beam geometry, resulting on the implementation of an adapted multi-slice computed tomography (MSCT) system. For the acquisition of the projections, a rotating platform coupled to a goniometer, an x-ray equipment and a CCD type digital detector were used. The FDK algorithm was implemented on a PC which was used for the reconstruction process. Initially, the original FDK algorithm was applied considering only the ideal physical conditions in the measurement process. Then some artifacts corrections related to the projections measurement process were incorporated. Computational simulations were performed to test the functioning of the implemented algorithm. Three projections acquisition systems, which used different x-ray equipments, detectors, methodologies and radiographic techniques, were assembled and tested in order to ensure that the best possible set of data was collected. The implemented MSCT system was calibrated. A specially designed and manufactured object with a known linear attenuation coefficient distribution was used for this purpose. Finally, the implemented MSCT system was used for multi-slice tomographic reconstruction of an inhomogeneous object, whose attenuation coefficient distribution was unknown. The reconstructed images were analyzed to assess the performance of the TCMC system that was implemented.
46

Desenvolvimento de um algoritmo paralelo de fase I para o problema de multifluxo: uma aplicação ao problema de roteamento de dados / Not available

Moreira, Luciano Nascimento 16 June 2003 (has links)
O problema de roteamento de dados em rede de computadores consiste em minimizar o tempo médio de atraso na transmissão de mensagens, escolhendo para elas um caminho ótimo, através dos arcos da rede. Em seu trabalho, Luvezute propôs um algoritmo primai de relaxamento para otimizar o problema de roteamento de dados. O algoritmo proposto por Luvezute resolve iterativamente o problema de multifluxo, decompondo-o da forma mais independente possível, em subproblemas de simples fluxo, sendo um subproblema para cada mensagem. Esta independência entre os cálculos permite que a resolução dos subproblemas seja simultânea, admitindo-se assim uma implementação em paralelo. Nesta dissertação apresentamos um algoritmo paralelo, do tipo Fase I para encontrar uma solução inicial factível para o problema de multifluxo. Este algoritmo permite resolver de maneira mais rápida os problemas de grande porte que é o nosso objetivo inicial. O algoritmo de Fase I aqui desenvolvido pode ser utilizado para problemas de Multifluxo em geral, isto é, problemas com função objetivo linear ou não linear. O algoritmo desenvolvido foi escrito em linguagem C e implementado numa rede de microcomputadores, usando o sistema operacional UNIX. Além dos testes computacionais, apresentamos uma análise da eficiência do algoritmo e do seu speedup. / In this thesis a parallel algorithm is presented to find a feasible initial solution for the routing problem. The optimal routing in packet-switched networks consists of minimizing the medium delay time in the transmission of messages. This problem belongs to the class of multicommodity network flow problems. The developed algorithm can be used to solve multicommodity network flow problems with linear or nonlinear objective function. It solves, in fast way, problems of great size. The algorithm was written in C language and implemented in the computers network. The operating system UNIX was used. They are presented experimental results, and an analysis of the efficiency and the speedup.
47

Criptografia com caos / Cryptography with chaos

Formolo, Daniel 25 March 2009 (has links)
Made available in DSpace on 2015-03-05T14:01:20Z (GMT). No. of bitstreams: 0 Previous issue date: 25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O avanço tecnológico e o valor que as informações representam no mundo moderno conduzem a uma constante busca por cifradores mais velozes, seguros e adaptáveis à diversos ambientes. Enquanto a segurança se baseia no comportamento complicado dos algoritmos, a eficiência se baseia na simplicidade das operações matemáticas envolvidas. Os sistemas caóticos têm a propriedade de exibir comportamento complicado mesmo sendo definido de modo determinístico por funções algebricamente simples. Portanto, a proposta de algoritmos de cifração baseados em sistemas caóticos é um tema de ativa pesquisa. Este trabalho estuda a eficiência e a segurança de um dos mais completos cifradores caóticos. Com base nesse estudo, melhorias são propostas tanto quanto à sua eficiência quanto à sua segurança. Com isto, chega-se a uma versão otimizada, a qual é referida ao longo deste trabalho como cifrador caótico (CC). O cifrador resultante não possui as fraquezas dos algoritmos caóticos propostos até então. Além disso, comparações exper / The technological advance and value of information in the preset days lead to a constant search for more efficient, secure and adaptable ciphers. While de security is based on the complicated behavior of the algorithms, its efficiency is based on the simplicity of the mathematical operations involved. The chaotic systems are characterized by the property of showing complex behavior even being defined by simple algebraic mathematical expressions. Therefore, the proposal of ciphers based on chaotic dynamics has became an active research field. This work deals with the efficiency and security of one of the most complete chaotic cipher proposed so far. Based on this study, improvements are proposed for both efficiency and security. The final result is an optimized version, which is denominated chaotic cipher (CC) towards this work. This cipher does not suffer from the weaknesses of the chaotic ciphers proposed so far. Moreover, experimental comparisons shows that the CC performance is comparable with those of s
48

Como chegamos até aqui: a migração da memória e os instrumentos de controle

Silva, Silvio Ferreira da 26 October 2016 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2016-12-02T12:38:40Z No. of bitstreams: 1 Silvio Ferreira da Silva.pdf: 1559404 bytes, checksum: 53cabe18964143039fcfc890e6dd0199 (MD5) / Made available in DSpace on 2016-12-02T12:38:40Z (GMT). No. of bitstreams: 1 Silvio Ferreira da Silva.pdf: 1559404 bytes, checksum: 53cabe18964143039fcfc890e6dd0199 (MD5) Previous issue date: 2016-10-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This paper provides an overview of the relationship between man and machine, specifically the computer. It is a reflexive work, addressing the expanded world of culture in an exploratory approach on memory and the evolution of its artificial supports. It begins narrating the historical evolution to the present time, focusing in the inventor geniuses, and its works., whose improvements resulted in achievements in technology. The text is subsidized by considerations regarding collection and data quality, design and content management algorithms and artificial intelligence. This study highlights the ubiquity of this intelligence in everyday society, as well as the submission of the society to its designs. It analyzes the impact that technology has on citizens from the perspective of contemporary thinkers, especially Vilém Flusser and Kurt Kurzweil, and their visions of the future. It also approaches speech surveillance, ethics, error and fraud. This paper exposes the risks to which the society is subject to undergoing processes whose managers are unaware of, with practical examples of damage that occurred in the recent past. At last, the discussion proposes the challenge of creating a code of ethics for the developers of software, because the dilemmas, social and legal, that emerge every now and then, for which there is not yet clarity of approach / Esta dissertação traça um panorama sobre o relacionamento entre o homem e a máquina, especificamente o computador. Trata-se de um trabalho reflexivo, abordando o mundo expandido da cultura numa abordagem exploratória sobre a memória e a evolução de seus suportes artificiais. Inicia-se narrando a evolução histórica até os tempos atuais, apresentando os gênios inventores e seus engenhos., engenhos esses cujos aprimoramentos resultaram nas tecnologias do presente. O texto é subsidiado por considerações a respeito de coleta e qualidade dos dados, concepção e gestão de conteúdo dos algoritmos, inteligência artificial e destaca a onipresença desta inteligência no dia a dia da sociedade, bem como a submissão dessa sociedade aos seus desígnios. Analisa o impacto que a tecnologia exerce sobre o cidadão sob a ótica de pensadores contemporâneos com destaque a Vilém Flusser e Kurt Kurzweil e suas visões de futuro. Fala de vigilância, ética, erro e fraude. Expõe os riscos a que a sociedade está sujeita ao se submeter a processos cujos gestores desconhece, com exemplos práticos de danos ocorridos em passado recente. Finaliza propondo o desafio de se criar um código de ética para os desenvolvedores dos softwares, em razão dos dilemas, sociais e legais, que emergem a cada momento e para os quais ainda não existe clareza de abordagem
49

Solução de problemas com restrição via técnicas de penalização acopladas ao Algoritmo de Competição Imperialista /

Santos, Daniel Pereira dos January 2019 (has links)
Orientador: Fábio Roberto Chavarette / Resumo: O trabalho do profissional que atua nas diferentes áreas da engenharia resume-se na incessante busca pelo aumento da produtividade e rendimento, e pela redução do impacto das restrições como, consumo, custo, peso sobre os sistemas. Contudo, a solução de problemas de engenharia na sua forma analítica e exata só é possível para sistemas muito simples, desta forma, sistemas mais complexos, que geralmente possuem várias soluções, faz-se necessário optar por procedimentos de aproximação numérica com precisão aceitável e métodos de otimização para determinar a melhor solução dentre as existentes. Nos últimos anos, as técnicas de otimização têm estudado os comportamentos de fenômenos da natureza, visando a concepção de heurísticas de otimização, no qual, são utilizados para a solução de problemas de engenharia com restrições. Neste estudo é realizada a aplicação de diferentes técnicas de penalização, para tratamento de restrições, acoplados a um Algoritmo de Competição Imperialista (ICA), uma meta-heurístico que se baseia no imperialismo colonial adotado pelos países no século XVI com o objetivo de estender seus limites territoriais através da conquista de outros territórios denominados colônias. Diversos experimentos computacionais são realizados visando avaliar o desempenho do algoritmo considerando vários problemas testes encontrados na literatura. / Abstract: The work of the professional who works in the different areas of engineering boils down to the incessant search for increased productivity and efficiency, and for reducing the impact of constraints such as consumption, cost, and weight on systems. However, the solution of engineering problems in its analytical and exact form is only possible for very simple systems, in this way, more complex systems, which usually have several solutions, it becomes necessary to opt for numerical approximation procedures with acceptable precision and methods to determine the best solution among the existing ones. In recent years, optimization techniques have studied the behavior of natural phenomena, aiming at the design of optimization heuristics, in which they are used to solve constrained engineering problems. In this study the application of different penalization techniques for the treatment of constraints is coupled with an Imperialist Competitive Algorithm (ICA), a metaheuristic that is based on colonial imperialism adopted by the countries in the 16th century with the objective of extending its limits through the conquest of other territories called colonies. Several computational experiments are performed aiming to evaluate the performance of the algorithm considering several test problems found in the literature. / Mestre
50

Escalonamento de workflow com anotações de tarefas sensitivas para otimização de segurança e custo em nuvens / Workflow scheduling with sensitive task annotations for security and cost optimization in clouds

Shishido, Henrique Yoshikazu 11 December 2018 (has links)
A evolução dos computadores tem possibilitado a realização de experimentos in-silico, incluindo aplicações baseadas no modelo de workflow. A execução de workflows é uma atividade que pode ser computacional dispendiosa, onde grades e nuvens são adotadas para a sua execução. Inserido nesse contexto, os algoritmos de escalonamento de workflow permitem atender diferentes critérios de execução como o tempo e o custo monetário. Contudo, a segurança é um critério que tem recebido atenção, pois diversas organizações hesitam em implantar suas aplicações em nuvens devido às ameaças presentes em um ambiente aberto e promíscuo como a Internet. Os algoritmos de escalonamento direcionados à segurança consideram dois cenários: (a) nuvens híbridas: mantêm os tarefas que manipulam dados sensitivos/confidenciais na nuvem privada e exporta as demais tarefas para nuvens públicas para satisfazer alguma restrição (ex.: tempo), e; (b) nuvens públicas: considera o uso de serviços de segurança disponíveis em instâncias de máquinas virtuais para proteger tarefas que lidam com dados sensitivos/confidenciais. No entanto, os algoritmos de escalonamento que consideram o uso de serviços de segurança selecionam as tarefas de forma aleatória sem considerar a semântica dos dados. Esse tipo de abordagem pode acabar atribuindo proteção a tarefas não-sensitivas e desperdiçando tempo e recursos, e deixando dados sensitivos sem a proteção necessária. Frente a essas limitações, propõe-se nesta tese duas abordagens de escalonamento de workflow: o Workflow Scheduling - Task Selection Policies (WS-TSP) e a Sensitive Annotation for Security Tasks (SAST). O WS-TSP é uma abordagem de escalonamento que usa um conjunto de políticas para a proteção de tarefas. O SAST é outra abordagem que permite utilizar o conhecimento prévio do Desenvolvedor de Aplicação para identificar quais tarefas devem receber proteção. O WS-TSP e a SAST consideram a aplicação de serviços de segurança como autenticação, verificação de integridade e criptografia para proteger as tarefas sensitivas do workflow. A avaliação dessas abordagens foi realizada através de uma extensão do simulador WorkflowSim que incorpora a sobrecarga dos serviços de segurança no tempo, do custo e do risco de execução do workflow. As duas abordagens apresentaram menor risco de segurança do que as abordagens da literatura, sob um custo e makespan razoáveis. / The evolution of computers has enabled in-silico experiments to take place, including applications based on the workflow model. The execution of workflows is an activity that can be computationally expensive, where grids and clouds are adopted for its execution. In this context, the workflow scheduling algorithms allow meeting different execution criteria such as time and monetary cost. However, security is a criterion that has received attention because several organizations hesitate to deploy their applications in clouds due to the threats present in an open and promiscuous environment like the Internet. Security-oriented scheduling algorithms consider two scenarios: (a) hybrid clouds: holds tasks that manipulate sensitive data in the private cloud and export the other tasks to public clouds to satisfy some constraints (eg, time); (b) public clouds: considers the use of security services available in instances of virtual machines to protect tasks that deal with sensitive data. However, scheduling algorithms that consider the use of security services randomly select tasks without considering data semantics. This type of approach may end up assigning protection to non-sensitive tasks and wasting time and resources and leaving sensitive data without the necessary protection. In view of these limitations, two workflow scheduling approaches are proposed: Workflow Scheduling (WS-TSP) and Sensitive Annotation for Security Tasks (SAST). WS-TSP is a scheduling approach that uses a set of policies for task protection. SAST is another approach that allows using the Application Developers prior knowledge to identify which tasks should be protected. WS-TSP and SAST consider implementing security services such as authentication, integrity verification, and encryption to protect sensitive tasks. The evaluation of these approaches was carried out through an extension of the simulatorWorkflowSim that incorporates the overhead of security services in the execution time, the cost and the risk of execution The two approaches presented a lower security risk than the literature approaches, at a reasonable cost and makespan.

Page generated in 0.0451 seconds