• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 25
  • 2
  • Tagged with
  • 143
  • 58
  • 39
  • 39
  • 35
  • 31
  • 30
  • 24
  • 21
  • 18
  • 18
  • 18
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Um Algoritmo para Distribuição Balanceada de Carga Elétrica e Redução de Consumo de Energia em Centros de Dados e Nuvens

SILVA JÚNIOR, João Ferreira da 28 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-11T13:53:35Z No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:59:47Z (GMT) No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:59:47Z (GMT). No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-28 / Os avanços tecnológicos acontecem por intermédio de pesquisas e estudos, inclusive com a criação de novos paradigmas, tais como a computação em nuvem, comércio eletrônico e redes sociais. Em alguns casos, grandes centros de dados são utilizados para suportar esses paradigmas. Com isso, estes grandes centros de dados tornaram-se elementos críticos no desenvolvimento de tarefas diárias, o que sugere que, a cada dia, utilizamos mais seus recursos, aumentando a demanda e, consequentemente, o consumo elétrico. Hodiernamente, o consumo de energia é uma questão de interesse comum. Pesquisas demonstram que, como consequência da constante evolução e expansão da tecnologia da informação, os centros de dados e as nuvens (cloud computing) são grandes consumidores de energia elétrica. Com esse alto consumo, destacam-se as questões de sustentabilidade e custo. Neste contexto, a presente dissertação propõe um algoritmo de distribuição de carga elétrica (ADCE) para otimizar a distribuição de energia em infraestruturas elétricas de centros de dados e nuvens privadas. O ADCE é suportado pelo ambiente denominado Mercury, que é capaz de realizar uma avaliação integrada das métricas de confiabilidade, custo e sustentabilidade. O ADCE otimiza, mais especificamente, a distribuição da corrente elétrica na modelagem de fluxo de energia (EFM - Energy Flow Model). A modelagem em EFM é responsável por estimar as questões de sustentabilidade e de custo das infraestruturas elétricas de centros de dados e nuvens, respeitando as restrições de capacidade de energia que cada dispositivo é capaz de fornecer (considerando o sistema elétrico) ou extrair (considerando o sistema de refrigeração). Ademais, dois estudos de caso são apresentados, onde são analisadas sete infraestruturas elétricas de um centro de dados e seis de uma nuvem privada. Para os centros de dados foi alcançada uma redução no consumo de energia de até 15,5% e a métrica utilizada para avaliar a redução do impacto ambiental (exergia) foi reduzida em mais da metade de seu valor. No que concerne ao estudo das nuvens privadas a redução do consumo de energia foi de até 9,7% e da exergia de para quase um terço de seu valor inicial. Os resultados obtidos foram significativos, uma vez que as preocupações ambientais ganham destaque com o passar dos anos e os recursos financeiros das empresas são finitos e muito valiosos.
122

Assessment to support the planning of sustainable data centers with high availability

CALLOU, Gustavo Rau de Almeida 12 November 2013 (has links)
The advent of services such as cloud computing, social networks and e-commerce has led to an increased demand for computer resources from data centers. Prominent issues for data center designers are sustainability, cost, and dependability, which are significantly affected by the redundant architectures required to support these services. Within this context, models are important tools for designers when attempting to quantify these issues before implementing the final architecture. This thesis proposes a set of models for the integrated quantification of the sustainability impact, cost, and dependability of data center power and cooling infrastructures. This is achieved with the support of an evaluation environment which is composed of ASTRO, Mercury and Optimization tools. The approach taken to perform the system dependability evaluation employs a hybrid modeling strategy which recognizes the advantages of both stochastic Petri nets and reliability block diagrams. Besides that, a model is proposed to verify that the energy flow does not exceed the maximum power capacity that each component can provide (considering electrical devices) or extract (assuming cooling equipment). Additionally, an optimization method is proposed for improving the results obtained by Reliability Block Diagrams, Stochastic Petri nets and Energy Flow models through the automatic selection of the appropriate devices from a list of candidate components. This list corresponds to a set of alternative components that may compose the data center architecture. Several case studies are presented that analyze the environmental impact and dependability metrics as well as the operational energy cost of real-world data center power and cooling architectures. / Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T18:54:10Z No. of bitstreams: 2 Tese Gustavo Callou.pdf: 4626749 bytes, checksum: 336a34ffc39f6ac623fa1144de2a66bf (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:54:10Z (GMT). No. of bitstreams: 2 Tese Gustavo Callou.pdf: 4626749 bytes, checksum: 336a34ffc39f6ac623fa1144de2a66bf (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-11-12 / O surgimento de servi¸cos como computa¸c˜ao nas nuvens, redes sociais e com´ercio eletrˆonico tem aumentado a demanda por recursos computacionais dos data centers. Preocupa¸c˜oes decorrentes para os projetistas de data center s˜ao sustentabilidade, custo, e dependabilidade, os quais s˜ao significativamente afetados pelas arquiteturas redundantes requeridas para suportar tais servi¸cos. Nesse contexto, modelos s˜ao ferramentas importantes para projetistas quanto a tentativa de quantificar esses problemas antes mesmo de implementar a arquitetura final. Nessa tese, um conjunto de modelos ´e proposto para a quantifica¸c˜ao integrada do impacto na sustentabilidade, custo e dependabilidade das infraestruturas de refrigeramento e potˆencia de data centers. Isso ´e obtido com o suporte do ambiente de avalia¸c˜ao que ´e composto pelas ferramentas ASTRO, Mercury e o m´odulo de otimiza¸c˜ao. A avalia¸c˜ao de dependabilidade faz uso de uma estrat´egia de modelagem h´ıbrida que usa as vantagens tanto das redes de Petri estoc´asticas como dos diagramas de blocos de confiabilidade. Al´em disso, um modelo ´e proposto para realizar a verifica¸c˜ao se fluxo de energia n˜ao excede a capacidade m´axima de potˆencia que cada equipamento pode prover (considerando dispositivos el´etricos) ou extrair (assumindo equipamentos de refrigera¸c˜ao). Adicionalmente, um m´etodo de otimiza¸c˜ao ´e proposto para melhorar os resultados obtidos atrav´es dos diagramas de blocos de confiabilidade, das redes de Petri estoc´asticas e do modelo de fluxo de energia pela sele¸c˜ao autom´atica dos dispositivos apropriados a partir da lista de componentes candidatos. Essa lista corrresponde a um conjunto de componentes que podem ser utilizados para compor a arquitetura de data center. V´arios estudos de casos s˜ao apresentados para analisar o impacto ambiental, a dependabilidade e o custo operacional de energia el´etrica de arquiteturas reais de potˆencia e refrigera¸c˜ao de data centers.
123

Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP

LINS, Amanda Pimentel e Silva January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:05Z (GMT). No. of bitstreams: 2 arquivo7154_1.pdf: 1370997 bytes, checksum: 1580b7b5979343826e4d0a3b88b57dac (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Esta dissertação propõe modificações na metodologia yamazaki para a otimização simultânea de arquiteturas e pesos de redes Multilayer Perceptron (MLP). O objetivo principal é propô-las em conjunto com as respectivas validações, visando tornar mais eficiente o processo de otimização. A base para o algoritmo híbrido de otimização são os algoritmos simulated annealing, tabu search e a metodologia yamazaki. As modificações são realizadas nos critérios de implementação tais como mecanismo de geração de vizinhança, esquema de esfriamento e função de custo. Um dos pontos principais desta dissertação é a criação de um novo mecanismo de geração de vizinhança visando aumentar o espaço de busca. O esquema de esfriamento é de grande importância na convergência do algoritmo. O custo de cada solução é medido como média ponderada entre o erro de classificação para o conjunto de treinamento e a porcentagem de conexões utilizadas pela rede. As bases de dados utilizadas nos experimentos são: classificação de odores provenientes de três safras de um mesmo vinho e classificação de gases. A fundamentação estatística para as conclusões observadas através dos resultados obtidos é realizada usando teste de hipóteses. Foi realizado um estudo do tempo de execução separando as fases de otimização global da fase de refinamento local. Concluiu-se que com o novo mecanismo de geração de vizinhança fez desnecessário o uso do backpropagation obtendo assim um alto ganho em tempo de execução. O algoritmo híbrido de otimização apresentou, para ambas as bases de dados, o menor valor da média do erro de classificação do conjunto de teste e o menor valor da quantidade de conexões. Além disso, o tempo de execução foi reduzido em média 46.72%
124

HdSC: modelagem de alto nível para simulação nativa de plataformas com suporte ao desenvolvimento de HdS

Prado, Bruno Otávio Piedade 08 1900 (has links)
Com os grandes avanços recentes dos sistemas computacionais, houve a possibilidade de ascensão de dispositivos inovadores, como os modernos telefones celulares e tablets com telas sensíveis ao toque. Para gerenciar adequadamente estas diversas interfaces é necessário utilizar o software dependente do hardware (HdS), que é responsável pelo controle e acesso a estes dispositivos. Além deste complexo arranjo de componentes, para atender a crescente demanda por mais funcionalidades integradas, o paradigma de multiprocessamento vem sendo adotado para aumentar o desempenho das plataformas. Devido à lacuna de produtividade de sistemas, tanto a indústria como a academia têm pesquisado processos mais eficientes para construir e simular sistemas cada vez mais complexos. A premissa dos trabalhos do estado da arte está em trabalhar com modelos com alto nível de abstração e de precisão que permitam ao projetista avaliar rapidamente o sistema, sem ter que depender de lentos e complexos modelos baseados em ISS. Neste trabalho é definido um conjunto de construtores para modelagem de plataformas baseadas em processadores, com suporte para desenvolvimento de HdS e reusabilidade dos componentes, técnicas para estimativa estática de tempo simulado em ambiente nativo de simulação e suporte para plataformas multiprocessadas. Foram realizados experimentos com aplica- ções de entrada e saída intensiva, computação intensiva e multiprocessada, com ganho médio de desempenho da ordem de 1.000 vezes e precisão de estimativas com erro médio inferior a 3%, em comparação com uma plataforma de referência baseada em ISS._________________________________________________________________________________________ ABSTRACT: The amazing advances of computer systems technology enabled the rise of innovative devices, such as modern touch sensitive cell phones and tablets. To properly manage these various interfaces, it is required the use of the Hardwaredependent Software (HdS) that is responsible for these devices control and access. Besides this complex arrangement of components, to meet the growing demand for more integrated features, the multiprocessing paradigm has been adopted to increase the platforms performance. Due to the system design gap, both industry and academia have been researching for more efficient processes to build and simulate systems with this increasingly complexity. The premise of the state of art works is the development of high level of abstraction and precise models to enable the designer to quickly evaluate the system, without having to rely on slow and complex models based on instruction set simulators (ISS). This work defined a set of constructors for processor-based platforms modeling, supporting HdS development and components reusability, techniques for static simulation timing estimation in native environment and support for multiprocessor platforms. Experiments were carried out with input and output intensive, compute intensive and multiprocessed applications leading to an average performance speed up of about 1,000 times and average timing estimation accuracy of less than 3%, when compared with a reference platform based on ISS.
125

VCom : uma abordagem para modelagem de ambientes colaborativos

Rangel, Vinícius Gazzoli 17 January 2011 (has links)
Made available in DSpace on 2016-12-23T14:33:45Z (GMT). No. of bitstreams: 1 Dissertacao Vinicius Gazzoli Rangel.pdf: 3224178 bytes, checksum: d9fb1cdcd1e8bc9985da5d5f609b340e (MD5) Previous issue date: 2011-01-17 / First generation of web applications was responsible for the popularization of the network and the emergence of the first groups of Internet users. At that time, the web content was little interactive and web sites were limited in the aspects of configuration options and interface of the system. The Users were mere spectators of the actions that took place in the pages browsed, since they could not change its contents. Any additional functionality depended on the work of programming teams. With the advent of Web 2.0, the focus became the collective construction of knowledge. The essence is to allow users to become more active, not only through participation in interactive content generation, but also as the creation of virtual communities. Since then, Internet users are increasingly getting interested in the construction of environments that take advantage of the interactivity, of the authorship and of the semantic retrieval promoted by web, and various technological aspects. From the perspective of computing in education, efforts are noticeable in the production of educational software and virtual environments to support learning, especially with support for authoring tools and interaction such as chat, wiki, blog and forum. The educational activities supported by digital resources has highlighted the lack of flexibility in environments whose modeling is focused on tools, compromising the support for different activities proposed. This work proposes a approach for modeling of collaborative environments, through the design of Communication Vehicles. With these vehicles, it should be possible, to individuals or groups, organize and describe workspaces on the web by defining a set of structural properties. The validation of this proposal is made through a prototype of an editor Communication Vehicles, which provides a range of facilities to design vehicles without requiring the use of textual programming languages / A primeira geração de aplicações para web foi responsável pela popularização da rede e pelo surgimento dos primeiros grupos de internautas. Nesta época, o conteúdo web era pouco interativo e os sites eram limitados quanto aos aspectos de opções de configuração e interface do sistema. Os usuários eram meros espectadores das ações que aconteciam nas páginas que navegavam, já que não podiam alterar seu conteúdo. Qualquer funcionalidade adicional dependia do trabalho das equipes de programação. Com o advento da Web 2.0, o foco se tornou a construção coletiva do conhecimento. A essência é permitir que os usuários se tornem mais ativos, através não só da participação interativa na geração de conteúdo, como também da criação de comunidades virtuais. Desde então, os internautas vêm se interessando cada vez mais pela construção de ambientes que aproveitem a interatividade, a autoria e a recuperação semântica promovida pela web, além de vários aspectos tecnológicos. Do ponto de vista da informática na educação, notam-se iniciativas na produção de softwares educacionais e ambientes virtuais de apoio à aprendizagem, principalmente com suporte a ferramentas de autoria e interação, como chat, wiki, blog e fórum. As atividades pedagógicas apoiadas por recursos digitais têm evidenciado a carência de flexibilidade em ambientes cuja modelagem é centrada em ferramentas, comprometendo o suporte a diferentes atividades propostas. Este trabalho propõe uma abordagem para modelagem de ambientes colaborativos, por meio da concepção de Veículos de Comunicação. Com esses veículos, deverá ser possível, a indivíduos ou grupos, organizarem e descreverem espaços de trabalho na web pela definição de um conjunto de propriedades estruturais. A validação desta proposta faz-se por meio de um protótipo de um editor de Veículos de Comunicação, que disponibiliza um conjunto de facilidades para projetar veículos sem a necessidade de uso de linguagens de programação textuais
126

MDAPSP - Uma arquitetura modular distribuída para auxílio à predição de estruturas de proteínas / MDAPSP - A modular distributed architecture to support the protein structure prediction

Edvard Martins de Oliveira 09 May 2018 (has links)
A predição de estruturas de proteínas é um campo de pesquisa que busca simular o enovelamento de cadeias de aminoácidos de forma a descobrir as funções das proteínas na natureza, um processo altamente dispendioso por meio de métodos in vivo. Inserida no contexto da Bioinformática, é uma das tarefas mais computacionalmente custosas e desafiadoras da atualidade. Devido à complexidade, muitas pesquisas se utilizam de gateways científicos para disponibilização de ferramentas de execução e análise desses experimentos, aliado ao uso de workflows científicos para organização de tarefas e disponibilização de informações. No entanto, esses gateways podem enfrentar gargalos de desempenho e falhas estruturais, produzindo resultados de baixa qualidade. Para atuar nesse contexto multifacetado e oferecer alternativas para algumas das limitações, esta tese propõe uma arquitetura modular baseada nos conceitos de Service Oriented Architecture (SOA) para oferta de recursos computacionais em gateways científicos, com foco nos experimentos de Protein Structure Prediction (PSP). A Arquitetura Modular Distribuída para auxílio à Predição de Estruturas de Proteínas (MDAPSP) é descrita conceitualmente e validada em um modelo de simulação computacional, no qual se pode identificar suas capacidades, detalhar o funcionamento de seus módulos e destacar seu potencial. A avaliação experimental demonstra a qualidade dos algoritmos propostos, ampliando a capacidade de atendimento de um gateway científico, reduzindo o tempo necessário para experimentos de predição e lançando as bases para o protótipo de uma arquitetura funcional. Os módulos desenvolvidos alcançam boa capacidade de otimização de experimentos de PSP em ambientes distribuídos e constituem uma novidade no modelo de provisionamento de recursos para gateways científicos. / PSP is a scientific process that simulates the folding of amino acid chains to discover the function of a protein in live organisms, considering that its an expensive process to be done by in vivo methods. PSP is a computationally demanding and challenging effort in the Bioinformatics stateof- the-art. Many works use scientific gateways to provide tools for execution and analysis of such experiments, along with scientific workflows to organize tasks and to share information. However, these gateways can suffer performance bottlenecks and structural failures, producing low quality results. With the goal of offering alternatives to some of the limitations and considering the complexity of the topics involved, this thesis proposes a modular architecture based on SOA concepts to provide computing resources to scientific gateways, with focus on PSP experiments. The Modular Distributed Architecture to support Protein Structure Prediction (MDAPSP) is described conceptually and validated in a computer simulation model that explain its capabilities, detail the modules operation and highlight its potential. The performance evaluation presents the quality of the proposed algorithms, a reduction of response time in PSP experiments and prove the benefits of the novel algorithms, establishing the basis for a prototype. The new modules can optmize the PSP experiments in distributed environments and are a innovation in the resource provisioning model for scientific gateways.
127

[en] A CLOUD BASED REAL-TIME COLLABORATIVE FILTERING ARCHITECTURE FOR SHORT-LIVED VIDEO RECOMMENDATIONS / [pt] UMA ARQUITETURA DE FILTRAGEM COLABORATIVA EM TEMPO REAL BASEADA EM NUVEM PARA RECOMENDAÇÃO DE VÍDEOS EFÊMEROS

16 January 2017 (has links)
[pt] Esta tese propõe que a combinação de técnicas de filtragem colaborativa, em particular para recomendações item-item, com novas tecnologias de computação em nuvem, pode melhorar drasticamente a eficiência dos sistemas de recomendação, particularmente em situações em que o número de itens e usuários supera milhões de objetos. Nela apresentamos uma arquitetura de recomendação item-item em tempo real, que racionaliza o uso dos recursos computacionais através da computação sob demanda. A arquitetura proposta oferece uma solução para o cálculo de similaridade entre itens em tempo real, sem ter que recorrer à simplificação do modelo de recomendação ou o uso de amostragem de dados de entrada. Esta tese também apresenta um novo modelo de feedback implícito para vídeos de curta duração, que se adapta ao comportamento dos usuários, e descreve como essa arquitetura foi usada na implementação de um sistema de recomendação de vídeo em uso pelo maior grupo de mídia da América Latina, apresentando resultados de um estudo de caso real para mostrar que é possível reduzir drasticamente o tempo de cálculo das recomendações (e os custos financeiros globais) usando o provisionamento dinâmico de recursos na nuvem. Ela discute ainda a implementação em detalhes, em particular o projeto da arquitetura baseada em nuvem. Finalmente, ela também apresenta oportunidades de pesquisa em potencial que surgem a partir desta mudança de paradigma. / [en] This dissertation argues that the combination of collaborative filtering techniques, particularly for item-item recommendations, with emergent cloud computing technology can drastically improve algorithm efficiency, particularly in situations where the number of items and users scales up to several million objects. It introduces a real-time item-item recommendation architecture, which rationalizes the use of resources by exploring on-demand computing. The proposed architecture provides a real-time solution for computing online item similarity, without having to resort to either model simplification or the use of input data sampling. This dissertation also presents a new adaptive model for implicit user feedback for short videos, and describes how this architecture was used in a large scale implementation of a video recommendation system in use by the largest media group in Latin America, presenting results from a real life case study to show that it is possible to greatly reduce recommendation times (and overall financial costs) by using dynamic resource provisioning in the Cloud. It discusses the implementation in detail, in particular the design of cloud based features. Finally, it also presents potential research opportunities that arise from this paradigm shift.
128

[pt] BUSCA DE ARQUITETURAS NEURAIS COM ALGORITMOS EVOLUTIVOS DE INSPIRAÇÃO QUÂNTICA / [en] QUANTUM-INSPIRED NEURAL ARCHITECTURE SEARCH

DANIELA DE MATTOS SZWARCMAN 13 August 2020 (has links)
[pt] As redes neurais deep são modelos poderosos e flexíveis, que ganharam destaque na comunidade científica na última década. Para muitas tarefas, elas até superam o desempenho humano. Em geral, para obter tais resultados, um especialista despende tempo significativo para projetar a arquitetura neural, com longas sessões de tentativa e erro. Com isso, há um interesse crescente em automatizar esse processo. Novos métodos baseados em técnicas como aprendizado por reforço e algoritmos evolutivos foram apresentados como abordagens para o problema da busca de arquitetura neural (NAS - Neural Architecture Search), mas muitos ainda são algoritmos de alto custo computacional. Para reduzir esse custo, pesquisadores sugeriram limitar o espaço de busca, com base em conhecimento prévio. Os algoritmos evolutivos de inspiração quântica (AEIQ) apresentam resultados promissores em relação à convergência mais rápida. A partir dessa idéia, propõe-se o Q-NAS: um AEIQ para buscar redes deep através da montagem de subestruturas. O Q-NAS também pode evoluir alguns hiperparâmetros numéricos, o que é um primeiro passo para a automação completa. Experimentos com o conjunto de dados CIFAR-10 foram realizados a fim de analisar detalhes do Q-NAS. Para muitas configurações de parâmetros, foram obtidos resultados satisfatórios. As melhores acurácias no CIFAR-10 foram de 93,85 porcento para uma rede residual e 93,70 porcento para uma rede convolucional, superando modelos elaborados por especialistas e alguns métodos de NAS. Incluindo um esquema simples de parada antecipada, os tempos de evolução nesses casos foram de 67 dias de GPU e 48 dias de GPU, respectivamente. O Q-NAS foi aplicado ao CIFAR-100, sem qualquer ajuste de parâmetro, e obteve 74,23 porcento de acurácia, similar a uma ResNet com 164 camadas. Por fim, apresenta-se um estudo de caso com dados reais, no qual utiliza-se o Q-NAS para resolver a tarefa de classificação sísmica. Em menos de 8,5 dias de GPU, o Q-NAS gerou redes com 12 vezes menos pesos e maior acurácia do que um modelo criado especialmente para esta tarefa. / [en] Deep neural networks are powerful and flexible models that have gained the attention of the machine learning community over the last decade. For a variety of tasks, they can even surpass human-level performance. Usually, to reach these excellent results, an expert spends significant time designing the neural architecture, with long trial and error sessions. In this scenario, there is a growing interest in automating this design process. To address the neural architecture search (NAS) problem, authors have presented new methods based on techniques such as reinforcement learning and evolutionary algorithms, but the high computational cost is still an issue for many of them. To reduce this cost, researchers have proposed to restrict the search space, with the help of expert knowledge. Quantum-inspired evolutionary algorithms present promising results regarding faster convergence. Motivated by this idea, we propose Q-NAS: a quantum-inspired algorithm to search for deep networks by assembling substructures. Q-NAS can also evolve some numerical hyperparameters, which is a first step in the direction of complete automation. We ran several experiments with the CIFAR-10 dataset to analyze the details of the algorithm. For many parameter settings, Q-NAS was able to achieve satisfactory results. Our best accuracies on the CIFAR-10 task were 93.85 percent for a residual network and 93.70 percent for a convolutional network, overcoming hand-designed models, and some NAS works. Considering the addition of a simple early-stopping mechanism, the evolution times for these runs were 67 GPU days and 48 GPU days, respectively. Also, we applied Q-NAS to CIFAR-100 without any parameter adjustment, reaching an accuracy of 74.23 percent, which is comparable to a ResNet with 164 layers. Finally, we present a case study with real datasets, where we used Q-NAS to solve the seismic classification task. In less than 8.5 GPU days, Q-NAS generated networks with 12 times fewer weights and higher accuracy than a model specially created for this task.
129

[pt] APRIMORAÇÃO DO ALGORITMO Q-NAS PARA CLASSIFICAÇÃO DE IMAGENS / [en] ENHANCED Q-NAS FOR IMAGE CLASSIFICATION

JULIA DRUMMOND NOCE 31 October 2022 (has links)
[pt] Redes neurais profundas são modelos poderosos e flexíveis que ganharam a atenção da comunidade de aprendizado de máquina na última década. Normalmente, um especialista gasta um tempo significativo projetando a arquitetura neural, com longas sessões de tentativa e erro para alcançar resultados bons e relevantes. Por causa do processo manual, há um maior interesse em abordagens de busca de arquitetura neural, que é um método que visa automatizar a busca de redes neurais. A busca de arquitetura neural(NAS) é uma subárea das técnicas de aprendizagem de máquina automatizadas (AutoML) e uma etapa essencial para automatizar os métodos de aprendizado de máquina. Esta técnica leva em consideração os aspectos do espaço de busca das arquiteturas, estratégia de busca e estratégia de estimativa de desempenho. Algoritmos evolutivos de inspiração quântica apresentam resultados promissores quanto à convergência mais rápida quando comparados a outras soluções com espaço de busca restrito e alto custo computacional. Neste trabalho, foi aprimorado o Q-NAS: um algoritmo de inspiração quântica para pesquisar redes profundas por meio da montagem de subestruturas simples. O Q-NAS também pode evoluir alguns hiperparâmetros numéricos do treinamento, o que é um primeiro passo na direção da automação completa. Foram apresentados resultados aplicando Q-NAS, evoluído, sem transferência de conhecimento, no conjunto de dados CIFAR-100 usando apenas 18 GPU/dias. Nossa contribuição envolve experimentar outros otimizadores no algoritmo e fazer um estudo aprofundado dos parâmetros do Q-NAS. Nesse trabalho, foi possível atingir uma acurácia de 76,40%. Foi apresentado também o Q-NAS aprimorado aplicado a um estudo de caso para classificação COVID-19 x Saudável em um banco de dados de tomografia computadorizada de tórax real. Em 9 GPU/dias, conseguimos atingir uma precisão de 99,44% usando menos de 1000 amostras para dados de treinamento. / [en] Deep neural networks are powerful and flexible models that have gained the attention of the machine learning community over the last decade. Usually, an expert spends significant time designing the neural architecture, with long trial and error sessions to reach good and relevant results. Because of the manual process, there is a greater interest in Neural Architecture Search (NAS), which is an automated method of architectural search in neural networks. NAS is a subarea of Automated Machine Learning (AutoML) and is an essential step towards automating machine learning methods. It is a technique that aims to automate the construction process of a neural network architecture. This technique is defined by the search space aspects of the architectures, search strategy and performance estimation strategy. Quantum-inspired evolutionary algorithms present promising results regarding faster convergence when compared to other solutions with restricted search space and high computational costs. In this work, we enhance Q-NAS: a quantum-inspired algorithm to search for deep networks by assembling simple substructures. Q-NAS can also evolve some numerical hyperparameters, which is a first step in the direction of complete automation. Our contribution involves experimenting other types of optimizers in the algorithm and make an indepth study of the Q-NAS parameters. Additionally, we present Q-NAS results, evolved from scratch, on the CIFAR-100 dataset using only 18 GPU/days. We were able to achieve an accuracy of 76.40% which is a competitive result regarding other works in literature. Finally, we also present the enhanced QNAS applied to a case study for COVID-19 x Healthy classification on a real chest computed tomography database. In 9 GPU/days we were able to achieve an accuracy of 99.44% using less than 1000 samples for training data. This accuracy overcame benchmark networks such as ResNet, GoogleLeNet and VGG.
130

Metodologia para aferi??o do n?vel de maturidade associado ? interoperabilidade t?cnica nas a??es de Governo Eletr?nico / Assessment methodology for E-Government technical interoperability maturity level

Corr?a, Andreiwid Sheffer 23 November 2012 (has links)
Made available in DSpace on 2016-04-04T18:31:32Z (GMT). No. of bitstreams: 1 Andreiwid Sheffer Correa.pdf: 4501821 bytes, checksum: 3d9f7fecc118ff0dc70b11ea481d5e67 (MD5) Previous issue date: 2012-11-23 / The unstructured and unplanned implementation of technological solutions leads to wastage of resources and imposes itself as a barrier to achieving the potential benefits of information technologies and communication. The problem increases when managers who operate these technologies are part of the public administration, as structural issues make this scenario open for merely temporary, strictly proprietary, experimental or doomed to obsolescence solutions, resulting in interoperability problems. Thus, the possible damage extrapolates financial issues and compromise expected social return. In an attempt to avoid this problem, several countries are developing and adopting government interoperability frameworks to guide their actions in electronic government. These architectures expose successful solutions for technical, semantic and organizational dimension of interoperability, and reflect on the best path according to the understanding of its government. However, specifically for the technical dimension, there is no way to evaluate the effectiveness of these architectures and assess how the solutions are interoperable. This work aims to propose a maturity model for technical interoperability in order to assess the use of standards and assist software and systems engineers, as well as professionals in general, to focus their efforts on the use of recommended technologies by good practices. It has been based on e-PING architecture, which is the Brazilian standard for interoperability. In addition, this work proposes the development and use of a rule-based system that implements fuzzy logic to assist evaluation and adherence to the model. To verify model feasibility and validate the developed system, this paper also uses a real scenario as the basis of analysis of interoperability. / A implementa??o desestruturada e n?o planejada de solu??es tecnol?gicas ? fonte de desperd?cio de recursos e imp?e-se como barreira para obten??o dos potenciais benef?cios do uso das tecnologias da informa??o e comunica??o. O problema acentua-se quando gestores dessas tecnologias atuam para a administra??o p?blica, pois quest?es estruturais fazem com que este cen?rio abra espa?o para solu??es pontuais e transit?rias, estritamente propriet?rias, experimentais ou fadadas ? obsolesc?ncia, o que resulta em problemas de interoperabilidade. Desse modo, os poss?veis danos extrapolam o sentido financeiro por comprometer o retorno social esperado. Na tentativa de contornar essa quest?o, v?rios pa?ses v?m desenvolvendo e adotando as arquiteturas de interoperabilidade governamentais para orientar suas a??es de governo eletr?nico. Essas arquiteturas buscam evidenciar, a partir dos aspectos t?cnicos, sem?nticos ou organizacionais, as solu??es bem sucedidas e aceitas universalmente, al?m de refletirem o melhor caminho para a interoperabilidade, segundo o entendimento de cada governo. No entanto, especificamente para o aspecto t?cnico, n?o existe um meio para avaliar a efetiva utiliza??o dessas arquiteturas e aferir o qu?o interoper?veis as solu??es se encontram. Este trabalho visa propor um modelo de maturidade para interoperabilidade t?cnica com o objetivo de medir o uso de padr?es de interoperabilidade e auxiliar engenheiros de softwares e de sistemas, assim como profissionais em geral, a direcionar seus esfor?os no emprego de tecnologias consagradas pelas boas pr?ticas de mercado. Tem-se, como base para a constru??o do modelo, a arquitetura e-PING, que ? o padr?o brasileiro de interoperabilidade. Adicionalmente, este trabalho prop?e o desenvolvimento e utiliza??o de um sistema baseado em regras que emprega l?gica nebulosa para auxiliar no processo de avalia??o da ader?ncia ao modelo. Para verifica??o da viabilidade do modelo e valida??o do sistema desenvolvido, este trabalho tamb?m utiliza um cen?rio real para servir de base de an?lise da interoperabilidade.

Page generated in 0.295 seconds