• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2822
  • 580
  • 238
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3703
  • 1108
  • 946
  • 591
  • 587
  • 553
  • 525
  • 495
  • 460
  • 335
  • 308
  • 286
  • 279
  • 261
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

GIStorage: um serviço de informação para grades com suporte a algoritmos de predição de desempenho

Orengo, Jean Paulo Sandri January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:11Z (GMT). No. of bitstreams: 1 000391905-Texto+Completo-0.pdf: 1633736 bytes, checksum: 25c845fd567eeaf50cba0fd97ce8813c (MD5) Previous issue date: 2007 / In order to allocate resources and submit jobs to a grid, resource discovery and scheduling services need to know in advance the performance of the candidate resources. Since jobs will be executed in a future time, these services may use prediction algorithms to forecast resources performance, improving the quality of their decisions. Additionally, prediction algorithms that use time series analysis demand historical performance information to predict future behavior. To support prediction algorithms and services we propose GIStorage, a grid information service designed for storing historical performance information about resources. GIStorage is GMA compliant and is structured as a tree in order both to achieve good response times and to store large amount of information. / Para alocar recursos e submeter tarefas numa grade computacional serviços de descoberta, alocação e escalonamento precisam conhecer o desempenho dos recursos. Como as tarefas serão executadas num momento futuro, estes serviços podem empregar algoritmos de predição para prever o desempenho dos recursos, melhorando a qualidade de suas decisões. Além disso, algoritmos de predição baseados em séries temporais demandam informações históricas sobre o desempenho dos recursos para prever o comportamento futuro dos mesmos. Para dar suporte a algoritmos e serviços de predição é proposto o GIStorage, um serviço de informação para grades computacionais projetado para armazenar informações sobre recursos. O GIStorage é baseado no modelo GMA, sendo estruturado como uma árvore para obter bom desempenho e armazenar grande volume de dados.
452

Um modelo híbrido para o WSD em biomedicina

Goulart, Rodrigo Rafael Vilarreal January 2013 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000448850-Texto+Completo-0.pdf: 2763654 bytes, checksum: 430bc12ce50b74821fe6a8aa37994260 (MD5) Previous issue date: 2013 / This work studies Word Sense Disambiguation (WSD) in the Biomedicine domain for English language, using external knowledge sources. Among the existing proposals for the selection of a sense for an ambiguous word, there is the graph-based approach. This approach uses a metric in the evaluation of graphs containing candidates to the correct sense for the ambiguous word. In this research, a set of metrics is analyzed individually, and, based on this evaluation, we propose a hybrid model for the selection of the metrics in order to determine the most adequate metric to be employed. The model makes use of a set of features and heuristics that determine a semi-supervised solution for WSD. The results obtained with experiments show an improvement in performance and reveal new perspectives of research. The proposed model raises the hit rate to 68,48%, increasing significantly in 3,52% the rate reported in literature. / Este trabalho estuda o Word Sense Disambiguation no domínio da Biomedicina, para a língua inglesa, com uso de fontes externas de conhecimento. Dentre as propostas existentes para a seleção de um sentido para uma palavra ambígua, está a abordagem baseadas em grafos. Essa abordagem emprega uma métrica na avaliação de grafos que contêm candidatos ao sentido correto da palavra ambígua. Nesta pesquisa um conjunto de métricas é analisado individualmente e, com base nas avaliações, propõe-se um modelo híbrido de seleção de métricas com o objetivo de determinar a métrica mais adequada a ser empregada. O modelo faz uso de um conjunto de features e heurísticas que determinam uma solução semi-supervisionada para o WSD. Os resultados obtidos com experimentos apontam melhoria na performance e revelam novas perspectivas de pesquisa. O modelo proposto eleva a taxa de acerto a 68,48%, aumentando significativamente em 3,52% a taxa reportada na literatura.
453

Métodos de clusterização para apoio à classificação estética de documentos

Primo, Tiago Thompsen January 2008 (has links)
Made available in DSpace on 2013-08-07T18:43:27Z (GMT). No. of bitstreams: 1 000406128-Texto+Completo-0.pdf: 16056423 bytes, checksum: d4b22e3a871de544238db5630e9a295f (MD5) Previous issue date: 2008 / This work presents a study about classifying a large amount of variable data printing documents. At such process when a large number of documents is generated there is the need for a user to classify then one by one with the goal to separate then in good (those with none or few structural problem) or bad (those with several structural problems), a process that is considered very slow. Considering this problem, in this work we build a tool for aesthetical document classification, winch has the goal to reduce such human intervention. The developed tool is based on metrics that determines how different are the documents that was automatic generated to their respective template, creating for each one of those documents a signature based in the fingerprinting techniques. After that, clustering techniques are used to create groups which the documents that have similar characteristics. The K-Medoids algorithm is used to create those groups. Such algorithm works creating groups of objects considering one of then as a base for each created cluster. The main idea is to reduce the human intervention by asking for a user to classify in good or bad specific documents on each cluster. It is also presented the results of four experiments that was realized with this tool, evaluating the contributions to reduce the human intervention in the document classification process. / Neste trabalho serão abordados estudos referentes à classificação de grande quantidade de documentos de conteúdo variável. Em tal processo quando um grande número de documentos é gerado, existe a necessidade de um usuário verificá-los um a um com a intenção de separá-los em bons (com pouco ou nenhum problema estrutural) ou ruins (que possuem problemas estruturais), processo este considerado lento e oneroso. Considerando este problema, neste trabalho foi desenvolvida uma ferramenta de classificação estética de documentos que visa reduzir esta intervenção humana. A ferramenta desenvolvida é baseada em métricas que avaliam o quanto um documento automaticamente gerado difere de seu template, criando para cada um destes documentos uma assinatura baseada nas técnicas de fingerprint, objetivando primeiramente distingui-los entre si para então utilizar técnicas de clusterização criando grupos de documentos com características semelhantes. O algoritmo K-Medóides é usado para fazer tal agrupamento, tal algoritmo funciona criando grupos de objetos considerando um destes como base para a criação de cada cluster. A idéia deste trabalho é reduzir a intervenção humana fazendo com que um usuário classifique em bom ou ruim apenas determinados documentos de cada grupo formado pelo algoritmo de clusterização. São também apresentados resultados de quatro experimentos realizados com esta ferramenta avaliando as contribuições para diminuir a intervenção humana no processo de classificação de documentos.
454

Um algoritmo distribuído e adaptativo para diagnóstico de redes ad hoc móveis com base em informações geográficas

Nascimento, Luiz Fernando Legore do 19 February 2013 (has links)
Resumo: Algoritmos de diagnóstico de falhas em nível de sistema são comumente utilizados como uma estratégia de tolerância à falhas. Neles, a partir de uma série de testes, podese determinar quais unidades estão com falha e quais estão sem-falha. Os primeiros modelos de diagnóstico de falhas que surgiram eram do tipo centralizado. Nesses modelos, considera-se que uma unidade central é a única responsável por diagnosticar o estado de todas as unidades do sistema. Posteriormente, surgiram os modelos distribuídos, nos quais o diagnóstico é atribuído a algumas ou todas as unidades do sistema. Todos estes modelos foram desenvolvidos para redes estáticas e cabeadas, não sendo facilmente adaptáveis à ambientes móveis. A identificação de unidades com falha em uma rede Ad Hoc móvel é uma tarefa muito difícil. Nestas redes, as unidades se utilizam de comunicações sem _o e podem se mover livremente e de forma imprevisível. Nesse trabalho é apresentado o primeiro algoritmo distribuído e adaptativo para diagnóstico em nível de sistema baseado no modelo PMC para redes Ad Hoc, que não impõe restrições ao movimento dos nós durante todo o diagnóstico. Todos os nós podem testar, serem testados e diagnosticar os demais nós. Além disso, os nós podem ser classificados como falho, sem falha e suspeitos. Um nó é classificado como suspeito quando este deixa de responder a solicitação de teste por sair do raio de alcance das transmissões de radio do seu testador. Como a mobilidade dos nós implica em variação de distâncias entre os nós, testador e testado, as solicitações de testes e suas respostas nem sempre ocorrem de forma satisfatória. Para isso, o algoritmo utiliza-se de coordenadas geográficas para monitorar a mobilidade dos nós de forma que seja possível diferenciar falhas reais, de falhas ocorridas devido a mobilidade.
455

Comparing restricted propagation grafhs for the similarity flooding algorithm

Peschl, Gabriel January 2015 (has links)
Orientador : Prof. Dr. Marcos Didonet Del Fabro / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/05/2015 / Inclui referências : f.51-54 / Resumo: A Engenharia de Software Orientada a Modelos é uma metodologia que utiliza modelos no processo de desenvolvimento de software. Muitas operações sobre esse modelos são necessárias estabelecer links entre modelos distintos, como por exemplo, nas transformação de modelos, nas rastreabilidade de modelos e nas integração de modelos. Neste trabalho, os links são estabelecidos através da operação matching. Com os links estabelecidos é comum calcular os valores de similaridades a eles, além de se indicar um grau de igualdade entre esses links. O Similarity Flooding é um algoritmo bem estabelecido que pode aumentar a similaridade entre os links. O algoritmo é genérico e está provado sua eficiência. Contudo, ele depende de uma estrutura menos genérica para manter a sua eficiência. Neste trabalho, foram codificados 9 métodos distintos de propagações para o Similarity Flooding entre os elementos de metamodelos e modelos. Esses elementos compreendem classes, atributos, referências, instâncias e o tipo dos elementos, por exemplo, Integer, String ou Boolean. Além de verificar a viabilidade desses métodos, 2 casos de estudos são discutidos. No primeiro caso de estudo, foram executados os métodos entre os metamodelos e modelos de Mantis e Bugzilla. Em seguida, foram executados os métodos entre os metamodelos e modelos de AccountOwner e Customer. Por fim, é apresentado um estudo comparativo entre os métodos de propagações codificados com um método genérico, com o objetivo de verificar quais métodos podem ser mais (ou menos) eficiente para o Similarity Flooding, dentre os metamodelos e modelos utilizados. De acordo com os resultados, utilizando técnicas restritas de propagações do SF, as similaridades entre os links melhoraram em relação a execução genérica do algoritmo. Isso porque diminuindo a quantidade de links o SF pode ter um melhor desempenho. / Abstract: In Model-Driven Software Engineering (MDSE), different approaches can be used to establish links between elements of different models for distinct purposes, such as serving as specifications for model transformations. Once the links have been established, it is common to set up a similarity value to indicate equivalence (or lack of) between the elements. Similarity Flooding (SF) is one of the best known algorithms for enhancing the similarity of structurally similar elements. The algorithm is generic and has proven to be efficient. However, it depends on graph-based structure and a less generic encoding. We created nine generic methods to propagate the similarities between links of elements of models. These elements comprise classes, attributes, references, instances and the type of element, e.g., Integer, String or Boolean. In order to verify the viability of these methods, 2 case studies are discussed. In the first case study, we execute our methods between metamodels and models of Mantis and Bugzilla. In the following, the metamodels and models of AccountOwner and Customer are used. At the end, a comparative study of the metamodel-based encoding is presented for the purpose of verifying whether a less generic implementation, involving a lesser number of model elements, based on the metamodel and model structures, might be a viable implementation and adaptation of the SF algorithm. We compare these methods with an implementation comprising all the propagation strutures (non-restricted propagation), which are more similar (though not equivalent) to the original SF implementation. According to the results, using the restricted propagation graphs of the SF, the similarity values between the links has increased in relation to the non-restricted algorithm. This is because reducing the amount of links, will increase the propagation values between the links of elements.
456

Análise dos zeros da FTMA e ajuste de parâmetros de controladores suplementares de amortecimento acoplado ao dispositivo FACTS UPFC

Moura, Ricardo Frangiosi de [UNESP] 05 April 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:51Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-04-05Bitstream added on 2014-06-13T20:21:18Z : No. of bitstreams: 1 moura_rf_dr_ilha.pdf: 1254278 bytes, checksum: 677c70fd86312d242054dec150169d11 (MD5) / Outros / Este trabalho trata da análise da estabilidade a pequenas perturbações de sistemas elétricos de potência multimáquinas considerando a atuação de Estabilizadores de Sistemas de Potência (ESPs) e de controladores do tipo Power Oscillation Damping acoplados a dispositivos FACTS UPFC (conjunto UPFC/POD). Um de seus objetivos é analisar como o posicionamento dos zeros da função de transferência em malha aberta (FTMA) do sistema elétrico de potência influencia na localização e na capacidade dos controladores em introduzir amortecimento às oscilações de baixa frequência. De maneira usual, uma análise de sensibilidade, através do método dos resíduos fornece a localização para instalação do conjunto UPFC/POD e/ou ESP. Entretanto, será mostrado neste trabalho que a quantidade de amortecimento fornecido ao modo eletromecânico de interesse utilizando os controladores suplementares de amortecimento é limitada pelo zero da FTMA do controlador. Desta forma, o ESP ou o conjunto UPFC/POD instalado na melhor localização obtida através do método dos resíduos pode não fornecer o coeficiente de amortecimento desejado ao polo de interesse. Outro objetivo é o ajuste dos parâmetros destes controladores e são utilizadas duas técnicas, sendo uma baseada na compensação de fase e chamada de método dos resíduos. Também é proposta outra forma de ajuste, fundamentada em algoritmos genéticos. Para a execução desses estudos o Modelo de Sensibilidade de Potência é utilizado para a representação do sistema elétrico de potência. Resultados são apresentados para dois sistemas teste: sistema simétrico com 4 geradores, 10 barras e 9 linhas de transmissão e o sistema New England com 10 geradores, 39 barras e 46 linhas de transmissão / This work deals with the small-signal stability analysis of multimachine power systems considering the Power System Stabilizers (PSS) and Power Oscillation Damping (POD) performance. POD is coupled to the FACTS (Flexible Alternating Current Transmission Systems) UPFC (Unified Power Flow Controller). An analysis of the open-loop transfer function (OLTF) zeros of the electric power systems is carried out aiming to verify the influence of the OLTF zeros placement on the controllers location and ability to introduce damping to low frequency oscillations. In the usual way, a sensitivity analysis, using the residue method, provides the UPFC/POD and/or PSS location. However, will be shown in this work that the damping provided to interest eigenvalue using a supplementary damping controller is limited by the OLTF zeros placement. Thus, the PSS or the UPFC/POD installed in the best location obtained by the residue method cannot provide the desired damping coefficient to the interest pole. Another objective of this work is to evalmate the performance of the controller parameters tuning. Two techniques are used with this objetive. One of then is based on phase compensation and called the residue method. The second one is based on genetic algorithm method. For the execution of these studies the Power Sensitivity Model (PSM) is used to represent the electric power system. Results are presented for two test systems: a test system with 4 generators, 10 buses and 9 transmission lines and the New England System that has 10 generators, 39 buses and 46 transmission lines
457

Segmentação do ventrículo esquerdo em imagens ecocardiograficas

Amorim, Junier Caminha 12 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Priscilla Brito Oliveira (priscilla.b.oliveira@gmail.com) on 2009-09-28T19:58:57Z No. of bitstreams: 1 2008_JunierCaminhaAmorim.pdf: 4087368 bytes, checksum: 719d38fe8ad7db0da39842ed43a16c59 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2009-09-30T14:12:00Z (GMT) No. of bitstreams: 1 2008_JunierCaminhaAmorim.pdf: 4087368 bytes, checksum: 719d38fe8ad7db0da39842ed43a16c59 (MD5) / Made available in DSpace on 2009-09-30T14:12:00Z (GMT). No. of bitstreams: 1 2008_JunierCaminhaAmorim.pdf: 4087368 bytes, checksum: 719d38fe8ad7db0da39842ed43a16c59 (MD5) Previous issue date: 2008-12 / Este trabalho tem por objetivo apresentar a estrutura e a lógica de um algoritmo aplicado na segmentação do ventrículo esquerdo de ecocardiografias codificadas sob o padrão DICOM (Digital Imaging and Communications in Medicine) obtidas através de equipamentos adequados. Além de identificar fases, melhorias e resultados do algoritmo criado, é realizado um estudo comparativo desses resultados com os obtidos por meio da aplicação de outros algoritmos de mesma finalidade sobre o mesmo conjunto de imagens. Os fatores de comparação tais como o tempo de processamento e a qualidade do resultado são identificados através da comparação das áreas de segmentação entre as imagens tratadas pelo profissional da área de saúde e pelo algoritmo. Um conjunto de operações morfológicas sobre as imagens foi aplicado, além de algoritmos de corte e preparação das mesmas. Filtros de suavização, tais como o Gaussiano e o de Lee[4], além de sucessivas operações de abertura e fechamento, foram utilizados com o propósito de eliminar ruídos e prepará-las para a segmentação watershed. Neste contexto, deu-se um foco especial às etapas do pré-processamento, pela sua importância em preparar os quadros que serão manipulados pelo algoritmo de segmentação. _______________________________________________________________________________________ ABSTRACT / This work aims at presenting the structure and logic of an algorithm applied to the segmentation of the left ventricle of echocardiographies encoded in the DICOM (Digital Imaging and Communications in Medicine) standard, obtained through appropriate equipment. Besides identifying stages, improvements and results of the created algorithm, we conducted a comparative study of these results with those obtained through the application of other algorithms with the same purpose on the same set of images. The comparison of factors such as the processing time and result quality are identified by comparing the areas of segmentation between the images processed by the medical professional and the algorithm. A number of morphological operations on the images was applied, as well as algorithms, cutting and preparing them. Smoothing filters, such as Gaussian and Lee [4], and successive operations of opening and closing, were used for the purpose of eliminating noise and preparing them for watershed segmentation. In this context, was a particular focus on stages of pre-processing was given, for its importance in preparing the frames wich will be handled by the segmentation algorithm.
458

Aplicação de procedimentos de otimização e remodelamento ósseo na simulação e análise em problemas de biomecânica

Corso, Leandro Luís January 2006 (has links)
O presente trabalho abordou a simulação numérica de problemas relacionados a um tópico de grande importância na área médica: o comportamento de tecidos ósseos. Foram utilizadas ferramentas computacionais, fundamentos de Mecânica dos Sólidos e teorias baseadas em estudos e experimentos, para simular o comportamento desses tecidos vivos. Aqui se desenvolveu uma metodologia para criar modelos computacionais de ossos fazendo uso de leituras tomográficas, designando as propriedades em função do valor das densidades. A metodologia foi aplicada juntamente com algoritmos genéticos e o método dos elementos finitos para obter a melhor posição de implantes ortodônticos, visando uma homogeneização da tensão no osso na região de colocação do implante. Também foi possível fazer uma comparação entre modelos utilizados na literatura e o desenvolvido aqui. Em particular, foi demonstrado que o uso de materiais isotrópicos homogêneos e materiais com propriedades variáveis de acordo com a densidade levam a resultados diferentes para a otimização da orientação do implante. Foi criado um modelo computacional de remodelamento ósseo com isotropia transversal, com base no modelo de crescimento ósseo isotrópico de Stanford e utilizando as relações constitutivas dos tecidos ósseos. Foi realizada uma comparação entre os modelos isotrópico e isotrópico transversal na simulação do processo de remodelamento ósseo, sendo possível destacar as principais diferenças entre eles. A seguir foi realizada a aplicação do remodelamento ósseo para a otimização de próteses femorais. Foram construídos modelos computacionais integrando o método dos elementos finitos, um modelo matemático do comportamento adaptativo do material ósseo e o método dos algoritmos genéticos, visando a minimização da perda de massa óssea após a inserção de próteses em um osso hospedeiro. Foram realizadas três otimizações para combinações diferentes de parâmetros de projeto de uma prótese femoral. Na primeira, foi realizada a otimização da geometria e do módulo de Young da prótese. Na segunda, foi otimizado apenas o módulo de Young da prótese. Na terceira, foi proposto um modelo de prótese bimaterial, no qual os módulos de Young e a posição da divisão entre os materiais são os parâmetros de projeto escolhidos. A partir dos resultados obtidos, foi possível fazer comentários e sugestões sobre o material utilizado para construção de próteses femorais, bem como sobre a aplicabilidade da metodologia empregada na simulação de problemas de biomecânica. / The present work is addressed to the numerical simulation of problems related to an important topic in the medical area, namely, bone tissues. Computational methods, solid mechanics and theoretical/experimental studies were used to simulate the behavior of live bone tissues. A methodology was developed to create computational models using tomography data, assigning the mechanical properties from the corresponding densities map. The methodology was applied with genetic algorithms and the finite element method to predict the optimal position of orthodontic implants, aiming the homogenization stress in the bone. It was possible to compare some models found in literature and the one developed here. In particular, it was showed that homogeneous isotropic materials and materials with variable density result in different predictions in the optimization of the implant orientation. A computational scheme for bone remodeling was developed using three material behavior laws: transversally isotropic, isotropic Stanford model and classical constitutive relations for bone tissues. A comparison between the isotropic model and the transversally isotropic in the simulation of the bone remodeling was carried out, and the main differences between them were highlighted. Then the proposed bone remodeling scheme was applied to optimize femoral prosthesis. The computational models integrated the finite element method, a mathematical model to describe the behavior of adaptive bone material, and the genetic algorithm. The optimization aimed reduction of bone absorption after the insertion of a prosthesis in a bone host. Three cases of cemented femoral prosthesis were optimized. In the first case, the Young Modulus and geometry of the prosthesis were selected as design variable. In the second case, only the Young Modulus was used as design variable. In the third case, a bi-material prosthesis was proposed was proposed and optimized. Conclusions about the applicability of the proposed formulation for the simulation of biomechanics problems are drawn.
459

Escalonamento de tarefas job-shop realistas utilizando algoritmos genéticos em MATLAB

Beck, Felipe Luís January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-18T01:17:35Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T17:12:43Z : No. of bitstreams: 1 182500.pdf: 4247647 bytes, checksum: 0d4e57bcc3bd8849bd1c880bb4c11cca (MD5) / Esta dissertação aborda o desenvolvimento e a implementação de um sistema para escalonamento de tarefas do tipo job-shop. Com o sistema que foi desenvolvido, é possível o tratamento não apenas de problemas clássicos, como também de problemas realistas, que levam em conta um grande número de características reais, ignoradas em problemas clássicos de escalonamento. Estes problemas realistas possuem um elevado número de operações e máquinas, se comparados a problemas clássicos, além de recursos adicionais, multiplicidade de máquinas do mesmo tipo, e vários modos possíveis de execução, entre outras características. Com o sistema desenvolvido é, também, possível o tratamento de problemas de escalonamento dos tipos flow e open-shop e, inclusive, de problemas que mesclem estes três tipos. Tendo sido desenvolvido utilizando MATLAB e uma toolbox genética, mostra-se que um sistema simples, construído a partir de software amplamente disponível, é satisfatório para a utilização em problemas de escalonamento. Os resultados obtidos em testes comprovam a eficiência do sistema criado no tratamento de problemas de escalonamento clássicos, e também a sua boa performance quando são tratados problemas realistas.
460

Algoritmos para a simulação da dinamica de sistemas de energia eletrica em computadores paralelos

Decker, Ildemar Cassana January 1993 (has links)
Tese (doutorado) - Universidade Federal do Rio de Janeiro. Coordenação dos Programas de Pos-Graduação em Engenharia / Made available in DSpace on 2012-10-16T05:52:41Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T18:28:48Z : No. of bitstreams: 1 92852.pdf: 3652961 bytes, checksum: 61ac9b71f0fb2a564831d4578d4ae4a7 (MD5)

Page generated in 0.0248 seconds