Spelling suggestions: "subject:"banca dde dados"" "subject:"banca dee dados""
441 |
Desenvolvimento de um filtro de descritores moleculares geom?tricos para gerar um ranqueamento em banco de dados de ligantesQuevedo, Christian Vahl 23 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:40Z (GMT). No. of bitstreams: 1
435073.pdf: 3764608 bytes, checksum: 23d34083821e24bc00c6f737db4be5b8 (MD5)
Previous issue date: 2011-03-23 / Bancos de dados de ligantes de acesso p?blico oferecem atualmente mais de 20 milh?es ligantes para os usu?rios. Em contrapartida, a realiza??o de testes in silico com esse elevado volume de dados ? computacionalmente muito custoso, que vem demandar o desenvolvimento de novas solu??es para a redu??o do n?mero de ligantes a ser testado em seus receptores alvo. No entanto, ainda n?o h? m?todo para efetivamente reduzir esse n?mero elevado em um valor gerenci?vel, constituindo-se assim, um grande desafio do Planejamento Racional de F?rmacos. Este trabalho tem o objetivo de desenvolver uma fun??o heur?stica para realizar uma triagem virtual com ligantes dispon?veis, cuja inten??o ? selecionar os candidatos mais promissores. A fun??o desenvolvida ? baseada na geometria da cavidade do substrato do receptor, filtrando apenas os ligantes compat?veis com esta cavidade considerando as varia??es 3D do modelo totalmente flex?vel do receptor. Para testar a efic?cia da fun??o proposta foram feitas duas avalia??es utilizando como estudo de caso a enzima do Mycobacterium tuberculosis, a InhA. Os resultados obtidos deste filtro melhoraram o processo de triagem virtual, descartando a realiza??o dos testes de docagem molecular dos ligantes que n?o se encaixam na cavidade do substrato do receptor.
|
442 |
FReMI: a middleware to handle molecular docking simulations of fully-flexible receptor models in HPC environmentsDe Paris, Renata 12 April 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1
438211.pdf: 1765612 bytes, checksum: c7adb8a9601c78a38e044070d6b5568e (MD5)
Previous issue date: 2012-04-12 / Simula??es de docagem molecular de modelos de receptores totalmente flex?veis (Fully-Flexible Receptor - FFR) est?o se tornando cada vez mais frequentes. Entretanto, tais simula??es exigem alto n?vel de processamento e sua execu??o sequencial pode se tornar uma tarefa impratic?vel. Este trabalho apresenta um middleware, chamado Middleware de Receptores Flex?vel (Flexible Receptor Middleware FReMI), que auxilia a reduzir o tempo total de execu??o nas simula??es de docagem molecular de receptores totalmente flex?veis. FReMI manipula uma quantidade intensiva de dados e tarefas para executar a triagem virtual de modelos de receptores totalmente flex?veis, e prov? interoperabilidade entre o web workflow de docagem de receptores flex?veis (Web Fully-flexible Docking Workflow - W-FReDoW) e dois diferentes ambientes de alto desempenho (High Performance Computing HPC). FReMI utiliza protocolos de internet para comunicar com o W-FReDoW , o qual auxilia na redu??o da dimens?o do modelo FFR por meio de um padr?o de dados. Al?m disso, FReMI envia tarefas de simula??es de docagem para serem executadas em um cluster dedicado e tamb?m em um alternativo modelo de cluster virtual constru?do por meio de nuvens de computadores el?sticos da Amazon (Amazon s Elastic Compute Cloud EC2). Os resultados apresentam uma arquitetura conceitual do FReMI e dois conjuntos de experimentos a partir da execu??o do FReMI. O primeiro conjunto relatou os experimentos realizados com FReMI, usando uma amostra de snapshots a partir de um modelo FFR e os dois ambientes HPC. O segundo conjunto descreveu os experimentos, com um conjunto de dados completo, executando FReMI e W-FReDoW apenas em um ambiente de cluster MPI constru?do com as inst?ncias da Amazon EC2. Os resultados do ?ltimo conjunto de experimentos apresentaram uma redu??o na dimensionalidade do modelo FFR, transformando ele um modelo de receptor flex?vel totalmente reduzido (Reduced Fully-Flexible Receptor Model RFFR), por meio do descarte de conforma??es n?o promissoras identificadas pelo W-FReDoW. Al?m disso, a redu??o do tempo total de execu??o do FReMI com o W-FReDoW foi entre 10 a 30% a partir da execu??o separada do FReMI, e de aproximadamente 94% do FReMI a partir da sua respectiva execu??o sequencial. / Molecular docking simulations of Fully-Flexible Protein Receptor (FFR) models are coming of age. However, they are computer intensive and their sequential execution can became an unfeasible task. This study presents a middleware, called Flexible Receptor Middleware (FReMI), to assist in faster docking simulations of flexible receptors. FReMI handles intensive tasks and data of totally fully-flexible receptor models in virtual screening and, provides the interoperability between a Web Fully-flexible Docking Workflow (W-FReDoW) and two different High Performance Computing (HPC) environments. FReMI uses internet protocols to communicate with W-FReDoW which helps to reduce the FFR model dimension with a data pattern. Also it sends tasks of docking simulations to execute in a HPC of dedicated cluster and; an alternative model of virtual cluster built on Amazon s Elastic Compute Cloud (EC2). The results are the FReMI conceptual architecture and two sets of experiments from execution of the FReMI. The first set reports the experiments performed with FReMI using a sample of snapshots from a FFR model on both HPC environments. The second one describes the experiments, on the complete data set, performed with FReMI and W-FReDoW shared execution in a MPI cluster environment on Amazon EC2 instances only. The last set of experiments results shows a reduction of the FFR model dimensionality, transforming it into a Reduced Fully-Flexible Receptor (RFFR) model, by discarding the non-promising conformations generated by W-FReDoW. It also reduces the total execution time to between 10-30% of that of FReMI s only execution, which, in turn, decreased near 94% with respect to the serial execution.
|
443 |
Um processo de aquisi??o e mapeamento de dados para as bacias sedimentares marginais brasileirasAssun??o, Joaquim Vinicius Carvalho 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:46Z (GMT). No. of bitstreams: 1
438673.pdf: 13692914 bytes, checksum: 3eac0c3d5df974b8965fd601f06ddf20 (MD5)
Previous issue date: 2012-03-27 / Finding oil is a hard task that requires large amounts of information and resources. Along decades of research, geoscientists from Petrobras have accumulated great amout of data. Therefore, in petroleum geology other sources of important data are generally dispersed and have many forms of representation. This Master Thesis reports the creation of a database that stored various geophysical, paleogeographic and paleoclimatic data from the South Atlantic. Great part of these data were extracted from stratigraphic charts, converted, and stored as a numeric model. This model is the result of an aggregation of data from the Brazilian Sedimentary Basins and the creation of an algorithm solution able to map collected data at the designated geographical area. These data cover the past 140 millions years. The 140 millions of years correspond to a drift period of the South American Plate from the African west coast to the present location. During this drift several natural changes happened in the Ocean Sedimentary Basins until they reached the actual state. The grouping of these data enhances the potential to knowledge discovery on the factors necessary for the deposit of organic matter and oil generation, in consequence, these new factors may improve the chances of finding oil. / Encontrar petr?leo ? uma tarefa dif?cil que requer grandes quantidades de informa??es e recursos. Ao longo de d?cadas de pesquisa, os ge?logos da Petrobras acumularam grandes quantidades de dados. Al?m disso, na geologia do petr?leo outras fontes de dados s?o importantes, fontes estas, que em geral est?o dispersas e possuem v?rias formas de represen??o. Esta disserta??o relata a cria??o de um banco de dados que agrega diversos dados de origem paleoclim?tica e paleogeogr?fica provenientes do Atl?ntico Sul. Grande parte destes dados foram extra?dos de cartas estratigr?ficas, convertidos e armazenados em forma de um modelo num?rico. Modelo este, que ? resultado de agrega??es de dados provenientes das bacias sedimentares brasileiras e da cria??o de uma solu??o algor?tmica capaz de mapear os dados coletados ao longo da ?rea designada. Estes dados s?o relativos a um per?odo de tempo entre a idade geol?gica atual at? 140 milh?es de anos atr?s. Os 140 milh?es de anos correspondem ao per?odo de deslocamento do continente Sul-Americano desde a costa da ?frica at? a posi??o atual. Durante esse deslocamento houveram diversas mudan?as naturais nas bacias sedimentares oce?nicas at? chegarem ao estado atual. O grupamento destes dados potencializa a descoberta de conhecimento relativo aos fatores necess?rios para a deposi??o de mat?ria org?nica e gera??o de petr?leo no fundo do mar, assim, estes novos fatores podem vir a melhorar as probabilidades de descoberta de petr?leo.
|
444 |
Smart execution of molecular docking simulations of a fully-flexible receptor modelFrantz, F?bio Andr? 12 April 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:48Z (GMT). No. of bitstreams: 1
439095.pdf: 3289381 bytes, checksum: eb6fc534e5a9d631dbafb97aa0a9c407 (MD5)
Previous issue date: 2012-04-12 / Molecular docking simulations of Fully-Flexible Receptor (FFR) models are coming of age. However, they demand parallelization of computing activities for their executions and generate huge amounts of data that needs to be analyzed. Many Task Computing (MTC) is an attractive paradigm routinely applied to execute intensive tasks. In this work we propose an environment to execute molecular docking simulations of FFR models to small molecules integrated with an MTC middleware. This environment is based on a new pattern called Self-adapting Multiple Instances (P-SaMI) that provide rules to reduce the number of experiments, providing a Reduced Fully-Flexible Receptor (RFFR) model. The main contribution of this research is to prove that P-SaMI rules can be used on Molecular Docking Simulations through a web environment integrated with an MTC middleware. / Simula??es de docagem molecular com modelos de Receptores Totalmente Flex?veis (FFR) est?o adquirindo maturidade. No entanto, isto demanda atividades computacionais de paraleliza??o para gera??o e execu??o de grande volume de dados que precisam ser analizados. Computa??o multi-tarefa ? um paradigma atrativo e que vem sendo aplicado frequentemente para executar tarefas intensivas. Neste trabalho propomos um ambiente para executar simula??es de docagem molecular no modelo FFR com pequenas mol?culas integradas a um componente MTC. Este ambiente ? baseado no padr?o M?ltiplas Inst?ncias Autoadapt?veis (P-SaMI) que possui regras para redu??o do n?mero de experimentos, provendo um modelo de Receptores Totalmente Flex?veis Reduzido (RFFR). A principal contribui??o desta pesquisa est? na comprova??o de que as regras do P-SaMI podem ser usadas em Simula??es de Docagem Molecular atrav?s de um ambiente web integrado com um componente MTC.
|
445 |
Uma aplica??o para automa??o de experimentos de docagem molecularSilva, Andr? Lu?s da 31 August 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:54Z (GMT). No. of bitstreams: 1
443882.pdf: 1538805 bytes, checksum: 0ca0fe774889aa54673d3442302094d2 (MD5)
Previous issue date: 2010-08-31 / PEDS can be used in research activities and in the teaching of molecular modeling, being enough flexible to be integrated to other software of molecular docking. The preparation and Execution of Docking Simulation (PEDS), is auxiliary tool in preparation of a set of molecules obtained from the ZINC database, automatically positioning the ligand candidate in a region determined by the specialist using the residues of the ligand candidate to calculate the coordinates to move it to. Based on this information, PEDS can prepare scripts e execute the molecular docking to run with AutoDock 3.0.5. PEDS was validated using InhA as receptor in two conformations, (1ENY e 1BVR), always with same structure as reference and two ligands, TCL and ETH. It was possible to verify that molecular docking moved the ligand near to active site of receptor, using the position calculated by PEDS. PEDS can be enhanced to use another input and output file formats, having its code available for free distribution. / O PEDS pode ser utilizado nas atividades de pesquisa bem como no ensino de modelagem molecular sendo suficientemente flex?vel para ser integrado a outros programas de docagem molecular. O Preparation and Execution of Docking Simulation (PEDS), ? auxiliar na prepara??o de um conjunto de mol?culas obtidas do banco de dados ZINC, posicionando automaticamente os candidatos a ligantes em ?reas determinadas pelo especialista, usando um conjunto de res?duos informados para calculo de coordenadas, e com base nestas informa??es, prepara os scripts de processamento e executa a docagem molecular utilizando o AutoDock 3.0.5. O PEDS foi validado utilizando-se o receptor InhA em duas conforma??es (1ENY e 1BVR), sempre com uma estrutura de refer?ncia e dois ligantes, o TCL e a ETH. Foi poss?vel verificar que a docagem molecular colocou o ligante pr?ximo ao s?tio ativo, partindo da posi??o calculada pelo PEDS. O PEDS pode ser aprimorado para utiliza??o de outros formatos de arquivos de entrada e sa?da, sendo seu c?digo fonte dispon?vel para distribui??o.
|
446 |
RSAPP, um algoritmo baseado em rough sets para aux?lio ao processo de descoberta de conhecimento em banco de dadosSilveira, Juliano Gomes da 14 March 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:07Z (GMT). No. of bitstreams: 1
451416.pdf: 14714043 bytes, checksum: 81e6c7473cbbdc708a5b414e1b3ffc85 (MD5)
Previous issue date: 2013-03-14 / Techniques of Business Intelligence (BI) became one of the main allies of organizations in tasks of transforming data into knowledge, supporting the middle and upper management levels in decision making. BI tools in their composition are based on techniques of knowledge management, such as Data Warehouse (DW), OLAP (Online Analytical Processing), Data Mining (DM), among others. In this context, it is observed that in many case, DM projects become unfeasible by some factors, such as project costs, duration and specially the uncertainty in obtaining results that return the investment spent on the project. This work seeks to minimize these factors through a diagnosis on data, by an algorithm based on Rough Sets Theory. The algorithm, named Rough Set App (RSAPP) aims to create a diagnosis on data persisted in DW, in order to map which attributes have the greatest potential for generating more accurate mining models and more interesting results. Thus, it is expected that the diagnosis generated by RSAPP can complement the KDD (Knowledge Discovery in Database) process, reducing the time spent on activities of understanding and reducing data dimensionality. This work presents a detailed description about the implemented algorithm, as well as the report of the executed tests. At the end there is an empirical analysis of the results, in order to estimate the effectiveness of the proposed algorithm. / As t?cnicas, business intelligence (BI) firmaram-se como grandes aliadas das organiza??es nas tarefas de transformar dados em conhecimento, apoiando a m?dia e alta gest?o na tomada de decis?es. As ferramentas de BI em sua, composi??o s?o fundadas em t?cnicas de gest?o do conhecimento, tais como Data Warehouse (DW), OLAP (Online Analytical Processing), minara??o de dados (MD), entre outras. Neste contexto, observa-se que em muitos casos, projatos de MD acabam sendo inviabilizados por alguns fatores, tais como, custo do projeto, dura??o e principalmente, a incerteza na obten??o de resultados que retornem o investimento despedindo no projeto. O presente trabalho busca minimizar os fatores acima por meio um diagn?stico sobre dados, atrav?s de um algoritmo baseado em Rough Sets Theory (Teoria dos Conjuntos Aproximados (TCA)). O algoritmo desenvolvido, nomeado Rough Set App (RSAPP) objetiva criar um diagn?stico sobre os dados persistidos no DW, a fim de mapear quais atributos possuem maior potencial de gerar modelos de minera??o mais preciosos e resultados mais interessantes. Desta forma, entende-se que o diagn?stico gerado por RSAPP pode complementar o processo de KDD (Knowledge Discovery in database), reduzindo o tempo gasto nas atividades de entendimento e redu??o da dimensionalidade dos dados. No trabalho se faz uma descri??o detalhada acerca do algoritmo implementado, bem como o relato dos, testes que foram executados. Ao final faz-se uma an?lise emp?rica sobre os resultados a fim de estimar a efic?cia do algoritmo quanto a sua proposta.
|
447 |
Análise estrutural e proposta de um sistema de informações para um Núcleo de Informações TecnológicasBossle, Rosane January 1996 (has links)
O presente trabalho tem por objetivo analisar, sob o ponto-de-vista administrativo, a situação de um Núcleo de Informações Tecnológicas (NiET), identificando suas características atuais e seu potencial, e propor um sistema de informações que privilegie a operação de suas principais funções internas. Como método de pesquisa, utilizou-se a Pesquisa-Ação. O sistema de informações proposto é composto por módulos orientados para organização dos dados internos e para controle dos processos e informações dos projetos de pesquisa executados na Fundatec. O estudo apresenta como resultados a definição da estrutura e das rotinas de trabalho do NiET, bem como a avaliação de perspectivas para seu desenvolvimento. / The objective of this research is to analyse, from the administrative point of view, the situation o the NiET. lt identifies its actual characteristics and its potencial, and proposes an information system in which the main functions of the Nucleus are considered. Action-Research was used as the research method. The proposed informatyion system is composed by three modules oriented to the organization of the internai data and to the contrai of processes and informations utilized by the research projects developed in Fundatec. The results presented by the study are the definition of the structure and the work procedures of NiET, as well as an assessment of the perspectives for its improvement.
|
448 |
Extração de informações de conferências em páginas webGarcia, Cássio Alan January 2017 (has links)
A escolha da conferência adequada para o envio de um artigo é uma tarefa que depende de diversos fatores: (i) o tema do trabalho deve estar entre os temas de interesse do evento; (ii) o prazo de submissão do evento deve ser compatível com tempo necessário para a escrita do artigo; (iii) localização da conferência e valores de inscrição são levados em consideração; e (iv) a qualidade da conferência (Qualis) avaliada pela CAPES. Esses fatores aliados à existência de milhares de conferências tornam a busca pelo evento adequado bastante demorada, em especial quando se está pesquisando em uma área nova. A fim de auxiliar os pesquisadores na busca de conferências, o trabalho aqui desenvolvido apresenta um método para a coleta e extração de dados de sites de conferências. Essa é uma tarefa desafiadora, principalmente porque cada conferência possui seu próprio site, com diferentes layouts. O presente trabalho apresenta um método chamado CONFTRACKER que combina a identificação de URLs de conferências da Tabela Qualis à identificação de deadlines a partir de seus sites. A extração das informações é realizada independente da conferência, do layout do site e da forma como são apresentadas as datas (formatação e rótulos). Para avaliar o método proposto, foram realizados experimentos com dados reais de conferências da Ciência da Computação. Os resultados mostraram que CONFTRACKER obteve resultados significativamente melhores em relação a um baseline baseado na posição entre rótulos e datas. Por fim, o processo de extração é executado para todas as conferências da Tabela Qualis e os dados coletados populam uma base de dados que pode ser consultada através de uma interface online. / Choosing the most suitable conference to submit a paper is a task that depends on various factors: (i) the topic of the paper needs to be among the topics of interest of the conference; (ii) submission deadlines need to be compatible with the necessary time for paper writing; (iii) conference location and registration costs; and (iv) the quality or impact of the conference. These factors allied to the existence of thousands of conferences, make the search of the right event very time consuming, especially when researching in a new area. Intending to help researchers finding conferences, this work presents a method developed to retrieve and extract data from conference web sites. Our method combines the identification of conference URL and deadline extraction. This is a challenging task as each web site has its own layout. Here, we propose CONFTRACKER, which combines the identification of the URLs of conferences listed in the Qualis Table and the extraction of their deadlines. Information extraction is carried out independent from the page’s layout and how the dates are presented. To evaluate our proposed method, we carried out experiments with real web data from Computer Science conferences. The results show that CONFTRACKER outperformed a baseline method based on the position of labels and dates. Finaly, the extracted data is stored in a database to be searched with an online tool.
|
449 |
Identificando fontes de dados em modelos de processos de negócios com base em elementos de BPMNBalbinot, Marcelo January 2017 (has links)
A Notação e Modelo de Processo de Negócio (BPMN - Business Process Model and Notation) possibilita apresentar informações sobre o fluxo de dados de um processo por meio de dados e artefatos, tais como objetos, associações e repositórios de dados. No entanto, esses elementos apresentam poder de expressão limitado, principalmente quando se referem ao mapeamento das fontes de dados (ex.: serviço web) em um modelo de processo. Neste contexto, o presente trabalho propõe uma abordagem para associar fontes de dados a elementos de BPMN (ex.: tarefa de serviço). Tal abordagem deve servir como um ponto de partida para profissionais de gerenciamento de processos de negócio quanto ao mapeamento, na etapa de modelagem, da fonte de dados que está sendo utilizada pelo processo, através da utilização de elementos de BPMN. Visando demonstrar os resultados, foram evidenciadas cinco correlações, que são chamadas de “propostas de definições”, seguidas por sua descrição textual e um exemplo de uso. Essas propostas de definições, juntamente com as fontes de dados utilizadas, foram avaliadas por meio de uma pesquisa de opinião. Como resultado, destaca-se que as fontes de dados selecionadas foram validadas pelos participantes da pesquisa de opinião, que demonstraram conhecimento em ao menos uma das fontes de dados, fornecendo indícios que as fontes de dados selecionadas são as mais apropriadas para o trabalho em questão. Ainda, como resultados, as propostas de definições foram validadas com os participantes, obtendo resultados positivos quanto aos fragmentos de processo elaborados para representar as fontes de dados internos, transferência de arquivos e base de dados compartilhada. A principal contribuição deste trabalho é auxiliar na identificação de fontes de dados de um processo de negócio, a partir do conjunto de elementos disponibilizado pela BPMN 2.0.2, onde, anteriormente, tal identificação era possível apenas através da documentação do processo. / Business Process Model and Notation (BPMN) makes it possible to display information about the data flow of a process through data and artifacts such as objects, associations and data stores. However, these elements provide a limited capacity, especially when referring to the mapping of the data sources (e.g. web service) in a process model. In this context, this paper proposes an approach to associate data sources to BPMN elements (e.g. service task). Such approach aims to serve as a starting point to business process management professionals in order to map, in design time, the data source that is being used by the process, through the use of BPMN elements. In order to demonstrate the results, five correlations were evidenced, which are called “definitions proposals”, followed by their textual description and an example of use. These definitions proposals, together with the data sources used, were evaluated through a survey. As a result, the selected data sources were validated by the participants of the survey that demonstrated knowledge in at least one of the data sources, providing evidence that the selected data sources are the most appropriated for the work concerned. Also, as results, the definitions proposals were validated with the participants, obtaining positive results regarding to the process fragments designed to represent the data sources internal data, file transfer and shared database. The main contribution of this thesis is to assist the identification of data sources of a business process, from the set of elements provided by BPMN 2.0.2, where, previously, such identification was only possible through the process documentation.
|
450 |
AwARE : an approach for adaptive recommendation of resources / AwARE: an Approach for Adaptive Recommendation of rEsourcesMachado, Guilherme Medeiros January 2018 (has links)
Sistemas de recomendação foram propostos no início da década de 1990 com o objetivo de auxiliar seus usuários a lidar com a sobrecarga cognitiva criada com o advento da internet e o aumento constante de documentos. De lá para cá tais sistemas passaram a assumir vários outros papéis, tais como “auxiliar usuários a explorar”, “melhorar a tomada de decisão”, ou até mesmo “entreter”. Para atingir tais novos objetivos, o sistema necessita olhar para características do usuário que auxiliem no entendimento da tarefa desempenhada pelo usuário e como a recomendação pode auxiliar tal tarefa. Nesse sentido, propõe-se nessa tese uma integração entre estratégias de recomendação e de adaptação para criar um novo processo de recomendação adaptativa. É mostrado que tal integração pode melhorar a acurácia da recomendação, e dar bons resultados na retenção de usuários, e na interação destes com os sistemas. Para validar a abordagem, é implementado um protótipo para recomendação de filmes a serem utilizados em sala de aula. São também coletadas estatísticas de 78 usuários que participaram do experimento de avaliação da abordagem. / Recommender systems were proposed in early 90’s with the goal to help users deal with cognitive overload brought by the internet and the constant increase of documents. From there to now such systems have assumed many other roles like “help users to explore”, “improve decision making”, or even “entertain”. To accomplish such new goals, the system needs to look to user characteristics that help in understand what the user task is and how to adapt the recommendation to support such task. In this direction, it is proposed in this thesis an integration between recommender and adaptive strategies into a new process of adaptive recommendation. It is shown that such integration can improve recommendation accuracy and give good results to user retention, and interaction with the systems. To validate the approach, it is implemented a prototype to recommend movies to be used in a classroom. It is also collected some statistics about the 78 users who have participated of the experiment for evaluation of the new approach.
|
Page generated in 0.0814 seconds