• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 538
  • 36
  • 5
  • 2
  • Tagged with
  • 584
  • 161
  • 129
  • 99
  • 99
  • 82
  • 80
  • 73
  • 71
  • 57
  • 57
  • 55
  • 51
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Investigação computacional da vitrificação da água de solvatação do DNA

Gonzatti, Guilherme Kilpp January 2012 (has links)
Motivado por evidencias experimentais, foram realizadas extensivas simulações clássicas de dinâmica molecular de soluções aquosas de DNA visando investigar a transição vítrea. Estudou-se o dodecâmero de Dickerson solvatado por moléculas de água do modelo TIP5P e TIP3P em temperaturas de 300 à 240 K e de 300 à 200 K, respectivamente. Análise de propriedades dinâmicas e estruturais mostram que o modelo TIP3P não é capaz de transição vítrea, mas que sistemas compostos pelo modelo TIP5P é capaz de apresentar a transição vitrea dinâmica. / Motivated by experimental evidences, extensive classical molecular dynamics were performed to investigate de glass transition of aqueous solutions of DNA. The Dickerson dodecamer solvated by water molecules of models TIP3P and TIP5P were studied in the range of 300 to 240 K and 300 to 200 K, respectively. Analysis of dynamical and structural properties reveal that the model TIP3P is unable of performing glass transition, but systems with TIP5P can present dynamic glass transition.
32

Uma nova abordagem do Real AdaBoost resistente a overfitting para classificação de dados binários

SILVA JÚNIOR, Valter Eduardo da 26 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T18:16:12Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) / Made available in DSpace on 2017-11-29T18:16:12Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) Previous issue date: 2016-08-26 / O estudo da Inteligência Artificial (IA) e de suas técnicas tem trazido grandes resultados para a evolução da tecnologia em diversas áreas. Técnicas já conhecidas como as Redes Neurais (RN) e Árvores de Decisão (AD) vêm sendo aprimoradas por técnicas de Boosting como o Adaptive Boosting (AdaBoost). Esta técnica é uma das que apresenta maior perspectiva de crescimento devido a seu potencial, flexibilidade e simplicidade para ser implementada em diferentes cenários, como por exemplo, no tratamento para reconhecimento de padrões. Desde o seu surgimento surgiram várias variantes do AdaBoost, as mais conhecidas são o Real AdaBoost (RAb) e Gentle AdaBoost (GAb), no intuito de obter um melhor desempenho. Um problema peculiar do Real AdaBoost é relacionado a base de dados com ruído. Vários artigos sugerem que o Real AdaBoost é sensível a um nível alto de ruído. A partir desse problema será proposto uma nova variante do Real AdaBoost com o objetivo de reduzir esta sensibilidade ao ruído visto ao aparecimento de overfitting nas bases de testes dos problemas com ruído. A nova variante do Real Adaboost será chamada de Noise Real AdaBoost (NRAb), onde será aplicada em base de dados simuladas e reais e será utilizado Real AdaBoost e Gentle AdaBoost para comparar o desempenho em relação a nova variante proposta nesta dissertação. / The study of Artificial Intelligence (AI) and its techniques have brought great results for the evolution of technology in various fields. Known techniques such as Neural Networks (RN) and Decision Trees (AD) have been enhanced by Boosting techniques such as Adaptive Boosting (AdaBoost). This technique is one that has greater prospect of growth potential due to its flexibility and simplicity to be implemented in different scenarios, such as in treatment for pattern recognition. Since its inception AdaBoost were several variants, the best known are the Real AdaBoost (RAB) and Gentle AdaBoost (GAB) in order to get better performance. A peculiar problem of Real AdaBoost is related to noise with database. Several articles suggest that Real AdaBoost is sensitive to a high noise level. From this problem a new variant of Real AdaBoost in order to reduce this sensitivity to noise seen the emergence of overfitting in the problems with noise test bases will be proposed. The new variant of the Real AdaBoost will be called Noise Real AdaBoost (NRAb), which will be applied to simulated and real data base and will be used Real AdaBoost and Gentle AdaBoost to compare performance against the new variant proposed in this dissertation.
33

Estudo da estrutura porosa de empacotamento compacto aleatório de esferas rígidas.

SANTANA, D. W. O. 29 September 2017 (has links)
Made available in DSpace on 2018-08-01T21:59:24Z (GMT). No. of bitstreams: 1 tese_11430_Dissertação final Deivid Wilson Oliveira Santos.pdf: 3557089 bytes, checksum: 1e479b0b6461bcfe5a25b3ff9df4d107 (MD5) Previous issue date: 2017-09-29 / No início, o estudo dos empacotamentos compactos de corpos tinha a simples função de otimizar espaço físico. Os estudos pioneiros obtiveram grandes resultados em empacotamento de corpos com geometrias simples, proporcionado a utilização deste estudo para modelar a nascente estrutura atômica. Os estudos foram avançando até o ponto de serem utilizados para modelar estruturas complexas, como aglomerados de células e materiais heterogêneos porosos, sendo este último foco deste trabalho. Para esse objetivo, construímos empacotamentos compactos aleatórios de esferas rígidas, gerados por algoritmos computacionais comumente reportados na literatura. Nossos estudos caracterizaram do ponto de vista estatístico o meio poroso formado pelas regiões vazias do empacotamento aleatório de esferas. Seus descritores estatísticos, a função de autocorrelação estatística de dois-pontos 𝑆2(𝑟) e distribuição de tamanho de poros foram calculados e analisados. Particular ênfase foi dada ao cálculo da entropia da distribuição de tamanhos de poros e a sua interpretação em termos da proximidade do sistema ao limite de máxima densidade. Por último, fizemos a reconstrução da função de autocorrelação calculada numa rocha natural da formação Lagoa-Salgada, a partir de medidas estatísticas realizadas sobre um empacotamento compacto aleatório de esferas interpenetráveis. Este último ponto estudado é relevante no sentido que o estudo mostrou que é possível reconstruir, mesmo que parcialmente, a estrutura porosa de um material poroso natural. De forma geral, os resultados encontrados neste trabalho reproduziram resultados abordados na literatura sobre a caracterização morfológica de meios heterógenos, além de fornecer novas ideias acerca da possibilidade de utilizar ferramentas estatísticas visando reproduzir a morfologia porosa observada em rochas naturais.
34

Uma proposta para a introdução ao estudo da eletrostática para alunos do Ensino Médio

FERNANDES, S. J. 24 August 2018 (has links)
Made available in DSpace on 2018-08-28T14:05:18Z (GMT). No. of bitstreams: 1 tese_12521_Dissertação preliminar - aluno Sanderley de Jesus Fernandes.pdf: 6980767 bytes, checksum: 5bd9460296d2b94b82444f9d0bfd183c (MD5) Previous issue date: 2018-08-24 / Neste trabalho, apresentamos uma proposta de um plano complementar de atividades ao Livro-Texto sobre Eletrostática, sob a luz dos pressupostos teóricos e metodológicos da Aprendizagem Significativa de David Ausubel, com a colaboração da Teoria da Motivação no contexto escolar, de José Aloyseo Bzuneck e do método de Ensino Ativo Instrução pelos Colegas (Peer Instruction) de Eric Mazur. A pesquisa foi realizada com alunos da terceira série do ensino médio, em uma escola pública estadual do Espírito Santo, localizada no município de vitória, entre os meses de fevereiro a maio de 2017. Os instrumentos de coleta de dados foram o Pré-Teste, o Pós-Teste, Questionário de Opinião dos Estudantes e as Anotações do Professor. O delineamento escolhido para o trabalho foi o do tipo experimental e a análise dos dados proveniente dos testes, teve enfoque quantitativo. Os dados provenientes do Questionário de Opinião dos Estudantes e das Anotações do Professor foram analisados qualitativamente. Os resultados dos testes estatísticos apontaram que o Plano Complementar elaborado contribuiu para a melhoria do rendimento no Pós-teste dos alunos do Grupo Experimental em relação do Grupo Controle. A análise do Questionário de Opinião dos Estudantes indica que atividades experimentais e recursos multimídias despertam o interesse dos alunos e que o método Instrução pelos Colegas também possui capacidade de engajar os estudantes.
35

Modelo computacional para simular a equação da velocidade de infiltração da água no solo / not available

Marques Junior, Sergio 30 April 1993 (has links)
O objetivo do trabalho foi desenvolver um modelo de simulação capaz de estimar a equação de velocidade de infiltração da água no solo o procedimento matemático de estimativa foi baseado na técnica das diferenças finitas, no qual estima-se o volume de água que atravessa uma camada imaginária num dado intervalo de tempo. Os parâmetros necessários à simulação foram: umidade inicial, curva de retenção, condutividade hidráulica em meio saturado, densidade global e carga hidráulica. A aferição do modelo foi realizada a partir de testes de infiltração com colunas verticais de solo utilizando-se solos pertencentes a duas classes texturais distintas. Os parâmetros que mais influenciaram na simulação das equações de infiltração foram o intervalo de tempo e a condutividade hidráulica em meio saturado. Dentro do universo amostrado, não se verificou influência significativa do parâmetro volume hipotético da camada nas estimativas das equações de velocidade de infiltração / not available
36

Desenvolvimento de um sistema computacional para análise de experimentos em blocos incompletos / not available

Sarríes, Gabriel Adrián 11 May 1989 (has links)
Neste trabalho é apresentado o desenvolvimento de um sistema computacional para análise estatística de experimentos com delineamentos em Blocos Incompletos Balanceados ou Desbalanceados. O SABI -"Sistema para Análise em Blocos Incompletos"fornece diversas informações estatísticas, Quadro de análise de Variância completo, Testes de Hipóteses, Intervalos de Confiança e Teste de Comparações Múltiplas de Tukey. No módulo"Blocos Incompletos Desbalanceados", incluem-se procedimentos para estudo da estrutura de conexão do delineamento utilizando-se o processo"R", econômico em memória e tempo de computador. Para resolução do sistema de equações normais, cálculo de somas de quadrados ajustados e ponto de matrizes utiliza-se o algoritmo SWEEP. Pelo fato do sistema estar documentado e ser desenvolvido utilizando-se técnicas de programação estruturada, com diversos procedimentos de uso geral, o presente trabalho pode servir como estrutura de base para outros sistemas com maiores recursos, para análise de experimentos com delineamento em Bloco (por exemplo Blocos Multivariados, Análise de Covariância e Regressão Polinomial) ou, inclusive, para outros delineamentos experimentais. Fica comprovada a necessidade de documentação adequada no desenvolvimento de sistemas, aspecto que não tem recebido muita atenção em"softwares"brasileiros. Essa documentação contribui efetivamente no desenvolvimento, manutenção e testes do sistema desenvolvido, bem como facilita a comunicação entre os integrantes da equipe, aspecto importante em projetos de natureza interdisciplinar / In this work is showed the development of a computation system to statistical analysis of experiments in Incomplete Balanced or Unbalanced Blocks designs. The SABI -"System for Analysis in Incomplete Blocks"gives different statistical informations, complete Analysis of Variance Table, hypothesis tests, confidence intervals and the Tukey method for multiple comparisions. In the"Unbalanced Incomplete Blocks"module was included procedures for study of the connection structure design, by using the"R"Process, economic in memory and time of computer. For the resolution of the normal equation system, sums of squares and the matrices rank, was used the SWEEP algorithm. Because the system is documented and developed making use of techniques of strutured programation, with various procedures of general use, the present work can serve as a base to others system with bigger recourses, to analysis of experiments in incomplete block designs (for example, multivariate blocks, covariance and Polynomial regression analysis or even for others experimental designs). It was confirmed the necessity of good documentation in system development, aspect that don't have been recieved atentation in Brazilian softwares. This documentation contributes effectively in the development, maintenance and tests of the developed system, as well facilitate the comunication between the integrants of a staff, important aspect in projects of interdisciplinar nature
37

Problematizando Educação, Matemática(s) e Tecnologias numa Prática Pedagógica no Ensino fundamental

Nicaretta, Elisângela Isabel 14 June 2013 (has links)
Submitted by Ana Paula Lisboa Monteiro (monteiro@univates.br) on 2013-09-09T17:20:40Z No. of bitstreams: 3 ElisangelaNicaretta.pdf: 16372246 bytes, checksum: 9ff3d3beff788faf4ee7b50e641303fd (MD5) license_text: 20104 bytes, checksum: 51af78e04b2b7282958fd46d2b35f35c (MD5) license_rdf: 23599 bytes, checksum: 9e2b7f6edbd693264102b96ece20428a (MD5) / Approved for entry into archive by Ana Paula Lisboa Monteiro (monteiro@univates.br) on 2013-09-09T17:28:47Z (GMT) No. of bitstreams: 3 ElisangelaNicaretta.pdf: 16372246 bytes, checksum: 9ff3d3beff788faf4ee7b50e641303fd (MD5) license_text: 20104 bytes, checksum: 51af78e04b2b7282958fd46d2b35f35c (MD5) license_rdf: 23599 bytes, checksum: 9e2b7f6edbd693264102b96ece20428a (MD5) / Made available in DSpace on 2013-09-09T17:28:47Z (GMT). No. of bitstreams: 3 ElisangelaNicaretta.pdf: 16372246 bytes, checksum: 9ff3d3beff788faf4ee7b50e641303fd (MD5) license_text: 20104 bytes, checksum: 51af78e04b2b7282958fd46d2b35f35c (MD5) license_rdf: 23599 bytes, checksum: 9e2b7f6edbd693264102b96ece20428a (MD5) / A presente dissertação evidencia alguns resultados de uma prática pedagógica investigativa efetivada com uma turma de alunos da oitava série do ensino fundamental em uma escola localizada num pequeno município do Rio Grande do Sul, Brasil. Os aportes teóricos que sustentam a investigação são os relativos ao campo da educação matemática denominado de Etnomatemática em seus entrecruzamentos com as teorizações sobre a incorporação de recursos tecnológicos nas aulas da disciplina Matemática. Tendo como objetivo elaborar uma prática pedagógica para uma turma de alunos da oitava série da uma escola municipal localizada no município de Candelária, RS, centrada na temática ―agricultura familiar‖, o material de pesquisa foi constituído por entrevistas por meio da técnica de grupo focal, material escrito e produzido pelos alunos e anotações no diário de campo da professora pesquisadora. A análise efetivada sobre o material de pesquisa apontou que: a) os alunos, ao se reportarem à Matemática, declararam que a disciplina é difícil e expressa por regras como formalismo, linearidade e abstração, bem como a supremacia da escrita em detrimento da oralidade, e b) estes atribuíram importância à diversidade de culturas para o município, entretanto argumentaram que o cultivo do fumo deve permanecer, por ser mais rentável.
38

Estimação de razão de azares por meio de regressão quantílica para dados com censura à direita : uma abordagem computacional

Bessel, Marina January 2017 (has links)
O modelo de riscos proporcionais de Cox é um dos métodos mais utilizados na pesquisa clínica e epidemiológica para a análise de dados censurados, em grande parte por não exigir o conhecimento da distribuição de probabilidades do tempo. A principal suposição do modelo é a proporcionalidade de riscos ao longo do tempo, que pode ser restritiva em algumas situações práticas, como relações não lineares nas covariáveis ou efeitos de tratamentos que declinam no tempo. O modelo impõe uma estrutura global na função de sobrevivência e estima um único “efeito” médio, impossibilitando assim a estimação de “efeitos” das covariáveis localmente. A análise de dados censurados pode ser ainda mais complexa nos casos em que as censuras ocorrem somente em determinados períodos do tempo. Uma abordagem recente é o uso de modelos de regressão quantílica para dados de sobrevivência. São métodos robustos e flexíveis, no sentido em que permitem descrever a relação dos preditores em diferentes quantis da distribuição do tempo de sobrevivência. Pode ser vantajosa particularmente quando não estão atendidas as suposições de proporcionalidade de riscos e de linearidade. A grande maioria dos trabalhos sobre regressão de sobrevivência quantílica aborda aspectos da estimação dos parâmetros do modelo. No contexto epidemiológico, no entanto, frequentemente o objetivo é estimar o efeito (ou associação) de uma determinada exposição sobre o tempo até a ocorrência do evento. Este trabalho apresenta uma revisão das abordagens para estimação dos coeficientes do modelo de regressão quantílica para dados com censura à direita e uma abordagem computacional para estimar a função de risco (hazard rate) e razões de azares (hazard ratio) utilizando regressão quantílica. Os resultados das simulações mostraram que as estimativas de razão de azares diminuem na direção do valor de referência ao logo do tempo de acompanhamento. / The Cox proportional hazards model is one of the most widely used methods in clinical and epidemiological research for the analysis of censored data, largely because it does not require knowledge of survival time density. The main assumption of the model is proportionality of risks over time, which may be restrictive in some practical situations, such as nonlinear relationships in covariates or effects of treatments that decline over time. The model imposes a global structure on the survival function and estimates a single mean "effect", making it impossible to estimate the "effects" of the covariates locally. Analysis of censored data may be even more complex in cases where censoring occurs only in certain periods of time. A recent approach is the use of quantile regression models for survival data. They are methods robust and flexible, in the sense they allows to describe the relationship of the predictors in different quantiles of the distribution of survival time. It may be advantageous particularly where the proportionality assumptions of risk and linearity are not met. The vast majority of the work on quantile survival regression addresses aspects of estimation of parameters. In the epidemiological context, however, the objective is often to estimate the effect (or association) of a given exposure to the occurrence of the event over time. This work presents a review of the approaches to estimate the coefficients of the quantile regression model for right censored data as well as a computational approach to estimate the hazard rate and hazard ratio using quantile regression. The results of the simulation study show that the hazard ratio estimates decreases towards the reference value as the follow-up time increase.
39

Códigos corretores de erros para gravação magnética

GUIMARÃES, Walter Prado de Souza January 2003 (has links)
Made available in DSpace on 2014-06-12T17:40:08Z (GMT). No. of bitstreams: 2 arquivo7005_1.pdf: 993484 bytes, checksum: f286dbf73543fef0fd5d39ce4a83df79 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / À medida que a necessidade por informação, juntamente com novas ferramentas computacionais, aumenta com o passar dos anos, o armazenamento de dados se torna mais e mais importante. O processo de gravação magnética usando códigos corretores de erros vem se constituindo em uma boa solução para fazer com que sistemas se tornem bastante confiáveis e eficientes. O foco desta dissertação está em como se obter esta eficiência e confiabilidade em sistemas de gravação magnética usando códigos corretores de erros. Esta dissertação está dividida em duas partes. A primeira trata da preservação dos dados contra problemas típicos em gravação magnética. A confiabilidade é obtida pelo uso de um eficiente código matricial com entrelaçamento simples, ou seja, uma dimensão entrelaçada (coluna) e um código corretor de erros aleatórios ou um código corretor de surtos de erros sendo usado para codificação das linhas do referido código. Este método é proposto para melhorar significativamente o desempenho na correção de manchas de erros por meio do uso apropriado de redundância de dados. Este método incorpora simplicidade e eficiência, conseqüentemente resultando em sistemas mais simples e robustos. A segunda parte trata de criptossistemas de chave secreta usando códigos corretores de erros. É realizada uma revisão teórica do assunto juntamente com a exposição de uma nova proposta de uso de códigos matriciais com entrelaçamento simples. Este sistema simplificado é uma adaptação de criptossistemas conhecidos e tem por objetivo possibilitar a sistemas de gravação magnética a capacidade de proteção dos dados contra ataques inimigos
40

Um modelo de diagnÃstico e hierÃrquico para tolerÃncia a ataques de manipulaÃÃo de resultados em grades computacionais / A model of diagnosis distributed hierarchical and tolerance to the attacks of manipulation of results in computational grids

Felipe Sampaio Martins 08 August 2006 (has links)
FundaÃÃo de Amparo à Pesquisa do Estado do Cearà / Information security in grid computing involves requirements that go beyond the traditional networks. Concerning specifically Integrity, most of existing solutions deal with it only during data transmission, ensuring non-violation of data in the communication between machines. Nevertheless, it is also necessary to guarantee data integrity during its processing, so that jobs results must not suffering any improper handling. Otherwise, the results manipulation compromises the application as a whole, also causing a high processing overhead. In order to avoid that grid users obtain uncorrected results due to malicious elements, this work proposes a diagnosis model for tolerating security faults in largescale computational grids, considering the integrity verification during job processing. In this way, it is possible to exclude those misbehaving processing units (nodes) interested in damaging the execution of processes, providing thus a high performance computing environment only formed by reliable nodes. The usage of system-level diagnosis as a strategy against jobs results manipulation attacks reveals itself an efficient solution, since it does not depend on the hardware platform and it is interoperable with security local solutions. This feature allows the employment of the proposed model at the majority of grid computing middlewares. Furthermore, the proposed diagnosis model organizes the nodes into logical clusters, establishing a hierarchy among them, in accordance to the role of each node (executor, tester or ultra-reliable), assigned through its historical behavior in the environment. This approach enables diagnosis to be made in a distributed way with the participation of nodes that provide an expected degree of confidence. To validate this strategy, a new security layer was implemented in a grid simulator in order to introduce the assertions and the behaviors described in the proposed model. The results testify the effectiveness of the model at scenarios with different quotas of malicious nodes, providing a rate of detection of 100% and accuracy of 99,7% of processed jobs, with 12,3% of overhead. / A seguranÃa da informaÃÃo em grades computacionais envolve requisitos que vÃo alÃm dos estabelecidos para as redes convencionais. Tratando-se especificamente de Integridade, a maioria das soluÃÃes existentes resolve essa questÃo apenas no escopo de transmissÃo, garantindo a nao-violaÃÃo dos dados durante a comunicaÃÃo entre as maquinas. Todavia, e preciso tambÃm garantir a integridade dos dados durante o seu processamento, de modo que os resultados das tarefas (jobs) processados em uma grade nÃo sofram qualquer alteraÃÃo indevida. De outra forma, a manipulaÃÃo de resultados compromete a aplicaÃÃo como um todo, incidindo num alto custo em termos de desempenho. Para evitar que usuÃrios obtenham resultados incorretos em virtude de elementos maliciosos, esta dissertaÃÃo propÃe um modelo de diagnostico para tolerÃncia a falhas de seguranÃa em grades computacionais de larga escala, abordando a verificaÃÃo de integridade na execuÃÃo dos jobs. Desta forma, e possÃvel excluir as unidades de processamento (nÃs) de mà conduta interessadas em comprometer as aplicaÃÃes, oferecendo, portanto, um ambiente de computaÃÃo de alto desempenho formado apenas por nos confiÃveis. A utilizaÃÃo de diagnostico em nÃvel de sistema como estratÃgia contra ataques de manipulaÃÃo de resultados de jobs mostra-se uma soluÃÃo eficaz, visto que independe das plataformas de hardware utilizadas e à interoperavel com soluÃÃes de seguranÃa locais, o que viabiliza seu emprego na maioria das middlewares de grades computacionais. AlÃm disso, o modelo de diagnostico aqui apresentado organiza os nÃs em clusters lÃgicos, estabelecendo assim uma hierarquia entre os mesmos, de acordo com o papel de cada nà (executor, testador ou ultra-confiÃvel), atribuÃdo segundo seu histÃrico comportamental no ambiente. Essa abordagem permite que o diagnÃstico seja feito de forma distribuÃda com a participaÃÃo dos nÃs que possuem um nÃvel mÃnimo de confiabilidade. Para validar esta estratÃgia, uma nova camada de seguranÃa foi implementada em um simulador de grades, a fim de introduzir as asserÃÃes e os comportamentos descritos no modelo proposto. Os resultados obtidos atestam a sua eficÃcia em cenÃrios com diferentes taxas de nÃs mal intencionados, oferecendo um Ãndice de detecÃÃo de 100% e acurÃcia de 99,7% dos jobs processados, com 12,3% de custo de processamento.

Page generated in 0.1006 seconds