• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 168
  • 17
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 191
  • 191
  • 167
  • 114
  • 113
  • 73
  • 56
  • 50
  • 50
  • 45
  • 44
  • 41
  • 40
  • 40
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sifter-T: Um framework escalável para anotação filogenômica probabilística funcional de domínios protéicos / Sifter-T: A scalable framework for phylogenomic probabilistic protein domain functional annotation

Danillo Cunha de Almeida e Silva 25 October 2013 (has links)
É conhecido que muitos softwares deixam de ser utilizados por sua complexa usabilidade. Mesmo ferramentas conhecidas por sua qualidade na execução de uma tarefa são abandonadas em favor de ferramentas mais simples de usar, de instalar ou mais rápidas. Na área da anotação funcional a ferramenta Sifter (v2.0) é considerada uma das com melhor qualidade de anotação. Recentemente ela foi considerada uma das melhores ferramentas de anotação funcional segundo o Critical Assessment of protein Function Annotation (CAFA) experiment. Apesar disso, ela ainda não é amplamente utilizada, provavelmente por questões de usabilidade e adequação do framework à larga escala. O workflow SIFTER original consiste em duas etapas principais: A recuperação das anotações para uma lista de genes e a geração de uma árvore de genes reconciliada para a mesma lista. Em seguida, a partir da árvore de genes o Sifter constrói uma rede bayesiana de mesma estrutura nas quais as folhas representam os genes. As anotações funcionais dos genes conhecidos são associadas a estas folhas e em seguida as anotações são propagadas probabilisticamente ao longo da rede bayesiana até as folhas sem informação a priori. Ao fim do processo é gerada para cada gene de função desconhecida uma lista de funções putativas do tipo Gene Ontology e suas probabilidades de ocorrência. O principal objetivo deste trabalho é aperfeiçoar o código-fonte original para melhor desempenho, potencialmente permitindo que seja usado em escala genômica. Durante o estudo do workflow de pré-processamento dos dados encontramos oportunidades para aperfeiçoamento e visualizamos estratégias para abordá-las. Dentre as estratégias implementadas temos: O uso de threads paralelas; balanceamento de carga de processamento; algoritmos revisados para melhor aproveitamento de disco, memória e tempo de execução; adequação do código fonte ao uso de bancos de dados biológicos em formato utilizado atualmente; aumento da acessibilidade do usuário; expansão dos tipos de entrada aceitos; automatização do processo de reconciliação entre árvores de genes e espécies; processos de filtragem de seqüências para redução da dimensão da análise; e outras implementações menores. Com isto conquistamos aumento de performance de até 87 vezes para a recuperação de anotações e 73,3% para a reconstrução da árvore de genes em máquinas quad-core, e redução significante de consumo de memória na fase de realinhamento. O resultado desta implementação é apresentado como Sifter-T (Sifter otimizado para Throughput), uma ferramenta open source de melhor usabilidade, velocidade e qualidade de anotação em relação à implementação original do workflow de Sifter. Sifter-T foi escrito de forma modular em linguagem de programação Python; foi elaborado para simplificar a tarefa de anotação de genomas e proteomas completos; e os resultados são apresentados de forma a facilitar o trabalho do pesquisador. / It is known that many software are no longer used due to their complex usability. Even tools known for their task execution quality are abandoned in favour of faster tools, simpler to use or install. In the functional annotation field, Sifter (v2.0) is regarded as one of the best when it comes to annotation quality. Recently it has been considered one of the best tools for functional annotation according to the \"Critical Assessment of Protein Function Annotation (CAFA) experiment. Nevertheless, it is still not widely used, probably due to issues with usability and suitability of the framework to a high throughput scale. The original workflow SIFTER consists of two main steps: The annotation recovery for a list of genes and the reconciled gene tree generation for the same list. Next, based on the gene tree, Sifter builds a Bayesian network structure in which its leaves represent genes. The known functional annotations are associated to the aforementioned leaves, and then the annotations are probabilistically propagated along the Bayesian network to the leaves without a priori information. At the end of the process, a list of Gene Ontology functions and their occurrence probabilities is generated for each unknown function gene. This work main goal is to optimize the original source code for better performance, potentially allowing it to be used in a genome-wide scale. Studying the pre-processing workflow we found opportunities for improvement and envisioned strategies to address them. Among the implemented strategies we have: The use of parallel threads; CPU load balancing, revised algorithms for best utilization of disk access, memory usage and runtime; source code adaptation to currently used biological databases; improved user accessibility; input types increase; automatic gene and species tree reconciliation process; sequence filtering to reduce analysis dimension, and other minor implementations. With these implementations we achieved great performance speed-ups. For example, we obtained 87-fold performance increase in the annotation recovering module and 72.3% speed increase in the gene tree generation module using quad-core machines. Additionally, significant memory usage decrease during the realignment phase was obtained. This implementation is presented as Sifter-T (Sifter Throughput-optimized), an open source tool with better usability, performance and annotation quality when compared to the Sifter\'s original workflow implementation. Sifter-T was written in a modular fashion using Python programming language; it is designed to simplify complete genomes and proteomes annotation tasks and the outputs are presented in order to make the researcher\'s work easier.
12

Biologia computacional aplicada para a análise de dados em larga escala / Computational biology for high-through put data analysis

Oliveira, Daniele Yumi Sunaga de 16 April 2013 (has links)
A enorme quantidade de dados que vem sendo gerada por tecnologias modernas de biologia representam um grande desafio para áreas como a bioinformática. Há uma série de programas disponíveis para a análise destes dados, mas que nem sempre são compreendidos o suficiente para serem corretamente aplicados, ou ainda, há problemas que requerem o desenvolvimento de novas soluções. Neste trabalho, nós apresentamos a análise de dados de duas das principais fontes de dados em larga escala: microarrays e sequenciamento. Na primeira, avaliamos se a estatística do método Rank Products (RP) é adequada para a identificação de genes diferencialmente expressos em estudos de doenças complexas, cujo uma das características é a heterogeneidade genética entre indivíduos com o mesmo fenótipo. Na segunda, desenvolvemos uma ferramenta chamada hunT para buscar por genes alvos do fator de transcrição T - um importante marcador de mesoderma com papel chave no desenvolvimento de vertebrados -, através da identificação de sítios de ligação para o T em suas sequências reguladoras. O desempenho do RP foi testado usando dados simulados e dados reais de um estudo de fissura lábio-palatina não-sindrômica, de autismo e também de um estudo que avalia o efeito da privação do sono em humanos. Nossos resultados mostraram que o RP é uma solução eficiente para detectar genes consistentemente desregulados em somente um subgrupo de pacientes, que esta habilidade é mantida com poucas amostras, mas que o seu desempenho é prejudicado quando são analisados poucos genes. Obtivemos fortes evidências biológicas da eficiência do método nos estudos com dados reais através da identificação de genes e vias previamente associados às doenças e da validação de novos genes candidatos através da técnica de PCR quantitativo em tempo real. Já o programa hunT identificou 4.602 genes de camundongo com o sítio de ligação para o domínio do T, sendo alguns deles já demonstrados experimentalmente. Identificamos 32 destes genes com expressão alterada em um estudo onde avaliamos o transcriptoma da diferenciação in vitro de células tronco embrionárias de camundongo para mesoderma, sugerindo a participação destes genes neste processo sendo regulados pelo T / The large amount of data generated by modern technologies of biology provides a big challenge for areas such as bioinformatics. In order to analyze these data there are several computer programs available; however these are not always well understood enough to be correctly applied. Moreover, there are problems that require the development of new solutions. In this work, we present the data analysis of two main high-throughput data sources: microarrays and sequencing. Firstly, we evaluated whether the statistic of Rank Products method (RP) is suitable for the identification of differentially expressed genes in studies of complex diseases, which are characterized by the vast genetic heterogeneity among the individuals affected. Secondly, we developed a tool named hunT to search for target genes of T transcription factor - an important mesodermal marker that plays a key role in the vertebrate development -, by identifying binding sites for T in their regulatory sequences. The RP performance was tested using both simulated and real data from three different studies: non-syndromic cleft lip and palate, autism and sleep deprivation effect in Humans. Our results have shown that RP is an effective solution for the identification of consistently deregulated genes in a subgroup of patients, this ability is maintained even with few samples, however its performance is impaired when only few genes are analyzed. We have obtained strong biological of effectiveness of the method in the studies with real data by not only identifying genes and pathways previously associated with diseases but also corroborating the behavior of novel candidate genes with the real-time PCR technique. The hunT program has identified 4,602 mouse genes containing the binding site for the T domain, some of which have already been demonstrated experimentally. We identified 32 of these genes with altered expression in a study which evaluated the transcriptome of in vitro differentiation of mouse embryonic stem cells to mesoderm, suggesting the involvement of these genes in this process regulated by T
13

Elaboração de itens para avaliações em larga escala / Elaboration of items for large scale evaluations

Costa, Edson Ferreira 17 May 2018 (has links)
Este trabalho visa auxiliar professores e profissionais da Educação Básica para a elaboração de itens nas avaliações em larga escala. A princípio, é realizado um breve histórico sobre a situação da Educação Básica no país, em meados dos anos 80. Em seguida, são reveladas algumas das medidas planejadas pelos órgãos educacionais na busca por melhorias no cenário educacional brasileiro como, por exemplo, a reestruturação das avaliações em larga escala existentes na década de 90 e a criação de novos exames. O capítulo seguinte apresenta os documentos que são consultados durante este processo de construção dessas avaliações (matrizes curriculares e de referência) com ênfase no Exame Nacional do Ensino Médio (ENEM), pelo fato de ser a avaliação em larga escala de maior abrangência, em nível federal, desde 2009. Os capítulos seguintes revelam a importância do item nas avaliações em larga escala e apresentam alguns modelos elaborados, com base na Matriz de Referência do ENEM. / This work aims to help teachers and professionals of Basic Education to elaborate items in the large scale evaluations. At the outset, a brief history of the situation of Basic Education in the country in the mid-1980s is made. Then, some of the measures planned by the educational agencies are revealed in the search for improvements in the Brazilian educational scenario, such as the restructuring of the large-scale assessments in the 1990s and the creation of new examinations. The following chapter presents the documents that are consulted during this process of construction of these evaluations (curricular and reference matrices) with emphasis on the Exame Nacional do Ensino Médio (ENEM), because it is the large scale federal, since 2009. The following chapters reveal the importance of the item in the large-scale evaluations and present some elaborate models, based on the ENEM Reference Matrix.
14

O debate sobre avaliações em larga escala no Brasil: tensões contextuais e argumentativas / The debate about large scale assessments in Brazil: contextual and argumentation tensions

Ribeiro, Renato Melo 05 October 2018 (has links)
Esta pesquisa teórica investiga a controvérsia acadêmica sobre avaliações em larga escala no Brasil, sistematizando as posições/argumentos desse debate na forma de um continuum argumentativo, além de delinear tensões discursivas e contextuais que circundam e perpassam a polêmica sobre a avaliação da escola básica. A revisão de literatura pertinente e a apreciação dos discursos acadêmicos gravitantes da temática, do ponto de vista teórico-metodológico, orientaram-se pela noção de polifonia (BAKHTIN, 2005; MAINGUENEAU, 2002; CHARAUDEAU; MAINGUENEAU, 2016). Ou seja, pelo esforço de abordar, de forma simultânea e equipolente, as várias vozes que se pronunciam diversamente sobre o tema das avaliações em larga escala no Brasil. Desse modo, a incursão teórica segue por três eixos de sistematização/interpretação: 1) a reconstituição da trama histórica do desenvolvimento do aparelho de avaliação externa no Brasil, por meio de uma periodização interpretativa que põe em relevo as tensões e disputas centrais que incidiram nas discussões entre acadêmicos e especialistas da avaliação; 2) o mapeamento dos conceitos abrangentes (categorias-chave da problemática educacional estreitamente vinculadas à esfera da avaliação), evidenciado tensões potencialmente constitutivas da controvérsia da avaliação; 3) o desvelamento do embate ideológico-discursivo no campo da avaliação e seu desdobramento políticopedagógico em diferentes zonas argumentativas - gradações de um continumm com diferentes graus de apoio e recusa às avaliações externas e em larga escala. Por fim, ao relacionar as tensões discursivas geradoras e as tensões contextuais constitutivas da controvérsia em questão, propõe-se uma formulação teórica exploratória sobre a gênese do continuum argumentativo, com potencial de orientar possíveis desdobramentos teóricos e empíricos da investigação aqui empreendida. / This theoretical research investigates the academic controversy about large scale assessments in Brazil, systematizing the views/arguments of this debate in a form of a continuum argumentation, outlining the discursive and contextual tensions that surround and permeate the polemics about large scale assessment in basic school. The relevant review of the literature and the appraisal of academic discourses about the theme, from the theoretical-methodological point of view, were supported by the notion of polyphony (BAKHTIN, 2005; MAINGUENEAU, 2002; CHARAUDEAU; MAINGUENEAU, 2016). By the effort to approach, simultaneously and in an equipollent way, the different voices that are expressed diversely about the theme of large scale assessment in Brazil. Therefore, the theoretical incursion is in accordance with three pillars of systematization/interpretation: 1) The reconstruction of a historical plot about the development of external assessment apparatus in Brazil, by means of interpreting the periods that highlight the tensions and central disputes in the discussions between scholars and experts in assessment; 2) The mapping of broad concepts ( key-categories of the educational problematic closely linked to the sphere of evaluation), highlight tensions that potentially constitute the controversies of assessment.; 3) the unveiling of the ideologically-discursive conflict in the field of assessment and its political-pedagogical unfolding in different argumentative areas gradations of a continuum with different degrees of support and the refusal of external assessment in large scale. Finally, in relating the discursive tensions generators and the constitutive contextual tensions of the controversy at issue, an exploratory theoretical formulation is proposed about the genesis of the continuum argumentative, with the purpose to guide possible theoretical and empirical unfolding of investigation here pursued.
15

Estimativas de desempenho da estrutura de comunicação de SoC a partir de modelos de transações. / Performance estimation of on-chip communication structures using transaction level modeling.

Eslava Garzon, Johan Sebastian 17 April 2009 (has links)
A complexidade crescente (tanto da funcionalidade como da arquitetura) dos sistemas eletrônicos digitais sobre silício (conhecidos na literatura como System-on-Chip, SoC) exige novas metodologias que permitam diminuir seu tempo de desenvolvimento. O projeto no nível de sistemas (SLD) é proposto para aumentar a eficiência do projeto de SoC. SLD exige novas linguagens (como SystemC) e níveis de abstração (como TLM). A estrutura de comunicação (EC) de um SoC tem apresentado uma crescente importância devido à presença de uma maior quantidade (e funcionalidade) dos módulos a serem comunicados. Portanto, a EC apresenta um grande impacto no desempenho global do SoC. Nesta tese é proposta uma metodologia de projeto da EC chamada de MaLOC (Multi- Abstraction Level On-Chip communications structure design) que é baseada num enfoque top-down que percorre três níveis de transações (TLM). A tomada de decisões é feita utilizando-se duas importantes características que dão a originalidade a nossa proposta: 1) baseadas num conjunto de diversas métricas de desempenho que permite obter resultados mais confiáveis. 2) decisões ASAP (o mais rápido possível), antecipando a tomada de decisões utilizando níveis mais abstratos do que o RTL, permitindo diminuir o tempo de projeto da EC. Para validar a proposta uma série de análises de fidelidade foram realizadas, os resultados indicaram fidelidades maiores do que 96% e em cenários extremos maiores do que 72%. Adicionalmente os tempos de simulação no nível TLM atemporal foi até 2,6 vezes mais rápido do que o nível TLM de precisão de transferências, que foi até 1,6 vezes mais rápido do que o nível TLM de ciclos de relógio (menos abstrato). Estes resultados indicam a validade da metodologia para realizar a tomada de decisões, permitindo uma melhor exploração do espaço de projeto Os estudos de caso permitiram observar que além de configurar a EC procurando o melhor desempenho, MaLOC identificou soluções com menor consumo de energia, através do uso de um conjunto diverso de métricas, e configuração de parâmetros do sistema (tamanho da memória). Estas duas situações indicam o potencial que a metodologia apresenta para o projeto de diferentes tipos de EC, assim como de diferentes componentes de um SoC. / Modern and future System on Chip design requires several methodologies in order to handle their growing complexity (of both functional and architectural issues). System Level Design has emerged as a solution to handle the complex of nowadays and future SoC designs, increasing their efficiency and reducing the time to market. SLD requires new modeling languages (such as SystemC) and abstraction levels (such as Transaction Level Modeling - TLM). The integration of very different and composite IP cores into a SoC makes their physical and logical integration a very difficult task. Hence, the communication structure (CS) presents a significant impact on the SOC global performance. This thesis proposes a novel methodology named MaLOC (Multi-Abstraction Level On- Chip communications structure design) that uses a top-down approach. The parameters configuration is driven by two important considerations: 1) performance metrics based, this enables to obtain a most reliable solution; 2) an ASAP configuration schedule, this enables to reduce the CS design time through the use of higher abstraction levels. A fidelity test was performed. The results showed that in extreme conditions (such as burst size higher than time between transactions) the fidelity obtained was higher than 72%. In normal cases (burst size similar to the time between transactions) the fidelity was higher than 96%. The simulations execution times were compared among the three TLM levels and the results showed that TLM untimed simulations were 2.6 times faster than the TLM transfer accurate, also these were 1.6 times faster than the TLM cycle accurate. This means that TLM untimed simulations are 4 times faster than TLM Cycle accurate, enabling a enhanced space design exploration. The case studies performed showed that MaLOC can be useful to identify solutions that satisfy the performance required reducing the power consumption (reducing activities across the bus). Also, a system parameter was defined using the methodology (memory banks). These two situations indicate the MaLOC potential to design several CS types and SoC configuration parameters.
16

Proposição de um processador por fluxo de dados e de um modelo de simulação

Angelo Sebastião Zanini 01 December 1992 (has links)
Os processadores de arquitetura orientada ao fluxo de dados, denominados Data Flow, são estruturas voltadas a implementação em VLSI em função do grande número de Unidades de Processamento e da vasta rede de interconexão entre os mesmos. Este trabalho visa propor o diagrama de um processador Data Flow e discutir sua implementação em VLSI, bem como avaliar seu funcionamento e desempenho através da proposição de um modelo de simulação utilizando-se programação concorrente.
17

Saresp 2005: as vicissitudes da avaliação em uma escola da rede estadual. / Saresp 2005: the mutability of evaluation in a state school.

Freire, Lilian Rose da Silva Carvalho 12 March 2008 (has links)
Este trabalho aborda, com base em um estudo de caso, as vicissitudes provocadas pelo Sistema de Avaliação do Rendimento Escolar do Estado de São Paulo (Saresp) na dinâmica de uma escola da rede estadual da Grande São Paulo, no decorrer do processo avaliativo do ano de 2005. É seu objetivo investigar o percurso que foi trilhado pela escola, além de apreciar sua eventual articulação com os objetivos traçados pela Secretaria de Educação do Estado de São Paulo (SEE-SP). Fundamentou-se em informações coletadas na escola por meio de observação e questionário aplicado aos professores, discussões realizadas com grupos de professores, diretor, vice-diretor e coordenador pedagógico e análise de documentos produzidos pela escola, pela Diretoria de Ensino e pela SEE-SP. A análise dessas informações possibilitaram compreender e subsidiar o levantamento de hipóteses sobre eventuais repercussões da avaliação externa na dinâmica escolar. Deste modo, este trabalho sinaliza pesquisas que aprofundem hipóteses aqui apresentadas, fundamentais para o aprimoramento das avaliações em larga escala em nossos sistemas de educação, esboçando, ainda, pistas para os gestores educacionais. / This work addresses, based on a study case, the problems caused by the Schooling Evaluation System in the State of Sao Paulo (SARESP) in the dynamics of a state school located in the extended area of Sao Paulo City, during the evaluation process in 2005. The objective of this study was to investigate the steps followed by the school, and to assess how this system intersected with the goals established by the Secretary of Education of the State of Sao Paulo (SEE-SP). This study was founded upon information collected at the school through observation, and from a questionnaire administered to teachers, from group discussions with teachers, the director, the vice director and a teaching coordinator, in addition to the analysis of documents produced by the school, by the Board of Education and by the SEE-SP. The analysis of this information helped to understand the evaluation process and supported the hypothesis that the evaluation by an external system may cause serious repercussions in the school dynamics. Thus, this work indicates that further research is necessary to study the hypotheses raised herein. This is fundamental for the improvement of evaluations on a large scale in our educational systems, which will outline new directions for educational managers.
18

Melhorias na predição da estrutura de larga escala do universo por meio de teorias efetivas de campo / Towards Precise Large Scale Structure Predictions with Effective Field Theories

Rubira, Henrique 10 August 2018 (has links)
Com os próximos grandes projetos the observação do Universo, a cosmologia entrará em uma era de alta precisão de medidas. Novos dados trarão um novo entendimento da evolução do Universo, seus principais componentes e do comportamento da gravi- dade. Sendo assim, é fundamental também ter uma boa predição teórica para a formação de estrutura de larga escala em regime não-linear. A melhor maneira de resolver as equações hidrodinâmicas que descrevem o nosso universo é por meio de simulações cosmológicas na rede. Entretando, estas contém desafios, como a correta inclusão de física bariônica e a diminuição do alto tempo computacional. Uma outra abordagem muito usada é o cálculo das funções de cor- relação por meio de métodos perturbativos (em inglês, Standard Perturbation Theory, ou SPT). Entretanto, esta contém problemas variados: pode não convergir para algu- mas cosmologias e, caso convirja, não há certeza de convergência para o resultado correto. Além disso, há uma escala privilegiada nos limites integrais que envolvem o método perturbativo. Nós calculamos o resultado por esse método até terceira ordem e mostramos que o termo de terceira ordem é ainda maior que o de 2-loops e 3-loops. Isso evidencia alguns problemas descritos com o método perturbativo. O método de Teorias Efetivas de Campo aplicado ao estudo de LSS busca corrigir os problemas da SPT e, desta forma, complementar os resultados de simulações na rede. Em outras áreas da física, como a Cromodinâmica Quântica de baixas energias, EFTs também são usadas como um complemento a essas simulações na rede. EFTs melhoram a predição do espectro de potência da matéria por meio da inclusão dos chamados contra-termos, que precisam ser fitados em simulações. Estes contratermos, que são parâmetros livres, contém importante informação sobre como a física em pequenas escalas afeta a física nas escalas de interesse. Explicaremos os resultados para a predição em 3-loops de EFT, trabalho inédito. É possível usar as EFTs também no problema de conectar a campo de matéria com outros traçadores, como os halos e as galáxias, chamado de bias. Com as EFTs podemos construir uma base completa de operadores para parametrizar o bias. Será explicado como utilizar esses operadores para melhorar a predição do bias em escalas não-lineares. Serão calculados esses termos de EFT em simulações. Também será mostrado como renormalizar o bias em coordenadas de Lagrange. Por fim, será explicada outra importante aplicação das EFTs em cosmologia, mais especificamente em teorias de inflação. EFTs parametrizam desvios nas teorias de um campo único no chamado regime de slow-roll. / With future cosmological surveys, cosmology will enter in the precision era. New data will improve the constraints on the standard cosmological model enhancing our knowledge about the universe history, its components and the behavior of gravity. In this context, it is vital to come up with precise theoretical predictions for the formation of large-scale structure beyond the linear regime. The best way of solving the fluid equations that describe the large-scale universe is through lattice simulations, which faces difficulties in the inclusion of accurate baryonic physics and is very computationally costly. Another approach is the theoreti- cal calculation of the correlation statistics through the perturbative approach, called Standard Perturbation Theory (SPT). However, SPT has several problems: for some cosmologies, it may not converge and even when it converges, we cannot be sure it converges to the right result. Also, it contains a special scale that is the loop momenta upper-bound in the integral. In this work, we show results for the 3-loop calculation. The term of third order is larger than the terms of 2-loops and 3-loops, making explicit SPT problems. In this work, we describe the recent usage of Effective Field Theories (EFTs) on Large Scale Structure problems to correct SPT issues and complement cosmological simulations. EFTs are used in other areas of physics, such as low energy QCD, serving as a complement to lattice calculations. EFT improves the predictions for the matter power spectrum and bispectrum by adding counterterms that need to be fitted. The free parameters, instead of being a problem, bring relevant information about how the small-scale physics affects the scales for which we are trying to make statistical predictions. We show the calculation of the 3-loop EFT counterterms. EFTs are also used to explain main points connecting the matter density field with tracers like galaxies and halos. EFTs highlighted how to construct a complete basis of operators that parametrize the bias. We explain how we can use EFT to improve the bias prediction to non-linear scales. We compute the non-linear halo-bias by fitting the bias parameters in simulations. We also show the EFT renormalization in Lagrangian coordinates. Finally, we explain another critical EFT application to cosmology: in primordial physics. It can be used to parametrize deviations to the slow-roll theory within the inflationary paradigm.
19

Inclusão escolar e avaliação em larga escala : pessoas com deficiência na prova Brasil

Monteiro, Kilza Roberta Assunção 30 June 2010 (has links)
Made available in DSpace on 2015-02-04T21:22:34Z (GMT). No. of bitstreams: 1 Kilza Monteiro.pdf: 627127 bytes, checksum: ca8cec2fcd1bd0b2727ffd6fee66447c (MD5) Previous issue date: 2010-06-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente estudo tem como objetivo analisar a inclusão escolar de pessoas com deficiência, recorrendo aos processos que cercam a aplicação de instrumento de avaliação em larga escala previsto para todos os alunos, a Prova Brasil. Pretende investigar como esses estudantes são atendidos quando de sua aplicação, ou seja, investigar de que forma uma dimensão de política pública de avaliação pode contemplar ou não as políticas de inclusão escolar de pessoas com deficiências. Trata-se de estudo exploratório de caráter qualitativo realizado em cinco municípios da Baixada Santista, com cinco profissionais de Secretarias e Departamento Municipais de Educação, dez membros das equipes de gestão e quinze professores sediados em escolas de ensino fundamental com pessoas com deficiência matriculadas em classe comum. Utiliza questionários e a observação em duas escolas nos dias de aplicação da Prova. A pesquisa justifica-se por sua possibilidade de oferecer um indicativo da implantação das políticas de inclusão que reforçam a questão do direito ao acesso e a permanência das pessoas com deficiência na escola regular e ao mesmo tempo as implicações sobre a realização de avaliação externa no contexto escolar em situação que requer atendimento individualizado, não massificado. Trata-se de estudar, na base do sistema de ensino, a articulação de dois conjuntos de normas, orientações e ações correspondentes. A análise dos dados sugere que a inclusão escolar preconizada está distante de se materializar. Para que a Prova Brasil alcance todos os alunos faz-se necessário garantir a igualdade de condições de participação e atendimento das pessoas com deficiência. No âmbito geral das políticas públicas de educação a inserção de pessoas com deficiência, garantida em lei, ocorre na prática. No entanto, refletem-se na base do sistema educacional as imprecisões e ambiguidades no discurso sobre a inclusão e nele, o atendimento educacional especializado.
20

Estimativas de desempenho da estrutura de comunicação de SoC a partir de modelos de transações. / Performance estimation of on-chip communication structures using transaction level modeling.

Johan Sebastian Eslava Garzon 17 April 2009 (has links)
A complexidade crescente (tanto da funcionalidade como da arquitetura) dos sistemas eletrônicos digitais sobre silício (conhecidos na literatura como System-on-Chip, SoC) exige novas metodologias que permitam diminuir seu tempo de desenvolvimento. O projeto no nível de sistemas (SLD) é proposto para aumentar a eficiência do projeto de SoC. SLD exige novas linguagens (como SystemC) e níveis de abstração (como TLM). A estrutura de comunicação (EC) de um SoC tem apresentado uma crescente importância devido à presença de uma maior quantidade (e funcionalidade) dos módulos a serem comunicados. Portanto, a EC apresenta um grande impacto no desempenho global do SoC. Nesta tese é proposta uma metodologia de projeto da EC chamada de MaLOC (Multi- Abstraction Level On-Chip communications structure design) que é baseada num enfoque top-down que percorre três níveis de transações (TLM). A tomada de decisões é feita utilizando-se duas importantes características que dão a originalidade a nossa proposta: 1) baseadas num conjunto de diversas métricas de desempenho que permite obter resultados mais confiáveis. 2) decisões ASAP (o mais rápido possível), antecipando a tomada de decisões utilizando níveis mais abstratos do que o RTL, permitindo diminuir o tempo de projeto da EC. Para validar a proposta uma série de análises de fidelidade foram realizadas, os resultados indicaram fidelidades maiores do que 96% e em cenários extremos maiores do que 72%. Adicionalmente os tempos de simulação no nível TLM atemporal foi até 2,6 vezes mais rápido do que o nível TLM de precisão de transferências, que foi até 1,6 vezes mais rápido do que o nível TLM de ciclos de relógio (menos abstrato). Estes resultados indicam a validade da metodologia para realizar a tomada de decisões, permitindo uma melhor exploração do espaço de projeto Os estudos de caso permitiram observar que além de configurar a EC procurando o melhor desempenho, MaLOC identificou soluções com menor consumo de energia, através do uso de um conjunto diverso de métricas, e configuração de parâmetros do sistema (tamanho da memória). Estas duas situações indicam o potencial que a metodologia apresenta para o projeto de diferentes tipos de EC, assim como de diferentes componentes de um SoC. / Modern and future System on Chip design requires several methodologies in order to handle their growing complexity (of both functional and architectural issues). System Level Design has emerged as a solution to handle the complex of nowadays and future SoC designs, increasing their efficiency and reducing the time to market. SLD requires new modeling languages (such as SystemC) and abstraction levels (such as Transaction Level Modeling - TLM). The integration of very different and composite IP cores into a SoC makes their physical and logical integration a very difficult task. Hence, the communication structure (CS) presents a significant impact on the SOC global performance. This thesis proposes a novel methodology named MaLOC (Multi-Abstraction Level On- Chip communications structure design) that uses a top-down approach. The parameters configuration is driven by two important considerations: 1) performance metrics based, this enables to obtain a most reliable solution; 2) an ASAP configuration schedule, this enables to reduce the CS design time through the use of higher abstraction levels. A fidelity test was performed. The results showed that in extreme conditions (such as burst size higher than time between transactions) the fidelity obtained was higher than 72%. In normal cases (burst size similar to the time between transactions) the fidelity was higher than 96%. The simulations execution times were compared among the three TLM levels and the results showed that TLM untimed simulations were 2.6 times faster than the TLM transfer accurate, also these were 1.6 times faster than the TLM cycle accurate. This means that TLM untimed simulations are 4 times faster than TLM Cycle accurate, enabling a enhanced space design exploration. The case studies performed showed that MaLOC can be useful to identify solutions that satisfy the performance required reducing the power consumption (reducing activities across the bus). Also, a system parameter was defined using the methodology (memory banks). These two situations indicate the MaLOC potential to design several CS types and SoC configuration parameters.

Page generated in 0.0602 seconds