Spelling suggestions: "subject:"pre"" "subject:"prey""
1 |
Probing Novel Properties of Nucleons and Nuclei via Parity Violating Electron ScatteringMercado, Luis Rafael 01 May 2012 (has links)
This thesis reports on two experiments conducted by the HAPPEx (Hall A Proton Parity Experiment) collaboration at the Thomas Jefferson National Accelerator Facility. For both, the weak neutral current interaction (WNC, mediated by the Z0 boson) is used to probe novel properties of hadronic targets. The WNC interaction amplitude is extracted by measuring the parity-violating asymmetry in the elastic scattering of longitudinally polarized electrons off unpolarized target hadrons. HAPPEx-III, conducted in the Fall of 2009, used a liquid hydrogen target at a momentum transfer of Q2 = 0.62 GeV2. The measured asymmetry was used to set new constraints on the contribution of strange quark form factors (GsE,M to the nucleon electromagnetic form factors. A value of APV = -23.803 +- 0.778 (stat) +- 0.359 (syst) ppm resulted in GEs + 0.517 GMs = 0.003 +- 0.010 (stat) +- 0.004 (syst) +- 0.009 (FF).
PREx, conducted in the Spring of 2010, used a polarized electron beam on a 208Pb target at a momentum transfer of Q2 = 0.009 GeV2. This parity-violating asymmetry can be used to obtain a clean measurement of the root-mean-square radius of the neutrons in the 208Pb nucleus. The Z0 boson couples mainly to neutrons; the neutron weak charge is much larger than that of the proton. The value of this asymmetry is at the sub-ppm level and has a projected experimental fractional precision of 3%.
We will describe the accelerator setup used to set controls on helicity-correlated beam asymmetries and the analysis methods for finding the raw asymmetry for HAPPEx-III. We will also discuss in some detail the preparations to meet the experimental challenges associated with measuring such a small asymmetry with the degree of precision required for PREx.
|
2 |
Busca indexada de padrões em textos comprimidos / Indexed search of compressed textsMachado, Lennon de Almeida 07 May 2010 (has links)
A busca de palavras em uma grande coleção de documentos é um problema muito recorrente nos dias de hoje, como a própria utilização dos conhecidos \"motores de busca\" revela. Para que as buscas sejam realizadas em tempo que independa do tamanho da coleção, é necessário que a coleção seja indexada uma única vez. O tamanho destes índices é tipicamente linear no tamanho da coleção de documentos. A compressão de dados é outro recurso bastante utilizado para lidar com o tamanho sempre crescente da coleção de documentos. A intenção deste estudo é aliar a indexação utilizada nas buscas à compressão de dados, verificando alternativas às soluções já propostas e visando melhorias no tempo de resposta das buscas e no consumo de memória utilizada nos índices. A análise das estruturas de índice com os algoritmos de compressão mostra que arquivo invertido por blocos em conjuntos com compressão Huffman por palavras é uma ótima opção para sistemas com restrição de consumo de memória, pois proporciona acesso aleatório e busca comprimida. Neste trabalho também são propostas novas codificações livres de prefixo a fim de melhorar a compressão obtida e capaz de gerar códigos auto-sincronizados, ou seja, com acesso aleatório realmente viável. A vantagem destas novas codificações é que elas eliminam a necessidade de gerar a árvore de codificação Huffman através dos mapeamentos propostos, o que se traduz em economia de memória, codificação mais compacta e menor tempo de processamento. Os resultados obtidos mostram redução de 7% e 9% do tamanho dos arquivos comprimidos com tempos de compressão e descompressão melhores e menor consumo de memória. / Pattern matching over a big document collection is a very recurrent problem nowadays, as the growing use of the search engines reveal. In order to accomplish the search in a period of time independent from the collection size, it is necessary to index the collecion only one time. The index size is typically linear in the size of document collection. Data compression is another powerful resource to manage the ever growing size of the document collection. The objective in this assignment is to ally the indexed search to data compression, verifying alternatives to the current solutions, seeking improvement in search time and memory usage. The analysis on the index structures and compression algorithms indicates that joining the block inverted les with Huffman word-based compression is an interesting solution because it provides random access and compressed search. New prefix free codes are proposed in this assignment in order to enhance the compression and facilitate the generation of self-sinchronized codes, furthermore, with a truly viable random access. The advantage in this new codes is that they eliminate the need of generating the Huffman-code tree through the proposed mappings, which stands for economy of memory, compact encoding and shorter processing time. The results demonstrate gains of 7% and 9% in the compressed le size, with better compression and decompression times and lower memory consumption.
|
3 |
Busca indexada de padrões em textos comprimidos / Indexed search of compressed textsLennon de Almeida Machado 07 May 2010 (has links)
A busca de palavras em uma grande coleção de documentos é um problema muito recorrente nos dias de hoje, como a própria utilização dos conhecidos \"motores de busca\" revela. Para que as buscas sejam realizadas em tempo que independa do tamanho da coleção, é necessário que a coleção seja indexada uma única vez. O tamanho destes índices é tipicamente linear no tamanho da coleção de documentos. A compressão de dados é outro recurso bastante utilizado para lidar com o tamanho sempre crescente da coleção de documentos. A intenção deste estudo é aliar a indexação utilizada nas buscas à compressão de dados, verificando alternativas às soluções já propostas e visando melhorias no tempo de resposta das buscas e no consumo de memória utilizada nos índices. A análise das estruturas de índice com os algoritmos de compressão mostra que arquivo invertido por blocos em conjuntos com compressão Huffman por palavras é uma ótima opção para sistemas com restrição de consumo de memória, pois proporciona acesso aleatório e busca comprimida. Neste trabalho também são propostas novas codificações livres de prefixo a fim de melhorar a compressão obtida e capaz de gerar códigos auto-sincronizados, ou seja, com acesso aleatório realmente viável. A vantagem destas novas codificações é que elas eliminam a necessidade de gerar a árvore de codificação Huffman através dos mapeamentos propostos, o que se traduz em economia de memória, codificação mais compacta e menor tempo de processamento. Os resultados obtidos mostram redução de 7% e 9% do tamanho dos arquivos comprimidos com tempos de compressão e descompressão melhores e menor consumo de memória. / Pattern matching over a big document collection is a very recurrent problem nowadays, as the growing use of the search engines reveal. In order to accomplish the search in a period of time independent from the collection size, it is necessary to index the collecion only one time. The index size is typically linear in the size of document collection. Data compression is another powerful resource to manage the ever growing size of the document collection. The objective in this assignment is to ally the indexed search to data compression, verifying alternatives to the current solutions, seeking improvement in search time and memory usage. The analysis on the index structures and compression algorithms indicates that joining the block inverted les with Huffman word-based compression is an interesting solution because it provides random access and compressed search. New prefix free codes are proposed in this assignment in order to enhance the compression and facilitate the generation of self-sinchronized codes, furthermore, with a truly viable random access. The advantage in this new codes is that they eliminate the need of generating the Huffman-code tree through the proposed mappings, which stands for economy of memory, compact encoding and shorter processing time. The results demonstrate gains of 7% and 9% in the compressed le size, with better compression and decompression times and lower memory consumption.
|
4 |
CREx Transverse Asymmetry MeasurementsRadloff, Robert W. 16 September 2022 (has links)
No description available.
|
Page generated in 0.0313 seconds