• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 356
  • 24
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 1
  • Tagged with
  • 401
  • 263
  • 64
  • 54
  • 50
  • 44
  • 39
  • 39
  • 37
  • 36
  • 35
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

O mecanismo atrator e a função entropia de Sen para buracos negros

Santos, Prieslei Estefânio Dominik Goulart [UNESP] 28 February 2013 (has links) (PDF)
Made available in DSpace on 2014-08-27T14:36:43Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-02-28Bitstream added on 2014-08-27T15:57:08Z : No. of bitstreams: 1 000779994.pdf: 622062 bytes, checksum: fb62350412f79cc14976d05e725d6f9a (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Nesta dissertaçãoo estudamos o mecanismo atrator e a função entropia para buracos negros. Depois de revisarmos alguns aspectos de Relatividade Geral e buracos negros do tipo Schwarzschild, Reissner-Nordstrom e Kerr-Neumann demonstraremos detalhadamente como são deduzidas a lei zero e a primeira lei das chamadas Leis da Termodinâmica de Buracos Negros. Apresentaremos também a segunda e a terceira destas leis e discutiremos a relação entre as Leis da Termodinâmica e as Leis da Termodinâmica de Buracos Negros. Após isso, apresentaremos um exemplo para demonstrar como ocorre o chamado fenômeno atrator, que faz com que todos os campos escalares admitam o mesmo valor sobre o horizonte de eventos do buraco negro, fazendo-os então perder toda a memória de suas condições iniciais no in?nito. Finalmente, apresentaremos a dedução da chamada função entropia de Sen, e demonstraremos sua importância no que se refere ao estudo dos campos escalares de um buraco negro para a geometria próxima ao horizonte de eventos, ou seja, para o mecanismo atrator. Demonstraremos a validade deste formalismo através da solução de Reissner-Nordstrom usual em 4 dimensões e de uma teoria correspondendo à parte bosônica de uma ação da supergravidade à baixas energias / In this Master Thesis we study the attracto rmechanism and the entrop yfunction for black holes. After reviewing some aspects of General Relativity and black holes solutions of the Schwarzschild, Reissner-Nordstrom and Kerr-Newmann type, we give a detailed derivation of the zeroth and ?rst of the so-called Laws of Black Hole Thermodynamics. We will also present the second and third laws and discuss the relation between The Laws of Thermodynamics and The Laws of Black Hole Thermodynamics. Then we will present an example of how the so-called attractor phenomena occurs, which makes all the scalar ?elds assume the same value on the black hole event horizon, forcing them to lose all the memory of their initial conditions at the in?nity. Finally, we will present the derivation of the so-called Sen’s entropy function, and we will show its importance concerning the study of scalar ?elds of a black hole for the near horizon geometry, or in other words, for the attractor mechanism. We will show the validity of this formalism through the usual Reissner-Nordstrom solution in 4 dimensions and a theory corresponding to the bosonic part of a low energy supergravity action
72

Família de distribuições gama tipo III generalizada

Silva Neto, Adélio Henrique da 30 June 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatistica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-09-19T15:39:17Z No. of bitstreams: 1 2016_AdélioHenriquedaSilvaNeto.pdf: 7022430 bytes, checksum: 482a6ceed2781b83bc70849b698e89db (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-09-19T16:16:23Z (GMT) No. of bitstreams: 1 2016_AdélioHenriquedaSilvaNeto.pdf: 7022430 bytes, checksum: 482a6ceed2781b83bc70849b698e89db (MD5) / Made available in DSpace on 2016-09-19T16:16:23Z (GMT). No. of bitstreams: 1 2016_AdélioHenriquedaSilvaNeto.pdf: 7022430 bytes, checksum: 482a6ceed2781b83bc70849b698e89db (MD5) / Na última década, diversos autores têm investigado novas famílias de distribuições de probabilidade com o intuito de obter modelos mais flexíveis para o ajuste a conjunto de dados. Neste trabalho, introduzimos pela primeira vez uma nova família de distribuições referida como a Gama tipo III Generalizada, que é uma generalização da família Gama tipo III (Torabi e Montazeri [6]). Estudamos duas distribuições particulares desta família: a Gama tipo III Burr III Generalizada (GIIIBIIIG) e a Gama tipo III Weibull Generalizada (GIIIWG). Fornecemos, também, uma descrição básica de algumas propriedades matemáticas e computacionais desta nova classe e destas novas distribuições. Para investigar o ajuste das novas distribuições foi analisado para cada modelo um conjunto de dados reais. ________________________________________________________________________________________________ ABSTRACT / In the last decade, several authors have studied new probability distribution families to obtain more flexible models. In this work, we introduce for the first time the Generalized Gama type III family of distributions wich is a generalization of gama type III family (Torabi and Montazeri [6]). We have studied two specific models of this family: Generalized Gama type III Burr III and Generalized Gama type III Weibull. We provide, also, a description of some of the mathematical and computational properties of this new class of distributions and the studied models. We fitted each model to a data set to investigate their flexibility.
73

Estudo in silico de centros geradores de padrão: arquiteturas mínimas de funcionamento e fluxo interno de informação / In silico study of central pattern generators: minimal architectures for operation and internal information flux

Breno Teixeira Santos 26 April 2013 (has links)
O estudo dos centros geradores de padrão, CPGs, ´e um excelente exemplo das limitações do método reducionista, na tentativa de explicar um comportamento de ordem mais global. Não queremos, com isso, relegar a descrição esmiuçada dos mecanismos biofísicos e moleculares ao ostracismo. Muito pelo contrário, iremos nos apropriar de um subconjunto desses conceitos, na forma do modelo de Hodgkin & Huxley, para construir um sistema de simulação computacional de redes neurais, em pequena escala, passível de realizar duas métricas. Uma destinada a medir a complexidade da geração de informação circulante interna a rede, enquanto a outra traz dados relativos ao consumo energético das células neurais. Espera-se, com isso, alguma resposta para a seguinte questão: existe algum mecanismo, algum princípio básico em redes que oscilam, capaz de mapear um mínimo de uma grandeza física externa em algum outro mínimo interno a rede? Ao que tudo indica a resposta é afirmativa. Apresentaremos um tal ponto de minimização, juntamente com um formalismo, ainda em desenvolvimento, que justifica os resultados / The study of central pattern generators is a great example of the limitations in a reductionist approach, to achieve global knowledge about a system. We are not neglecting the importance of biophysical and molecular mechanisms. Quite the contrary, we will apply some of this concepts by means of Hodgkin & Huxley formalism, to build up a small form factor neural network software simulator. This platform will be able to perform two measurements, informational complexity and metabolic consumption with the aim of answer the question: is there some mechanism, some basic principle in oscillatory networks, capable of mapping a minimum in an external physical quantity into another minimum internal to the network? It seems that the answer is affirmative. We will present this minimization point, together with an under development formalism, to embase the results
74

Classificação de Texturas usando o Algoritmo Lempel- Ziv-Welch

Meira, Moab Mariz 29 February 2008 (has links)
Made available in DSpace on 2015-05-14T12:36:37Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1769968 bytes, checksum: 0ecd162fc2e21d4f6f321e359943426b (MD5) Previous issue date: 2008-02-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta um novo e eficiente método de classificação de texturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW). Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontal e vertical de cada classe de textura. Na fase de classificação, amostras de texturas são codificadas com o LZW no modo estático, usando os dicionários construídos na fase anterior. Uma amostra é associada à classe cujo dicionário conduz à melhor taxa de codificação. O classificador foi avaliado para vários tamanhos do conjunto de treinamento e das amostras de treinamento, e sob diferentes condições de iluminação das texturas. O método proposto atinge 100% de acerto em alguns experimentos usando amostras de texturas do álbum Brodatz. Comparações diretas com outros trabalhos indicam a superioridade do método sobre outros métodos de alto desempenho.
75

Codificação de fonte /

Bonfim, Juliano de Falque. January 2014 (has links)
Orientador: Eliris Cristina Rizziolli / Banca: Aldício José Miranda / Banca: Henrique Lazari / Resumo: Este trabalho consiste em um estudo sobre os princípios básicos de codificação de fonte. Neste sentido desenvolvemos os conceitos básicos de fonte de dados, informação e entropia, requisitos para apresentar o Teorema da Codificação de Fonte de Shannon como também o resultado que fornece os parâmetros e as limitações para a codificação de fonte sem perda de informação. O Código de Huffman é discutido pela sua importância teórica e o trabalho é concluído com uma descrição do Algoritmo de Lempel-Ziv / Abstract: This work consists of a study about the basic principles of source coding. In this sense we develop the basics of data source, information and entropy, requirements to present the Shannon's Source Coding Theorem as well as the result that provides the parameters and limitations for source coding without loss of information. The Huffman Code is discussed for their theoretical importance and the work is concluded with a description of the Lempel-Ziv Algorithm / Mestre
76

Sal : uma abordagem sobre o elemento material na obra de arte /

Oliveira, Sérgio Augusto de. January 2014 (has links)
Orientador: José Paiani Spaniol / Banca: Agnus Valente / Banca: Antônio Busnardo Filho / Resumo: Neste trabalho apresenta- se o processo de construção de pesquisa artística desenvolvida a partir do elemento material sal. O desenvolvimento da pesquisa se deu a partir da produção plástica do autor, no intuito de refletir sobre o aspecto material na produção do trabalho de arte; tendo o sal como objeto de estudo, a partir do viés matérico na arte, ao mesmo tempo em que assume os sentidos físico, simbólico e formal, resultando em esculturas, instalações e residência artística, bem como também traduz um universo próprio do material , do seu ci clo de transformação diante das interferências do tempo e espaço, metaforizando- o através de aspectos cotidianos, culturais e sociais. / Abstract: This work presents the process of building artistic research developed from the material element salt. The research development occurred from the plastic production of the author in order to reflect on the material aspect in the production of art work; taking salt as an obje ct of study, from material view in art, while assuming the physical, symbolic and formal senses, resulting in sculptures, installations and artist residency and also reflects its own material universe, the processing cycle before the interference of time a nd space, metaphorising it through everyday, cultural and social aspects. / Mestre
77

Produção de entropia devido a flutuações da métrica em um sistema de N partículas

Malabarba, Artur de Souza Lima January 2012 (has links)
A teoria quântica aplicada a sistemas microscópicos prevê comportamento oscilatório para objetos macroscópicos. Também, o caráter determinístico da física microscópica contradiz a irreversibilidade da termodinâmica. Aqui, estudamos os efeitos que flutuações de métrica e de energia tem sobre a produção de entropia, focando nas propriedades estatísticas de um gás tridimensional. Derivamos uma expressão geral para o operador densidade de probabilidade, sem assumir uma expressão específica para a correlação espacial das flutuações, que leva a resultados para uma vasta variedade de cenários. Nós prevemos que os tempos de decoerência e de termalização para N partículas não-interagentes cai com N2, dominando os efeitos de fontes externas de termalização, de modo a facilitar sua medida e a verificação da existência as flutuações. / Quantum theory applied to macroscopic systems predicts oscillatory behavior for macroscopic systems. Also, the deterministic character of microscopic physics contradicts the irreversibility of thermodynamics. Here we study the effects of energy and metric fluctuations on entropy production focusing on the statistical properties of a three-dimensional gas. We derive a general expression for the probability density operator without assuming any specific expression for the spatial correlation of the fluctuations, which yields results for a wide variety of scenarios. We predict the decoherence and thermalization times for N non-interacting particles scale with N2, dominating the effects from external thermalization sources, thus facilitating its measurement and the verification of the existence of fluctuations.
78

A influência de quantitativo de indicadores contábeis na qualidade da decisão de investimentos tomada

Tavares Júnior, Ednilto Pereira 28 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Universidade Federal da Paraíba, Universidade Federal do Rio Grande do Norte. Programa Multiinstitucional e Inter-regional de Pós-Graduação em Ciências Contábeis, 2012. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2012-06-25T11:49:12Z No. of bitstreams: 1 2012_EdniltoPereiraTavaresJunior.pdf: 521455 bytes, checksum: f04adc0cb2bd9d2d6be79784bf6e5aaf (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-25T11:49:23Z (GMT) No. of bitstreams: 1 2012_EdniltoPereiraTavaresJunior.pdf: 521455 bytes, checksum: f04adc0cb2bd9d2d6be79784bf6e5aaf (MD5) / Made available in DSpace on 2012-06-25T11:49:23Z (GMT). No. of bitstreams: 1 2012_EdniltoPereiraTavaresJunior.pdf: 521455 bytes, checksum: f04adc0cb2bd9d2d6be79784bf6e5aaf (MD5) / Essa dissertação tem por objetivo é verificar se o número de indicadores contábeis disponíveis altera a qualidade da decisão de investimentos tomada por acadêmicos do curso de Ciências Contábeis da Universidade de Brasília. Pesquisas demonstram que para que haja comunicação entre dois indivíduos, emissor e receptor, deverá haver a transmissão de informação, contudo a informação leva consigo uma parcela de incerteza, denominada entropia, e que de acordo com que essa incerteza diminui, cria-se a redundância. Para alcançar o objetivo estabelecido foram testadas quatro hipóteses de pesquisa: (Hi) o aumento de informações provocaria um aumento na qualidade da decisão: (H2) um maior conhecimento adquirido, aumentaria a qualidade da decisão; (H3) em grupos com menor conhecimento, o número de informações nào influenciaria a qualidade da decisão; (H4) grupos mais especializados demandariam um menor número de informações para uma decisão de maior qualidade. A população utilizada para análise na pesquisa consistiu em acadêmicos da Universidade de Brasília, que cursavam as disciplinas de Análise Econômico Financeira I e II e Análise da Liquidez. Essas disciplinas foram selecionadas, uma vez que objetivam capacitar o acadêmico a realizar a análise econômico financeira a partir de indicadores contábeis. A metodologia da pesquisa baseou-se na estatística descritiva da qualidade da decisão tomada, bem como a correlação entre as variáveis propostas no modelo econométrico. As inferências estatísticas foram realizadas a partir da regressão múltipla utilizando-se o método Backward para a eliminação das variáveis que nào fossem estatisticamente significantes. Os resultados da pesquisa evidenciaram que existe uma relação negativa entre o número de indicadores contábeis e a qualidade da decisão. Demonstrando que o aumento no número de indicadores financeiros ocasionaria uma redução na qualidade da decisão de investimento tomada. _________________________________________________________________________________ ABSTRACT / The aim of this paper is to identify the influence of the quantity of information in relation to the quality of the decision made. Research shows that in order to have communication between two individuals, transmitter and receiver, there must be a transmission of communication. However, information brings with it some uncertainty, called 'entropy': which, according to the decrease in certainty, makes itself redundant. To achieve the established objective, four research hypotheses were tested: (Hi) the increase of information results in better quality of decision-making; (H2) a wider acquired knowledge increases the quality of decision-making; (H3) in groups with more knowledge, the quantity of information will influence the quality of the decision; (H4) more specialised groups need less information to make a better quality decision. The population used in the research was made up of academics from Brasilia University studying Financial Economics I and II and Financial Analysis. These subjects were chosen since the aim was to enable the academics to carry out economic financial analysis based on accounting indicators. The method of research was based on descriptive statistics of the quality of each decision made, as well as the correlation between the variables proposed in the econometric model. The statistical interference was carried out by way of multiple regressions, using the Backward method to eliminate the variables that were not statistically significant. The results of the research reveal that there is a negative relationship between the number of accountable indicators and the quality of the decision made, showing that an increase in the amount of information leads to a reduction in the quality of the decision made.
79

Aspectos de complexidade em holografia / Aspects of complexity in holography

Felipe Soares Sá 22 March 2018 (has links)
Recentemente, uma quantidade de informação/computação quântica chamada complexidade computacional tem adquirido mais e mais importância no estudo de buracos negros.Resumidamente, complexidade mede a dificuldade de alguma tarefa. No contexto de mecânica quântica (ou mesmo para estados em uma CFT), qualquer estado tem uma complexidade associada, uma vez que o processo de preparar algum estado, usando operações unitárias, é uma tarefa por sí só. Propostas holográficas para o cálculo de complexidade tem sido desenvolvidas nos anos recentes. Há duas delas que estão mais desenvolvidas: as conjecturas complexidade=volume e complexidade=ação. No contexto da correspondência AdS/CFT é sabido que o buraco negro de Schwarzschild em AdS é dual à um estado térmico que descreve duas CFTs emaranhadas. Para esse caso em específico, a conjectura complexidade=volume iguala a complexidade do estado que descreve esse par de CFTs emaranhadas com o volume da máxima superfície de codimensão um no espaço-tempo dual. Por outro lado, a conjectura complexidade=ação iguala a complexidade da borda com a ação gravitacional calculada sobre uma região do espaço-tempo conhecida como Wheeler-DeWitt patch. O objetivo dessa tese é proporcionar os requisitos necessários para entender as conjecturas relacionadas com complexidade, monstrando alguns resultados importantes proporcionados pelos cálculos holográficos no lado gravitacional. / In recent years, a quantity from quantum information/computation called computational complexity has been acquiring more and more importance in the study of black holes. Briefly, complexity measures the hardness of some task. In the context of quantum mechanics (or even for states in a CFT), any state has an associated complexity, once the process of to preparing some state, using unitary operations, is a task by itself. Holographic proposals for the computation of complexity have been developed in recent years. There are two of them that are more developed: the complexity=volume and complexity=action conjectures. In the context of the AdS/CFT correspondence, it is known that the two sided AdS-Schwarzschild black hole is dual to some thermal state that describes two entangled CFTs. For this specific case, the complexity=volume conjecture equates the complexity of the state that describes this pair of entangled CFTs with the volume of the maximal codimension-one surface in the dual space-time. On the other hand, the complexity=action conjecture equates the boundary complexity with the gravitational action evaluated on a region of space-time known as the Wheeler-DeWitt patch. The goal of this thesis is to provide the necessary requisites to understand the conjectures related to complexity, showing some important results provided by holographic computations on the gravitational side.
80

Teoria das matrizes aleatórias e o formalismo da entropia generalizada / Theory of Random Matrices and the Formalism of Generalized Entropy

Alberto Carlos Bertuola 16 December 2004 (has links)
A introdução de uma nova expressão matemática para a entropia permite construir novos ensembles na Teoria das Matrizes Aleatórias. Neste trabalho, apresenta-se uma estrutura geral para construção de todos os possíveis ensemble. Portanto, os elementos das matrizes podem ser números reais, complexos ou mesmo quaternions. O principio da entropia (não-extensiva) máxima e o Cálculo Variacional são usados para realizar essa façanha. Esta tese está comprometida com a construção do Ensemble Ortogonal Generalizado, cujas matrizes aleatórias são simétricas e seus elementos são os números reais, especificamente. As distribuições das matrizes, as distribuições de um elemento da matriz e as estatísticas espectrais são obtidas, estudadas e os resultados apresentados. / The introduction of a new mathematical expression for the entropy allows the construction of new ensembles in Random Matrices Theory. A general structure is presented to the construction of all possible ensembles. Therefore the matrix\'s elements can be real numbers, complex numbers or even quaternions. The generalized of the maximum entropy (nonextensive) principle and the variational calculus are to use to realize this achievement. This thesis concerned with the construction of the Generalized Orthogonal Ensemble, whose random matrices are symetric and its elements are real numbers. The matrix distribuit ion, the distribuition of an element of the matrix and the spectrum statistical were to obtained, studied and the results presented.

Page generated in 0.0459 seconds