171 |
The Impact of Neighbourhood Density on the Energy Demand of Passive Houses and on Potential Energy Sources from the Waste Flows and Solar EnergyStupka, Robert 11 January 2011 (has links)
This study demonstrates how the density of a neighbourhood affects its energy demand, metabolism (energy and material flows) and its ability to produce its own energy. Single-family detached houses and row townhouses were each modeled using passive solar housing guidelines with the DesignBuilder building energy simulation software. Energy demand is then modeled within neighbourhoods at two densities based on south facing windows fully un-shaded at 9:00 am, and 12:00 pm solar time on Dec. 21. The neighbourhood metabolisms were then calculated based on location and density. The potential energy supply was evaluated from the spatial characteristics of the neighbourhood (for solar) and the metabolism (municipal solid waste and wastewater flows.) The potential energy demand and supply are then compared for the varying building types and densities to determine the sensitivity of the energy supply and demand relationships.
|
172 |
The Impact of Neighbourhood Density on the Energy Demand of Passive Houses and on Potential Energy Sources from the Waste Flows and Solar EnergyStupka, Robert 11 January 2011 (has links)
This study demonstrates how the density of a neighbourhood affects its energy demand, metabolism (energy and material flows) and its ability to produce its own energy. Single-family detached houses and row townhouses were each modeled using passive solar housing guidelines with the DesignBuilder building energy simulation software. Energy demand is then modeled within neighbourhoods at two densities based on south facing windows fully un-shaded at 9:00 am, and 12:00 pm solar time on Dec. 21. The neighbourhood metabolisms were then calculated based on location and density. The potential energy supply was evaluated from the spatial characteristics of the neighbourhood (for solar) and the metabolism (municipal solid waste and wastewater flows.) The potential energy demand and supply are then compared for the varying building types and densities to determine the sensitivity of the energy supply and demand relationships.
|
173 |
Destruction of perchlorate and nitrate by stabilized zero-valent iron nanoparticles and immobilization of mercury by a new class of iron sulfide nanoparticlesXiong, Zhong, Zhao, Dongye, January 2007 (has links) (PDF)
Thesis (Ph. D.)--Auburn University, 2007. / Abstract. Vita. Includes bibliographical references (p. 144-169).
|
174 |
Medidas de parametros nucleares de um reator de potencia zero aplicando a tecnica de analise de ruidosMARTINS, FERNANDO R. 09 October 2014 (has links)
Made available in DSpace on 2014-10-09T12:36:59Z (GMT). No. of bitstreams: 0 / Made available in DSpace on 2014-10-09T13:56:23Z (GMT). No. of bitstreams: 1
04494.pdf: 2472493 bytes, checksum: e31b80c363eb669eee7447da1d53b0d6 (MD5) / Dissertacao (Mestrado) / IPEN/D / Instituto de Pesquisas Energeticas e Nucleares - IPEN/CNEN-SP
|
175 |
Controle penal atuarial e prisão cautelarTeixeira, Daniela Felix 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2009. / Made available in DSpace on 2012-10-24T14:36:06Z (GMT). No. of bitstreams: 1
276386.pdf: 2616897 bytes, checksum: 21836d32e78be240a7875f020f63e9d5 (MD5) / A presente Dissertação de Mestrado em Direito do Curso de Pós-Graduação em Direito da Universidade Federal de Santa Catarina, tem como tema principal as Políticas Criminais para segurança pública e intitula-se CONTROLE PENAL ATUARIAL E PRISÃO CAUTELAR: o modelo de segurança pública no Município de Florianópolis (2004 a 2008). Pretende-se com o trabalho a pesquisa qualitativa dos dados constantes nos Registros Carcerários do Presídio Público Masculino de
Florianópolis/SC, entre os anos de 2004 a 2008, objetivando traçar o perfil sociológico dos presos daquele espaço-tempo, mapear as condutas típicas cometidas e o tempo médio de encarceramento em regime cautelar, compreendido pelas prisões em flagrante delito, temporária e preventiva. Para tanto, necessário se faz a escolha pelo método de abordagem dedutivo, por via do procedimento monográfico, utilizando-se das técnicas de pesquisa bibliográfica e documental. A dissertação estrutura-se em três capítulos delimitados pelos temas centrais do debate: o modelo atuarial de controle penal, a segurança pública e as prisões cautelares. O Capítulo 1 aborda o que se denomina por modelo atuarial de controle penal, mediante a análise crítica do espaço-tempo do capitalismo globalizado, além das concepções do paradigma etiológico em Criminologia sob a perspectiva do marco teórico da Criminologia crítica. Assim, chega-se às compreensões dos Modelos Atuariais que reduzem a segurança pública em políticas gerenciais de populações consideradas de risco. Já no Capítulo 2 abordam-se as estruturas da Segurança Publica no Brasil, em seus três níveis político-administrativos: Federal, Estaduais (e Distrito Federal) e Municipais, bem como os competentes órgãos que compõem as agências de formais de controle, ainda, verificam-se quais as perspectivas das políticas de segurança apresentadas pelas propostas do Ministério da Justiça. Por fim, no Capítulo 3 se apresentam as amostras dos dados coletados e responde-se a hipótese alavancada pelo projeto, afirmando-se, assim, que as políticas de segurança pública empreendidas pelas suas agências formais de controle, entre os anos de 2004 e 2008, adotaram práticas típicas dos modelos atuariais, centradas, em linhas gerais, no controle de grupos sociais vulneráveis, na criminalidade de rua e na excessiva contenção pelos mecanismos das prisões cautelares, ferindo integralmente o princípio constitucional da presunção de inocência. / The current Master#s Degree dissertation in Law of the Department of Pos-graduation in Law of the Federal University Of the State of Santa Catarina, has as a principal theme the Criminal Policies for Public Security and has as Title #THE CAUTIONS PRISONERS AND THE PUBLIC SECURITY: the trajectory of the Public politics in the County of Florianópolis between the years 2004 to 2008#. The research uses qualitative data obtained at the archives of the Public Male Prison of Florianópolis/SC, between 2004 and 2008, with the objective of tracing a sociological profile of the prisoners of that institution at that time and space and to map the penalties for them made, the average time of incarceration caution prison, comprehended for incarceration in flagrant, temporary and preventive. Therefore is necessary to choose the method of deductive approach, via the monographic procedures, using techniques of bibliographical research and documental. The final report is structured in three chapters limited by the central themes of the debate: Actuarial Model of Penalty Control, Public Security and imprisonment caution. Chapter 1 discuss what is defined as Actuarial Model of Penalty Control, using critical analyze of the time-space of capitalist globalization, plus the concepts of paradigm etiologic in Criminology over the perspective of the theoretical marc of Critical Criminology, therefore, reach the comprehensions of the Actuarially Models which reduce the Public Security in managerial policies of populations considered a risk. On the Chapter 2 bring the Structures of Public Security in Brazil, on its tree managerial levels: Federal, States (and Federal District) and Municipalities, and the competent organs which constitute the formal control agencies, more, verify which perspectives the security politics presented proposals by the Ministry of Justice. At last, Chapter 3 are presented the data collected and answer the hypotheses initiated by the project, confirming therefore the Policies of Public Security effected by the formal control agencies between the years 2004 and 2008 adopted typical practices of actuarial models, based on general lines in control of socially vulnerable groups, on street criminality and on the excessive contention by mechanisms of the imprisonment caution, damaging on the whole the Constitutional principal of presumption of innocence.
|
176 |
A robust test of homogeneity in zero-inflated models for count dataMawella, Nadeesha R. January 1900 (has links)
Doctor of Philosophy / Department of Statistics / Wei-Wen Hsu / Evaluating heterogeneity in the class of zero-inflated models has attracted considerable attention in the literature, where the heterogeneity refers to the instances of zero counts generated from two different sources. The mixture probability or the so-called mixing weight in the zero-inflated model is used to measure the extent of such heterogeneity in the population. Typically, the homogeneity tests are employed to examine the mixing weight at zero. Various testing procedures for homogeneity in zero-inflated models, such as score test and Wald test, have been well discussed and established in the literature. However, it is well known that these classical tests require the correct model specification in order to provide valid statistical inferences. In practice, the testing procedure could be performed under model misspecification, which could result in biased and invalid inferences. There are two common misspecifications in zero-inflated models, which are the incorrect specification of the baseline distribution and the misspecified mean function of the baseline distribution. As an empirical evidence, intensive simulation studies revealed that the empirical sizes of the homogeneity tests for zero-inflated models might behave extremely liberal and unstable under these misspecifications for both cross-sectional and correlated count data.
We propose a robust score statistic to evaluate heterogeneity in cross-sectional zero-inflated data. Technically, the test is developed based on the Poisson-Gamma mixture model which provides a more general framework to incorporate various baseline distributions without specifying their associated mean function. The testing procedure is further extended to correlated count data. We develop a robust Wald test statistic for correlated count data with the use of working independence model assumption coupled with a sandwich estimator to adjust for any misspecification of the covariance structure in the data. The empirical performances of the proposed robust score test and Wald test are evaluated in simulation studies. It is worth to mention that the proposed Wald test can be implemented easily with minimal programming efforts in a routine statistical software such as SAS. Dental caries data from the Detroit Dental Health Project (DDHP) and Girl Scout data from Scouting Nutrition and Activity Program (SNAP) are used to illustrate the proposed methodologies.
|
177 |
Movimento dos sentidos : o discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, durante a Comissão Parlamentar de Inquérito da Segurança Pública, realizada pela Assembléia Legislativa do Rio Grande do Sul, em 2001Oliveira, Stella Máris Valenzuela de January 2004 (has links)
Esta pesquisa de mestrado analisa o discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, durante a Comissão Parlamentar de Inquérito da Segurança Pública, realizada pela Assembléia Legislativa do Rio Grande do Sul, de 18 de abril a 10 de novembro de 2001. Para compreender o funcionamento destes discursos nos amparamos em fundamentos teóricos e em procedimentos metodológicos consagrados pela Escola Francesa da Análise do Discurso e, também, nos cercamos de conceitos de comunicação, política e jornalismo. 7 RESUMO Construímos o corpus de nossa pesquisa, partindo das 48 edições do jornal Zero Hora subseqüentes às audiências da Comissão Parlamentar de Inquérito e mais a edição relativa à leitura do relatório final dos trabalhos desta Comissão, totalizando 49 exemplares, nas quais foram publicadas 110 matérias informativas sobre a Comissão Parlamentar de Inquérito. Deste total, subdividimos e classificamos as matérias exclusivas sobre o Partido dos Trabalhadores. Verificamos que o jornal Zero Hora, no período estudado, construiu um discurso de resistência e de oposição ao Partido dos Trabalhadores e ao poder político instituído no Estado, visando desestabilizar o capital simbólico deste partido - a sua credibilidade. Articulado com veículos da RBS, o jornal interferiu na pauta da CPI da Segurança Pública, fiscalizou as ações do PT, sugeriu rumos ao partido e usou ironias da oposição, no seu discurso jornalístico. A repetição e a disputa política pelas eleições de 2002 também estiveram presentes na discursividade do jornal. Partimos da perspectiva de que o discurso jornalístico não é um discurso da realidade, mas um discurso sobre a realidade. Assim, contestamos o mito da objetividade jornalística, embora esta visão ainda domine no campo da comunicação. E nos contrapomos ao argumento da neutralidade no discurso do jornal Zero Hora, utilizando o paradigma de Gaye Tuchman, segundo o qual os jornais e os jornalistas, em busca da imparcialidade jornalística, recorrem a determinados rituais estratégicos para se protegerem das críticas - como ouvir os dois lados, apresentar provas complementares, usar aspas e a pirâmide invertida, na elaboração das matérias jornalísticas. Identificamos no discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, no período estudado, a existência de pelo menos duas formações discursivas: uma FD-petista e outra FD-antipetista, que em alguns momentos aparecem isoladas e, em outros se misturam e se mesclam. As principais marcas observadas em ambas linhas discursivas são relativas à ética e à democracia. Embora os enunciadores tenham sido múltiplos, o fio condutor destes discursos apontou para uma mesma direção de sentidos e a FD-antipetista se revelou com uma presença mais marcante.
|
178 |
Uma ferramenta para determinação de zeros polinomiaisOliveira, João Batista Souza de January 1992 (has links)
Este trabalho define um ambiente que auxilia o usuário a determinar as raízes complexas de um polinômio, dados apenas seus coeficientes complexos. Para tanto é definida uma interface que habilita a comunicação e a apresentação de resultados de forma mais expressiva do que as habitualmente usadas, permitindo que o usuário perceba mais rapidamente as informações que a ferramenta lhe apresenta. Para capacitar o usuário a determinar as soluções o sistema faz uso de uma abordagem baseada em imagens, obtidas a partir da interpretação do polinômio sendo estudado como se fosse uma superfície originada por uma função de dual variáveis. Através do uso de imagens o usuário pode orientar o sistema para determinar as soluções de seu interesse particular, e pode adicionalmente perceber de forma muito clara detalhes do polinômio que não são apresentados por outras ferramentas. São definidas operações que facilitam a manipulação das imagens obtidas, podendo-se efetuar uma serie de computações que eventualmente dispensam os métodos de determinação numérica de raízes, obtendo-se de uma forma alternativa possíveis aproximações para as soluções. Esta abordagem apoiada em imagens é muito útil na determinação de raízes em regiões onde a avaliação do polinômio se mostra instável ou sujeita a erros grosseiros, como por exemplo raízes múltiplas. Quando são geradas imagens pode ser percebida claramente a presença de erros de avaliação, permitindo que o usuário tome a atitude que julgar adequada. Outros sistemas não permitem que tais instabilidades sejam notadas, fornecendo respostas que podem lido ter qualquer nexo com a realidade. Para uso na ferramenta que implementa a solução proposta, existe uma serie de comandos definidos que capacitam o usuário a fazer quaisquer operações de seu interesse. Estes comandos foram já testados no período da implementação do sistema e permitem que sejam feitas operações sobre o polinômio, as imagens geradas e as raízes determinadas. Em todo o projeto do sistema existe a preocupação de tornar claro o que está acontecendo a cada momento com o polinômio ou com os dados dele obtidos, para que o usuário não se canse em demasia, seja interpretando dados do sistema ou procurando decidir o que fazer em seguida. Assim, o use da ferramenta d bastante natural, e tenta atingir a intuição daqueles que a irão usar. Exemplos são apresentados, bem como descrições dos comandos utilizados na interface. De especial interesse são os algoritmos usados na construção das imagens, pois estes permitem uma grande economia nas avaliações do polinômio quando da geração das cenas, reduzindo sobremaneira o tempo de espera do usuário. Quanto as imagens, são fornecidos três tipos de representações: imagens coloridas em duas dimensões, curvas de nível e curvas de sinal. O uso de três dimensões nas imagens foi descartado, e as razões para tanto estão descritas no texto. Todos os tipos de imagens permitem que se determine e identifique com facilidade as soluções desejadas, e são construídas a partir de uma transformação sobre o polinômio original. Esta transformação é explicada em detalhe no transcorrer do texto. / This work describes an environment that helps the user to find the complex solutions of a polynomial, given its coefficients. To do so, a quite expressive user interface is defined providing easy communication between man and machine and also allowing users to perceive much more rapidly the informations given by the tool. The system uses an image-based interface, obtained from a two-variable surface defined by the polynomial. By using these pictures, it is possible to direct the tool, finding any solutions of special meaning to the user. In addition, some details and features of the polynomial can be very easily seen. To manipulate images a set of operations was defined, and this set has so many features that the use of some operations can even avoid the effort of numerically computing the zeros of the polynomial, also reducing the numerical error embedded in these computations. This image-based approach is very useful when finding domains where the evaluation of the polynomial is unstable or prone to errors, e. g., near multiple roots. In pictures, any evaluation problems are easily detected, and the user can decide how to take the answers given by the system. Other tools usually do not provide any means to detect such behavioral oscillations, and can give nonsense answers. There is a set of commands embedded on the tool that implements the proposed solution, and they allow the user to perform any operations of his (her) interest. Such commands were tested at implementation time, and all were useful at some moment. They perform operations on the polynomial, on the pictures and on the detected zeros. All over the design phase there was the care of making clear what is happening to the polynomial or any data, so that the user can always work without being stressed by trying to find out what is happening. So, we try to build a natural approach to this interfacing problem, trying to reach user's intuition. Examples and descriptions of the commands are given, and also there is a description of a quite important algorithm, the one that builds the pictures themselves. This algorithm needs quite few evaluations of the function to generate pictures, thus reducing the waiting times. For the images, there are three presentation types: color images in two dimensions, height curves or signal curves. Three-dimensional pictures were discarded, and the reasons to such decision are described on the text. All kinds of images provide easy and simple identification of solutions. The images are produced from a simple transformation of the starting polynomial. This transformation is also explained in detail.
|
179 |
Modelos preditivos para LGD / Predictive models for LGDJoão Flávio Andrade Silva 04 May 2018 (has links)
As instituições financeiras que pretendem utilizar a IRB (Internal Ratings Based) avançada precisam desenvolver métodos para estimar a componente de risco LGD (Loss Given Default). Desde a década de 1950 são apresentadas propostas para modelagem da PD (Probability of default), em contrapartida, a previsão da LGD somente recebeu maior atenção após a publicação do Acordo Basileia II. A LGD possui ainda uma literatura pequena, se comparada a PD, e não há um método eficiente em termos de acurácia e interpretação como é a regressão logística para a PD. Modelos de regressão para LGD desempenham um papel fundamental na gestão de risco das instituições financeiras. Devido sua importância este trabalho propõe uma metodologia para quantificar a componente de risco LGD. Considerando as características relatadas sobre a distribuição da LGD e na forma flexível que a distribuição beta pode assumir, propomos uma metodologia de estimação da LGD por meio do modelo de regressão beta bimodal inflacionado em zero. Desenvolvemos a distribuição beta bimodal inflacionada em zero, apresentamos algumas propriedades, incluindo momentos, definimos estimadores via máxima verossimilhança e construímos o modelo de regressão para este modelo probabilístico, apresentamos intervalos de confiança assintóticos e teste de hipóteses para este modelo, bem como critérios para seleção de modelos, realizamos um estudo de simulação para avaliar o desempenho dos estimadores de máxima verossimilhança para os parâmetros da distribuição beta bimodal inflacionada em zero. Para comparação com nossa proposta selecionamos os modelos de regressão beta e regressão beta inflacionada, que são abordagens mais usuais, e o algoritmo SVR , devido a significativa superioridade relatada em outros trabalhos. / Financial institutions willing to use the advanced Internal Ratings Based (IRB) need to develop methods to estimate the LGD (Loss Given Default) risk component. Proposals for PD (Probability of default) modeling have been presented since the 1950s, in contrast, LGDs forecast has received more attention only after the publication of the Basel II Accord. LGD also has a small literature, compared to PD, and there is no efficient method in terms of accuracy and interpretation such as logistic regression for PD. Regression models for LGD play a key role in the risk management of financial institutions, due to their importance this work proposes a methodology to quantify the LGD risk component. Considering the characteristics reported on the distribution of LGD and in the flexible form that the beta distribution may assume, we propose a methodology for estimation of LGD using the zero inflated bimodal beta regression model. We developed the zero inflated bimodal beta distribution, presented some properties, including moments, defined estimators via maximum likelihood and constructed the regression model for this probabilistic model, presented asymptotic confidence intervals and hypothesis test for this model, as well as selection criteria of models, we performed a simulation study to evaluate the performance of the maximum likelihood estimators for the parameters of the zero inflated bimodal beta distribution. For comparison with our proposal we selected the beta regression models and inflated beta regression, which are more usual approaches, and the SVR algorithm, due to the significant superiority reported in other studies.
|
180 |
Net Zero Building Energy ConservationKadam, Rohit 01 May 2012 (has links)
AN ABSTRACT OF THE THESIS OF Rohit Kadam, for the Master of Science degree in MECHANICAL ENGINEERING, presented on DECEMBER 2, 2011, at Southern Illinois University Carbondale. (Do not use abbreviations.) TITLE: NET ZERO BUILIND ENERGY CONSERVATION MAJOR PROFESSOR: Dr. Emmanuel Nsofor This research deals with energy studies performed as part of a net-zero energy study for buildings. Measured data of actual energy utilization by a building for a continuous period of 33 months was collected and studied. The peak design day on which the building consumes maximum energy was found. The averages of the energy consumption for the peak month were determined. The DOE EnergyPlus software was used to simulate the energy requirements for the building and also obtain peak energy requirements for the peak month. Alternative energy sources such as ground source heat pump, solar photovoltaic (PV) panels and day-lighting modifications were applied to redesign the energy consumption for the building towards meeting net-zero energy requirements. The present energy use by the building, DOE Energy software simulations for the building as well as the net-zero model for the building were studied. The extents of the contributions of the individual energy harvesting measures were studied. For meeting Net Zero Energy requirement, it was found that the total energy load for the building can be distributed between alternative energy methods as 5.4% to daylighting modifications, 58% to geothermal and 36.6% to solar photovoltaic panels for electricity supply and thermal energy. Thus the directions to proceed towards achieving complete net-zero energy status were identified.
|
Page generated in 0.0333 seconds