• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 82
  • 61
  • 26
  • 7
  • 6
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 447
  • 54
  • 44
  • 41
  • 38
  • 37
  • 28
  • 28
  • 28
  • 28
  • 26
  • 23
  • 23
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Constraining the Neutron Star Equation of State

Olofsson, Klara January 2022 (has links)
Neutron stars are stellar objects of extreme properties. The dense core enables usto study nuclear matter beyond saturation density. The exact composition of matterat such densities is not yet established, but the thermodynamic states of the matteris theoreticized by the Equation of State (EOS). The EOS cannot be derived analyt-ically and is dependent on constraints from neutron stars and nuclear experiments inlaboratories on earth. Recent advances in astrophysical experiments have probed newconstraints on the EOS by studying properties such as mass, radius and tidal deformabil-ity of neutron stars. Especially the possibility to detect gravitational waves from mergingbinary systems by the LIGO/VIRGO collaboration and the mass-radius measurementsby NICER have contributed a great deal. Constraints from terrestrial experiments havebeen derived by studying matter at supra saturation density in Heavy Ion Collisions andby determining the neutron skin thickness. In this work, an overview of neutron stars,dense matter and the EOS is presented. Further, results of studies aiming to determineand constrain the EOS are reviewed. Even though there is consensus about some neutronstar properties among different research groups, there are still major uncertainties as allresult depend on a relatively small set of observational data. Therefore, the EOS can stillbe considered to be far from precise and the knowledge of the true neutron star matterremains undisclosed.
72

Pathogenic and antigenic characterization of <I>Neospora hughesi</I>

Walsh, Catherine Patricia 19 May 2000 (has links)
<I>Neospora hughesi</I> is a recently described cause of equine protozoal myeloencephalitis (EPM). In the present study, we examined the susceptibility of BALB/c gamma-interferon gene knockout (gamma-INFKO), BALB/c, CD-1, and C57BL/6 strains of mice and gerbils to infection with tachyzoites of the Nh-A1 strain of <I>N. hughesi</I>. Only the gamma-IFNKO mice developed severe clinical disease following infection with <I>N. hughesi</I>. The most severe lesions were in the hearts of these mice. Two dogs fed the brains of mice, shown to contain <I>N. hughesi</I> tissue stages by cell culture and g-IFNKO mouse bioassay, did not shed <I>N. hughesi</I> oocysts over a 23 day observation period. We report important differences between the nucleotide and deduced amino acid sequences of the dense granule proteins GRA6 and GRA7 of <I>N. hughesi and N. caninum</I>. The newly defined proteins of <I>N. hughesi</I> are referred to as NhGRA6 and NhGRA7. From analysis of the sequences we found that there is a 14.8% difference in deduced amino acid sequence between NhGRA7 and NcGRA7, and a 4% difference between NhGRA6 and NcGRA6 in areas that could be compared. This thesis supports the identification of <I>N. hughesi</I> as a separate species from <I>N. caninum</I> and describes novel methods of distinguishing between the two. / Master of Science
73

In-situ remediation of DNAPL using emulsified zero-valent iron : subsurface transport and treatment

Huggins, Mary Conners 01 April 2002 (has links)
No description available.
74

Continual Learning for Deep Dense Prediction

Lokegaonkar, Sanket Avinash 11 June 2018 (has links)
Transferring a deep learning model from old tasks to a new one is known to suffer from the catastrophic forgetting effects. Such forgetting mechanism is problematic as it does not allow us to accumulate knowledge sequentially and requires retaining and retraining on all the training data. Existing techniques for mitigating the abrupt performance degradation on previously trained tasks are mainly studied in the context of image classification. In this work, we present a simple method to alleviate catastrophic forgetting for pixel-wise dense labeling problems. We build upon the regularization technique using knowledge distillation to minimize the discrepancy between the posterior distribution of pixel class labels for old tasks predicted from 1) the original and 2) the updated networks. This technique, however, might fail in circumstances where the source and target distribution differ significantly. To handle the above scenario, we further propose an improvement to the distillation based approach by adding adaptive l2-regularization depending upon the per-parameter importance to the older tasks. We train our model on FCN8s, but our training can be generalized to stronger models like DeepLab, PSPNet, etc. Through extensive evaluation and comparisons, we show that our technique can incrementally train dense prediction models for novel object classes, different visual domains, and different visual tasks. / Master of Science / Modern deep networks have been successful on many important problems in computer vision viz. object classification, object detection, pixel-wise dense labeling, etc. However, learning various tasks incrementally still remains a fundamental problem in computer vision. When trained incrementally on multiple tasks, deep networks have been known to suffer from catastrophic forgetting on the older tasks, which leads to significant decrease in accuracy. Such forgetting is problematic and fundamentally constraints the knowledge that can be accumulated within these networks. In this work, we present a simple algorithm to alleviate catastrophic forgetting for pixel-wise dense labeling problems. To prevent the network from forgetting connections important to the older tasks, we record the predicted labels/outputs of the older tasks for the images of the new task. While training on the images of the new task, we enforce a constraint to “remember” the recorded predictions of the older tasks while learning a new task. Additionally, we identify which connections in the deep network are important to the older tasks and prevent these connections from changing significantly. We show that our proposed algorithm can incrementally learn dense prediction models for novel object classes, different visual domains, and different visual tasks.
75

Étude théorique et expérimentale des phénomènes de congestion sur un réseau ferroviaire urbain / Theoretical and experimental study of congestion phenomena on an urban railway network

Cuniasse, Pierre-Antoine 06 November 2015 (has links)
Depuis une vingtaine d'années, les problématiques de transport public en région parisienne sont devenues une préoccupation majeure. Pour les usagers qui consacrent en moyenne environ deux heures quotidiennement à leurs déplacements domicile-travail, la qualité de l'offre de transport est un enjeu majeur.La société nationale des chemins de fer français qui exploitent la majeure partie du réseau ferré dans cette région joue un rôle central dans l'organisation des transports. Mais à l'opposé des attentes qui pèsent sur ce secteur, le trafic ferroviaire rencontrent un certain nombre de dysfonctionnements. En s'inscrivant dans une démarche globale de remise en question des principes d'exploitation ferroviaire en zone dense, cette thèse apporte un regard nouveau sur l'origine des retards qui affectent les trains.Un modèle simple qui permet d'étudier la congestion du trafic ferroviaire sous l'influence de perturbations aléatoires est proposé. En s'inspirant des outils du trafic routier et tout particulièrement du diagramme fondamental de réseau,on définit pour le ferroviaire, le diagramme fondamental de ligne ferroviaire qui permet de représenter le débit en fonction de la concentration sur une portion de ligne ferroviaire. Cet outil est ensuite utilisé pour comparer les résultats issus de notre modèle à un jeu de données mesuré sur deux lignes de chemin de fer de la région parisienne.Cette comparaison montre que notre modèle permet de reproduire qualitativement les phénomènes de congestion du trafic observés sur les cas réels. / Over the last twenty years, public transport issues in the Paris region have become a major concern. The French national railway company, which operates most of the rail network in this region, plays a central role in the organisation of transport. However, in contrast to expectations in this sector, rail traffic is experiencing a number of malfunctions. As part of an overall approach to questioning the principles of rail operation in dense areas, this thesis provides a new look at the origin of delays affecting trains. Drawing on road traffic tools and in particular the basic network diagram, the basic railway line diagram is defined for railways, which makes it possible to represent the flow as a function of concentration on a portion of a railway line. This tool is then used to compare the results from our model with a set of data measured on two railway lines in the Paris region, which shows that our model can qualitatively reproduce the traffic congestion phenomena observed on real cases.(Translated with www.DeepL.com/Translator)
76

Visualisation interactive de simulations à grand nombre d'atomes en Physique des Matériaux

Latapie, Simon 07 April 2009 (has links) (PDF)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d'unités de calcul. Les codes de calcul, en s'adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d'un système étudié est aujourd'hui de l'ordre de quelques millions à quelques centaines de millions, ce qui pose d'importants problèmes d'exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d'information de façon interactive. Le but de cette thèse est de concevoir et d'implémenter une solution de manipulation de données composées d'un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d'atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d'image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l'interactivité, c'est-à-dire rendre le système plus apte à réagir avec l'utilisateur, afin d'effectuer des phases d'exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : - à l'interaction, par un système permettant une exploration simple et efficace d'une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. - à l'interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d'un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d'occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données.
77

Suivi de caméra image en temps réel base et cartographie de l'environnement

Tykkälä, Tommi 04 September 2013 (has links) (PDF)
Dans ce travail, méthodes d'estimation basées sur des images, également connu sous le nom de méthodes directes, sont étudiées qui permettent d'éviter l'extraction de caractéristiques et l'appariement complètement. L'objectif est de produire pose 3D précis et des estimations de la structure. Les fonctions de coût présenté minimiser l'erreur du capteur, car les mesures ne sont pas transformés ou modifiés. Dans la caméra photométrique estimation de la pose, rotation 3D et les paramètres de traduction sont estimées en minimisant une séquence de fonctions de coûts à base d'image, qui sont des non-linéaires en raison de la perspective projection et la distorsion de l'objectif. Dans l'image la structure basée sur le raffinement, d'autre part, de la structure 3D est affinée en utilisant un certain nombre de vues supplémentaires et un coût basé sur l'image métrique. Les principaux domaines d'application dans ce travail sont des reconstitutions d'intérieur, la robotique et la réalité augmentée. L'objectif global du projet est d'améliorer l'image des méthodes d'estimation fondées, et pour produire des méthodes de calcul efficaces qui peuvent être accueillis dans des applications réelles. Les principales questions pour ce travail sont : Qu'est-ce qu'une formulation efficace pour une image 3D basé estimation de la pose et de la structure tâche de raffinement ? Comment organiser calcul afin de permettre une mise en œuvre efficace en temps réel ? Quelles sont les considérations pratiques utilisant l'image des méthodes d'estimation basées sur des applications telles que la réalité augmentée et la reconstruction 3D ?
78

Eulerian modeling and simulation of polydisperse moderately dense coalescing spray flows with nanometric-to-inertial droplets : application to Solid Rocket Motors / Modélisation et simulation d'écoulements diphasiques polydisperses modérément denses chargés de particules nonométriques à modérément inertielles avec coalescence : application aux moteurs à propergol solide

Doisneau, François 11 April 2013 (has links)
Dans un moteur à propergol solide, l’écoulement dépend fortement des gouttes d’alumine en suspension, dont la fraction massique est élevée. La distribution en taille des gouttes, qui s’élargit avec la coalescence, joue un rôle clef. Or résoudre des écoulements diphasiques polydisperses instationnaires avec une bonne précision sur la taille est un défi à la fois sur le plan de la modélisation et du calcul scientifique: (1) de très petites gouttes, par exemple résultant de la combustion de nanoparticules d’aluminium, subissent mouvement brownien et coalescence, (2) de petites gouttes ont leur vitesse conditionnée par leur taille de sorte qu’elles coalescent lorsqu’elles ont des tailles différentes, (3) des gouttes plus grosses peuvent se croiser par effet d’inertie et (4) toutes les gouttes interagissent de manière fortement couplée avec la phase porteuse. En complément des approches lagrangiennes, des modèles eulériens ont été développés pour décrire la phase dispersée à un coût raisonnable, et ils permettent un couplage aisé avec la phase porteuse ainsi que la parallélisation massive des codes: les approches eulériennes sont bien adaptées aux calculs industriels. Le modèle Multi-Fluide permet la description détaillée de la polydispersion, des coreélations taille/vitesse et de la coalescence, en résolvant séparément des “fluides” de gouttes triées par taille, appelés sections. Un ensemble de modèles est évalué dans cette thèse et une stratégie numérique est développée pour effectuer des calculs industriels de moteurs à propergol solide. (1) La physique des nanoparticules est évalué et incluse dans un modèle de coalescence complet. Des méthodes de moments d’ordre élevé sont ensuite développées: (2) une méthode à deux moments en taille est étendue à la coalescence pour traiter la physique de la polydispersion et les développements numériques connexes permettent d’effectuer des calculs applicatifs dans le code industriel CEDRE; (3) une méthode basée sur les moments en vitesse du deuxième ordre, un schéma de transport à l’ordre deux sur maillages structurés ainsi qu’un modèle de coalescence sont développés. Des validations académiques de la stratégie pour gouttes d’inertie modérée sont effectuées sur des écoulements complexes puis avec de la coalescence; (4) une stratégie d’intégration en temps est développée et mise en œuvre dans CEDRE pour traiter efficacement le couplage fort, dans des cas instationnaires et polydisperses incluant de très petites particules. L’ensemble des développements est soigneusement validé: soit par des formules analytiques ad hoc pour la coalescence et pour le couplage fort d’une onde acoustique; soit par des comparaisons numériques croisées avec une DPS pour la coalescence et avec des simulations lagrangiennes de cas applicatifs, coalescents et fortement couplés; soit par des résultats expérimentaux disponibles sur une configuration académique de coalescence et sur un tir de moteur à échelle réduite. La stratégie complète permet des calculs applicatifs à un coût raisonnable. En particulier, un cal- cul de moteur avec des nanoparticules permet d’évaluer la faisabilité de l’approche et d’orienter les efforts de recherche sur les propergols chargés de nanoparticules. / In solid rocket motors, the internal flow depends strongly on the alumina droplets, which have a high mass fraction. The droplet size distribution, which is wide and spreads up with coalescence, plays a key role. Solving for unsteady polydisperse two- phase flows with high accuracy on the droplet sizes is a challenge for both modeling and scientific computing: (1) very small droplets, e.g. resulting from the combustion of nanoparticles of aluminum fuel, encounter Brownian motion and coalescence, (2) small droplets have their velocity conditioned by size so they coalesce when having different sizes, (3) bigger droplets have an inertial behavior and may cross each other’s trajectory, and (4) all droplets interact in a two-way coupled manner with the carrier phase. As an alternative to Lagrangian approaches, some Eulerian models can describe the disperse phase at a moderate cost, with an easy coupling to the carrier phase and with massively parallel codes: they are well-suited for industrial computations. The Multi- Fluid model allows the detailed description of polydispersity, size/velocity correlations and coalescence by separately solving “fluids” of size-sorted droplets, the so-called sections. In the present work, we assess an ensemble of models and we develop a numerical strategy to perform industrial computations of solid rocket motor flows. (1) The physics of nanoparticles is assessed and included in a polydisperse coalescing model. High order moment methods are then developed: (2) a Two-Size moment method is ex- tended to coalescence to treat accurately the physics of polydispersity and coalescence and the related numerical developments allow to perform applicative computations in the industrial code CEDRE; (3) a second order velocity moment method is developed, together with a second order transport scheme, to evaluate a strategy for a moderately inertial disperse phase, and academic validations are performed on complex flow fields; (4) a time integration strategy is developed and implemented in CEDRE to treat efficiently two-way coupling, in unsteady polydisperse cases including very small particles. The developments are carefully validated, either through purposely derived analytical formulae (for coalescence and two-way acoustic coupling), through numerical cross-comparisons (for coalescence with a Point-Particle DNS, for applicative cases featuring coalescence and two-way coupling with a Lagrangian method), or through available experimental results (for coalescence with an academic experiment, for the overall physics with a sub-scale motor firing). The whole strategy allows to perform applicative computations in a cost effective way. In particular, a solid rocket motor with nanoparticles is computed as a feasibility case and to guide the research effort on motors with nanoparticle fuel propellants.
79

La ventilation naturelle dans la réhabilitation de bâtiments de bureaux en milieu urbain dense : défis et potentiel / Natural Ventilation in office building retrofit in dense urban context : challenges and potential / A ventilação natural na reabilitação de edificios de escritoriós : desafios e potencialidades

Ramalho fontenelle, Marilia 30 March 2016 (has links)
À présent, la réhabilitation des bâtiments est entendue comme une opportunité d’adapter les immeubles existants aux transformations urbaines. Ces modifications ont un impact sur la performance environnementale du parc immobilier, et la ventilation naturelle est l’un des aspects les plus affectés. La densification du tissu urbain est responsable, dans certains cas, de la réduction de la vitesse de l’air, qui peut rendre difficile la dissipation de la chaleur, du bruit et des polluants. Sous un climat chaud et humide, ces facteurs provoquent fréquemment l’adoption d’une climatisation mécanique, surtout dans les bâtiments de bureaux. Étant donné l’importance du sujet, ce travail a pour objectif de discuter les défis et le potentiel d’adopter la ventilation naturelle dans les projets de réhabilitation des bâtiments de bureaux en milieu urbain dense. On soutient l’hypothèse que le projet de réhabilitation peut promouvoir l'utilisation efficace de la ventilation naturelle dans les bâtiments de bureaux, à travers son adéquation au contexte urbain et environnemental présent. La demarche adoptée est composée de quatre étapes. Tout d’abord, on effectue une revue de la littérature sur la réhabilitation des bâtiments pour comprendre le contexte spécifique sur lequel on travaille le thème de la «ventilation naturelle». Ensuite, on analyse l’état de l'art sur la ventilation naturelle dans le cadre de la réhabilitation dans les contextes nationaux et internationaux afin d'identifier les avancées atteintes. Après, on réalise une revue de la littérature sur les effets de l'urbanisation sur l’écoulement de l’air. Pour clore, on propose une réhabilitation d’un bâtiment de bureaux dans le centre-ville de Rio de Janeiro, qui permettra de vérifier les bénéfices d’une solution de ventilation pour le confort des occupants. Le travail souligne la complexité de trouver des solutions de réhabilitation qui permettent d’augmenter le débit d’air dans les bâtiments tout en conciliant l’intégralité de leur patrimoine architectural, l’adaptation aux nécéssités présentes et la possibilité des transformations futures. Le défi augmente dans les milieux urbains denses, où le bruit, la pollution de l’air et la faible perméabilité du tissu urbain peuvent poser des limitations. Dans le cadre des recherches en Europe, Asie et Amérique du Nord, plusieurs réhabilitations ont été réalisées pour analyser la performance des solutions de ventilation. Les ventilations hybride et nocturne sont les plus indiquées. Au Brésil, les recherches sur ce sujet restent balbutiantes et la climatisation mécanique est la solution 9 prédominante dans les rénovations des espaces corporatifs. L’étude de cas montre, à l’aide des modélisations CFD, que la densification de la région analysée a réduit la vitesse et le débit d’air des étages et, par conséquent, a diminué les heures de confort thermique. Les étages plus bas sont les moins favorisés par le vent et le bruit. Ce diagnostic montre la nécessité d’amplifier le débit d’air du bâtiment pendant son occupation et de rendre possible la ventilation nocturne pour dissiper la chaleur accumulée pendant la journée. Dans ce sens, on propose l’ouverture de la partie fixe supérieure de toutes les fênetres, une intervention qui préserve les caractéristiques originales des façades et ne nuit pas à la sécurité du bâtiment lorsqu’il est inoccupé. Les résultats indiquent que cette intervention a augmenté les heures de confort thermique des occupants entre 0,5 et 35%, selon l’étage et de l’indicateur utilisé dans l’interprétation des résultats. Cela renforce l’hypothèse que la ventilation naturelle, toute seule, n’est pas sufisante pour préserver le confort des occupants pendant toute l’année. Cependant, elle peut être complétée par la ventilation mécanique, a fin de concilier le bien-être des usagers et la réduction de la consommation d’énergie des bâtiments / Nowadays, retrofitting is understood as an opportunity to adapt existing buildings to the urban transformations of its surroundings. The changes in the urban fabric can cause impacts to the building environmental performance and, generally, natural ventilation is one of the most affected aspects. The densification process is responsible, in some cases, for the reduction of wind speed, which can disturb the dissipation of heat, noise and pollutants. In hot and humid climate, these factors cause frequently the adoption of mechanical ventilation, mainly in office buildings. Given the relevance of the subject, this work aims to discuss the challenges and potential of adopting natural ventilation in the retrofit of office buildings located in dense urban areas. Our hypothesis is that the retrofit project can promote the efficient use of natural ventilation in office buildings, through its adaptation to the present urban and environmental conditions. The methodology includes 4 stages. First, we carry out a literature review about building retrofits to understand the specific context with which we are dealing the subject of “natural ventilation”. Next, we analyze the state of the art of natural ventilation in the retrofit context to identify the main findings. Then, we investigate the effects of urbanization on the airflow pattern. Finally, we propose retrofitting an office building in downtown Rio de Janeiro to verify the benefits offered by a ventilation solution to the occupants’ thermal comfort. We highlight the complexity of developing solutions that increase the airflow in buildings while balancing the protection of its past, the response to the present requirements and the possibility of future changes. This challenge increases in dense urban areas, where noise, air pollution and low permeability of the urban fabric can place some limitations. As part of the research carried out by European, Asian and North American countries, several renovations were conducted to analyze the performance of ventilation solutions. Hybrid and night ventilation were indicated as the most appropriate ones. In Brazil, investigations in this subject remain incipient and air conditioning is the predominant solution in office spaces. By means of CFD simulations, the case study shows that the densification of the analyzed region reduced the wind speed and airflow in all floors and, therefore, reduced the thermal comfort hours. The lower floors are the least favored by the wind and the noise. This diagnostic points out the need to increase buildings airflow during its occupancy and allow night ventilation to dissipate the heat gains accumulated during the day. In this way, we propose to open the upper fixed 11 portion of all windows, a solution that protects the original façade features and do not harm the buildings security when it is not occupied. Thermal simulations indicate that this procedure increases the thermal comfort annual hours in 0,5-35%, depending on the floor and the adaptive comfort model used to interpret the results. We conclude that natural ventilation itself is not sufficient to ensure occupants comfort throughout the year, however it can be complemented by mechanical ventilation in order to balance thermal comfort and energy efficiency. / Atualmente, a reabilitação é entendida como uma oportunidade de adaptar os edifícios existentes às transformações urbanas sofridas pelo entorno. Tais modificações geram impactos ao desempenho ambiental do imóvel, e a ventilação natural é um dos aspectos mais afetados. O adensamento do tecido urbano é responsável, em alguns casos, pela redução da velocidade do ar, que pode dificultar a dissipação do calor, ruído e poluentes. Nos climas quentes e úmidos, esses fatores provocam frequentemente a adoção de refrigeração mecânica, especialmente em edifícios de escritórios. Dada a relevância do tema, este trabalho tem por objetivo discutir os desafios e potencialidades de adotar a ventilação natural no projeto de reabilitação de edifícios de escritórios situados em meios urbanos densos. Assume-se como hipótese que o projeto de reabilitação pode promover uma utilização eficiente da ventilação natural nos edifícios de escritórios, por meio de sua adequação ao contexto urbano presente. A metodologia adotada é composta por quatro etapas. Inicialmente, realiza-se uma revisão bibliográfica sobre a reabilitação de edifícios a fim de compreender o contexto específico sobre o qual será trabalhado o tema da ventilação natural. Em seguida, analisa-se o estado-da-arte da ventilação natural no contexto da reabilitação, buscando identificar os principais avanços obtidos no cenário nacional e internacional. Depois, efetua-se uma revisão da literatura sobre os efeitos da urbanização no escoamento do ar. Finalmente, propõe-se uma reabilitação de um edifício de escritórios no centro do Rio de Janeiro, para verificar os benefícios de uma solução de ventilação no conforto dos ocupantes. O trabalho destaca a complexidade de desenvolver soluções reversíveis que possibilitem aumentar a vazão de ar nos edifícios e preservar suas características construtivas. O desafio é ainda maior em meios urbanos densos, onde o ruído, a poluição do ar e a baixa permeabilidade do tecido urbano podem impor limitações. As pesquisas desenvolvidas na Europa, Ásia e América do Norte destacam as ventilações híbrida e noturna como as soluções mais indicadas. No Brasil, os trabalhos sobre o tema ainda são incipientes, e a refrigeração mecânica é a solução predominante nas reabilitações de espaços corporativos. O estudo de caso indica, por meio de simulações fluidodinâmicas e térmicas, que a densificação da área analisada reduziu a velocidade e vazão do ar no edifício, diminuindo as horas de conforto térmico. Os pavimentos7mais baixos são os menos favorecidos pelos ventos e ruído. Este diagnóstico indica a necessidade de aumentar a vazão de ar durante a ocupação e viabilizar a ventilação noturna para dissipar o calor acumulado durante o expediente. Neste sentido, propõe-se a abertura das folhas fixas sobre as janelas existentes, o que não compromete a preservação das características originais das fachadas e a segurança do edifício quando desocupado. Os resultados indicam que esta intervenção aumenta entre 0,5 e 35% as horas de conforto dos ocupantes. Conclui-se que a ventilação natural, por si só, não satisfaz o conforto térmico durante o ano todo, mas pode ser complementada pela ventilação mecânica, de modo a conciliar eficiência energética e bem-estar dos usuários.
80

Almost Homeomorphisms and Inscrutability

Andersen, Michael Steven 01 December 2019 (has links)
“Homeomorphic'' is the standard equivalence relation in topology. To a topologist, spaces which are homeomorphic to each other aren't merely similar to each other, they are the same space. We study a class of functions which are homeomorphic at “most'' of the points of their domains and codomains, but which may fail to satisfy some of the properties required to be a homeomorphism at a “small'' portion of the points of these spaces. Such functions we call “almost homeomorphisms.'' One of the nice properties of almost homeomorphisms is the preservation of almost open sets, i.e. sets which are “close'' to being open, except for a “small'' set of points where the set is “defective.'' We also find a surprising result that all non-empty, perfect, Polish spaces are almost homeomorphic to each other.A standard technique in algebraic topology is to pass between a continuous map between topological spaces and the corresponding homomorphism of fundamental groups using the π1 functor. It is a non-trivial question to ask when a specific homomorphism is induced by a continuous map; that is, what is the image of the π1 functor on homomorphisms?We will call homomorphisms in the image of the π1 functor “tangible homomorphisms'' and call homomorphisms that are not induced by continuous functions “intangible homomorphisms.'' For example, Conner and Spencer used ultrafilters to prove there is a map from HEG to Z2 not induced by any continuous function f : HE→ Y , where Y is some topological space with π1(Y ) = Z2. However, in standard situations, such as when the domain is a simplicial complex, only tangible homomorphisms appear..Our job is to describe conditions when intangible homomorphisms exist and how easily these maps can be constructed. We use methods from Shelah and Pawlikowski to prove that Conner and Spencer could not have constructed these homomorphisms with a weak version of the Axiom of Choice. This leads us to define and examine a class of pathological objects that cannot be constructed without a strong version of the Axiom of Choice, which we call the class of inscrutable objects. Objects that do not need a strong version of the Axiom of Choice are scrutable. We show that the scrutable homomorphisms from the fundamental group of a Peano continuum are exactly the homomorphisms induced by a continuous function.

Page generated in 0.0347 seconds