• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 288
  • 169
  • 79
  • 37
  • 27
  • 21
  • 14
  • 11
  • 8
  • 8
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 720
  • 152
  • 140
  • 89
  • 76
  • 73
  • 72
  • 72
  • 71
  • 70
  • 61
  • 60
  • 51
  • 50
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Implementering av testplattform för end-to-end streaming telemetry i nätverk

Erlandsson, Niklas January 2020 (has links)
Målen med denna studie är att implementera en testmiljö för streaming telemetry samt jämföra två alternativ för att möjliggöra realtidsanalys av det insamlade datat. Dessa två alternativ är Python-biblioteken PyKafka och Confluent-Kafka-Python. Bedömningskritierna för jämförselsen var dokumentation, kodmängd och minnesanvändning. Testmiljön för streaming telemetry använder en router med Cisco IOS XR programvara som skickar data till en Cisco Pipeline collector, som vidare sänder datat till ett Kafka-kluster. Jämförelsen av Python-biblioteken utfördes med språket Python. Resultaten av jämförelsen visade att båda biblioteken hade välskriven dokumentation och liten skillnad i kodmängd, dock använde Confluent-Kafka-Python mindre minne. Studien visar att streaming telemetry med realtidsanalys kan fungera bra som ett komplement till eller en ersättning av SNMP. Studien rekommenderar användning av Confluent-Kafka-Python för implementering i produktionsmiljöer med ett stort antal nätverksenheter med tanke på den lägre minnesanvändningen. / The goals of this study are to implement a test environment for streaming telemetry and compare two alternatives for analysing the collected data in realtime. The two alternatives are the Python libraries PyKafka and Confluent-Kafka-Python. The comparison focused mainly on three areas, these being documentation, amount of code and memory usage. The test environment for streaming telemetry was set up with a router running IOS XR software that is sending data to a Cisco Pipeline collector, which in turn sends data to a Kafka-cluster. The comparison of the two libraries for interfacing with the cluster was made with the language Python. The results of the comparison showed that both libraries had well-written documentation and showed a negligible difference in amount of code. The memory usage was considerably lower with the Confluent-Kafka-Python library. The study shows that streaming telemetry together with real-time analysis makes a good complement to or a replacement of SNMP. The study further recommends the use of Confluent-Kafka-Python in real-world implementations of streaming telemetry, particularly in large networks with a large amount of devices.
152

Utläsning av jonkammardata / Ion chamber output read

Larsson, Isak January 2020 (has links)
Tracercenter på Norrlands Universitetssjukhus producerar radiotracers. För att mäta aktiviteten hos de radioaktiva isotoperna används idag en jonkammare tillsammans med mjukvara byggt på Windows XP. Målet med det här examensarbetet är att bygga ny mjukvara som är kompatibelt med Windows 10. Mjukvaran ska tillhandahålla kalibreringsmöjligheter för isotoperna F-18, C-11 och Cs-137 samt kunna överföra uppmätt värde till datahanteringssystemet PETra.Med användandet av kodspråket Python och biblioteket TkInter har ett användargränsnitt och bakomliggande funktionskod utvecklats. Mjukvaran kommunicerar med både jonkammare och PETra seriellt via COM-Port. Linjäritetstester har gjorts för jonkammaren som påvisat god linjäritet. Detta resultat bekräftar mjukvarans tillförlitlighet med en liten felmarginal. Ytterligare tester behövs för att fastställa magnituden av felmarginalen. / Tracercenter at Norrlands University Hospital is a producer of radiotracers. To measure the activity of the radioactive isotopes an Ion Chamber combined with software built on Windows XP is used. The purpose of this thesis is to develop new software for the ion chamber compatible with Windows 10. The software has to provide a calibration function for the isotopes F-18, C-11 and Cs-137 aswell as be able to transfer measured activity to the laboratory information management system PETra.A graphical user interface together with backend code has been developed with Python and the library TkInter. The software communicates with both the ion chamber and PETra with a serial connection via COM-Port. Linearity tests have been made for the ion chamber which has shown that the output of the ion chamber itself is linear. This result confirms the software’s reliability with a slight margin of error. Further tests is needed to determine the magnitude of the margin of error.
153

An Analysis of Data Cleaning Tools : A comparative analysis of the performance and effectiveness of data cleaning tools

Stenegren, Filip January 2023 (has links)
I en värld full av data är felaktiga eller inkonsekventa data oundvikliga, och datarensning, en process som rensar sådana skillnader, blir avgörande. Syftet med studien är att besvara frågan om vilka kriterier datarengöringsverktyg kan jämföras och utvärderas med. Samt att genomföra en jämförande analys av två datarengöringsverktyg, varav ett utvecklades för ändamålet med denna studie medan det andra tillhandahölls för studien. Analysens resultat bör svara på frågan om vilket av verktygen som är överlägset och i vilka avseenden. De resulterande kriterierna för jämförelse är exekveringstid, mängden RAM (Random Access Memory) och CPU (Central Processing Unit) som används, skalbarhet och användarupplevelse. Genom systematisk testning och utvärdering överträffade det utvecklade verktyget i effektivitetskriterier som tidmätning och skalbarhet, det har också en liten fördel när det gäller resursförbrukning. Men eftersom det tillhandahållna verktyget erbjuder ett GUI (Graphical User Interface) finns det inte ett definitivt svar på vilket verktyg som är överlägset eftersom användarupplevelse och behov kan väga över alla tekniska färdigheter. Således kan slutsatsen om vilket verktyg som är överlägset variera, beroende på användarens specifika behov. / In a world teeming with data, faulty or inconsistent data is inevitable, and data cleansing, a process that purges such discrepancies, becomes crucial. The purpose of the study is to answer the question of what criteria data cleaning tools can be compared and evaluated with. As well as undergoing a comparative analysis of two data cleansing tools, one of which is developed for the purpose of this study whereas the other was provided for the study. The result of the analysis should answer the question of which of the tools is superior and in what regard. The resulting criteria for comparison are execution time, amount of RAM (Random Access Memory) and CPU (Central Processing Unit) usage, scalability and user experience. Through systematic testing and evaluation, the developed tool outperformed in efficiency criteria like time measurement and scalability, it also has a slight edge over on resource consumption. However, because the provided tool offers a GUI (Graphical User Interface), there is no definitive answer as to which tool is superior as user experience and needs can outweigh any technical prowess. Thus, the conclusion as to which tool is superior may vary, depending on the specific needs of the user.
154

Developing Submarine for Monitoring Water Quality through a Cooperative and Innovative Approach

Hammoud, Mohammad January 2022 (has links)
This report is about implementing a real-time monitoring water qualitysystem to measure water quality autonomously in any water environment.The purpose of collecting data is to analyze the results and build a clearpicture to move quickly to find solutions in the event of pollution or any otherdangerous circumstances. The report explains the submarine system thatconnects to the winch system, part of the primary system.Two Raspberry Pi microcontrollers and sensors are used to collect the data.Serial connection is used to build communication between themicrocontrollers in order to transfer data between them. The focus area of thewhole project is the communication part since the prototype’s design is not apart of this thesis. Storing the collected data happens in the centralmicrocomputer in a CSV file. However, it should be stored in a databaseserver to take advantage of this data in the fastest way possible. / Den här rapporten handlar om att implementera ett vattenkvalitetssystem förövervakning i realtid för att mäta vattenkvaliteten självständigt i vilkenvattenmiljö som helst. Syftet med att samla in data är att analysera resultatoch bygga upp en tydlig bild för att snabbt kunna hitta lösningar i händelseav föroreningar eller andra farliga omständigheter. Rapporten förklararubåtssystemet som ansluter till vinschsystemet, en del av det primärasystemet.Två Raspberry Pi-mikrokontroller och sensorer används för att samla in data.Seriell anslutning används för att bygga kommunikation mellanmikrokontrollerna för att överföra data mellan dem. Fokusområdet för helaprojektet är kommunikationsdelen eftersom design av prototypen inte är endel av detta arbete. Lagring av insamlade data sker i den centrala mikrodatorni en CSV-fil. Det bör dock sparas i en databasserver för att dra resultat ochslutsatser av denna data på snabbast möjliga sätt.
155

Автоматизация структурного анализа веб-сайта : магистерская диссертация / Automation of the web site structural analysis

Левадний, А. А., Levadniy, A. A. January 2022 (has links)
Цель проекта заключается в разработке приложения, которое способно информационно поддержать структурный анализ веб-сайта. В функционал созданного приложения входят: разбор тегов, составляющих HTML-код приложения, построение карты сайта, определение ссылок на внешние адреса, нахождение и отображение в отдельном окне подгруженных на сайт графических ресурсов. В ходе выполнения ВКР были рассмотрены варианты использования данного приложения. Например, его можно использовать для оценки сложности и трудоемкости сайта. Для этого были изучены и адаптированы основные методики оценки трудоемкости создания программных продуктов. Результаты тестирования показали, что все функции приложения работают корректно и могут быть использованы в практической деятельности. / The goal of the project is to develop an application that is able to support the structural analysis of a website. The functionality of the created application includes the following stages: parsing the tags that make up the HTML code of a website under investigation, building the site map, determining links to external addresses, finding and displaying graphic resources uploaded into the site in a separate window. In this work, ways for implementing this application were considered. For example, it provides the functionality to assess the site complexity and labor costs for its development. In order to do this, main techniques for assessing labor costs of software development were learnt and adapted. Test results showed that all functions of the application were working correctly and could be used in practice.
156

SPRING 2022: Online-Summerschool Python für Ingenieurinnen: Konferenzband

Apelt, Sabine, Knoll, Carsten, Kazimiers, Antje, Koch, Dorothea Piko 28 May 2024 (has links)
Dieser Konferenzband ist das Ergebnis von SPRING 2022, der Summerschool Python remote für Ienieur*innen, einer von der Technischen Unviersität Dresden organisierten Online-Summerschool, welche in der Woche vom 07.06. bis 10.06.2022 stattfand. Das erste Kapitel befasst sich mit den Rahmenbedingungen, Vorüberlegungen und der organisatorischen Umsetzung der Summerschool mit dem Ziel, die Erfahrungen der Organisator*innen mit interessierten Nachahmenden zu teilen. Das zweite Kapitel fasst die Inhalte und Übungsaufgaben der theoretischen Einheiten der Summerschool zusammen, aufgeteilt in die Inhalte für Anfänger*innen und die Inhalte für Fortgeschrittene. Im letzten Kapitel finden sich die Beiträge des Symposiums, einer Abendveranstaltung im Rahmen der Summerschool, bei der die fortgeschrittenen Teilnehmenden ihre Erfahrungen zum Einsatz von Python aus ihrem Ingenieur*innenalltag teilen konnten.:1 Organisatorisches 5 Abstract 5 1.1 Organisation einer Online-Summerschool Python für Ingenieur*innen 6 1.1.1 Motivation 6 1.1.2 Team und Teilnehmende 7 1.1.3 Ablauf 9 1.1.4 Evaluation und Ausblick 13 2 Workshops 19 2.1 Python für Ingenieur*innen - Programmiereinstieg 20 2.2 Python für Ingenieur*innen - Fortgeschrittene 27 2.2.1 Numpy-Übungen 27 2.2.2 Einschub: Effizienter Umgang mit Dokumentationen und anderen Online-Ressourcen 30 2.2.3 Matplotlib-Übungen 31 2.2.4 Pandas-Übungen 32 3 Beiträge zum Symposium 35 3.1 Automatisierte Messdatenauswertung am Motorprüfstand in Python 36 3.2 Opto-Mechatronic Screening Module for 3D Tumour Model Eng. 38 3.3 Python in der Regelungs- und Automatisierungstechnik 40 3.4 Leben mit Python 45 / This conference volume is the result of SPRING 2022, the summer school Python remote for engineers, an online summer school organized by the Technische Unviersität Dresden, which took place in the week from 07.06. to 10.06.2022. The first chapter deals with the framework conditions, preliminary considerations and the organizational implementation of the summer school with the aim of sharing the experiences of the organizers with interested imitators. The second chapter summarizes the content and exercises of the theoretical units of the summer school, divided into content for beginners and content for advanced participants. The last chapter contains the contributions from the symposium, an evening event held as part of the summer school, where the advanced participants were able to share their experiences of using Python in their everyday engineering work.:1 Organisatorisches 5 Abstract 5 1.1 Organisation einer Online-Summerschool Python für Ingenieur*innen 6 1.1.1 Motivation 6 1.1.2 Team und Teilnehmende 7 1.1.3 Ablauf 9 1.1.4 Evaluation und Ausblick 13 2 Workshops 19 2.1 Python für Ingenieur*innen - Programmiereinstieg 20 2.2 Python für Ingenieur*innen - Fortgeschrittene 27 2.2.1 Numpy-Übungen 27 2.2.2 Einschub: Effizienter Umgang mit Dokumentationen und anderen Online-Ressourcen 30 2.2.3 Matplotlib-Übungen 31 2.2.4 Pandas-Übungen 32 3 Beiträge zum Symposium 35 3.1 Automatisierte Messdatenauswertung am Motorprüfstand in Python 36 3.2 Opto-Mechatronic Screening Module for 3D Tumour Model Eng. 38 3.3 Python in der Regelungs- und Automatisierungstechnik 40 3.4 Leben mit Python 45
157

Processing and analysis of large scale spatial transcriptomic sequencing data

Sztanka-Tóth, Tamás Ryszard 05 August 2024 (has links)
Räumliche Transkriptomik-Sequenzierungstechniken werden bei der Untersuchung von RNA in komplexen Geweben immer populärer. Mit diesen neuartigen Ansätze wird die Häufigkeit von Transkripten unter Beibehaltung ihrer räumlichen Lage gemessen, und ermöglichen so die Untersuchung der Genexpression in einem unvoreingenommen, raumzeitlichen Kontext. Angesichts der Vielfalt der zugrunde liegenden experimentellen Techniken, die Datensätze, die von verschiedenen Transkriptomik-Assays erstellt werden, variieren stark. Diese Datensätze werden von Pipelines verarbeitet und analysiert, die speziell für die jeweilige Methode entwickelt sind. Sie sind weder einfach modifizierbar, noch erweiterbar, dadurch sind sie nicht mit Inputs anderer Technologien kompatibel. Hier wird spacemake vorgestellt, eine bioinformatische Software, die darauf abzielt, die Lücke zwischen den verschiedenen räumlichen transkriptomischen Sequenzierungsansätzen zu schließen, durch sie einheitliches, schnelles, modulares, reproduzierbares und erweiterbares Rahmenwerk für die Verarbeitung und Analyse groß angelegter räumlicher transkriptomischer Daten bietet. Spacemake verarbeitet erfolgreich Daten aus den neuesten räumlichen Transkriptomik-Assays, unabhängig von ihrer Inputs. Spacemake ist parallel und läuft im Vergleich zu anderen vergleichbaren Techniken schneller. Spacemake ist modular entwickelt, und bietet verschiedene Module wie automatisiertes Clustering und Analyse, Quality Control, Saturation Analyse durch Downsampling, Zusammenführung technischer Replikate, Integration von scRNA-seq-Daten und Alignment von Mikroskopiebildern. Um ein Höchstmaß an Flexibilität zu bieten, ermöglicht spacemake benutzerkonfigurierbare Einstellungen\textit{run-mode} Einstellungen, wodurch die Unterstützung einer breiten Palette experimenteller Designs gewährleistet wird. Da spacemake in Python geschrieben ist, lässt es sich gut mit anderen Computational Biologie Methoden integrieren. Insgesamt hat spacemake das Potenzial, ein wichtiger Bestandteil der räumlichen Transkriptomik-Toolbox der Gegenwart und Zukunft zu sein. / Spatial transcriptomics sequencing techniques are increasingly popular when studying RNA in complex tissues. These novel approaches measure the abundance of transcripts while retaining their spatial location information, thus allowing the study of gene expression in an unbiased, spatiotemporal context. Given the variety of the underlying experimental techniques, the datasets which are produced by each spatial transcriptomic assay also vary greatly. These datasets are processed and analyzed by pipelines tailored specifically for each method, and are not easily modifiable nor extendable, thus making them incompatible to work with inputs from other technologies. Here spacemake is introduced, a bioinformatic software that aims to close the gap between the various spatial transcriptomic sequencing approaches, by providing a unified, fast, modular, reproducible, and extendable framework for large-scale spatial transcriptomic data processing and analysis. Spacemake successfully processes data from the latest spatial transcriptomics assays, regardless of their input data structure. Spacemake is parallel and runs faster when compared with other similar methods. It has a modular design and offers several modules such as automated clustering and analysis, quality control, saturation analysis through downsampling, technical replicate merging, scRNA-seq data integration, and microscopy image alignment. To offer maximum flexibility, spacemake allows for user-configurable \textit{run-mode} settings, ensuring support for a wide range of experimental designs. Written in Python, spacemake integrates well with other computational biology solutions. Overall spacemake has the potential to be an important part of the spatial transcriptomics toolbox of the present and future.
158

Developing a passwordgenerating software : Regarding password memorability and security / Utveckling av programvara förlösenordsgenerering : Avseende till minnesvärdhet och säkerhet gällande lösenord

Mogaddam, Anton, Muhammad, Khan January 2022 (has links)
With the growth of digital information and technology, more websites require user authentication to access individuals' sensitive information. The main form of authentication are passwords which if chosen unwisely can easily be guessed or cracked by someone else. This is why it is important to create safe yet memorable passwords. The goal of this report was to develop a program that is able to detect commonly used patterns within passwords in order to transform a specified user inputted password into a more secure password without sacrificing the memorability of the original input. This was realized by analyzing lists of common passwords and partaking in a literature study within this field to identify the patterns present within those password lists. Based on the pattern analysis the program could be designed and developed using python to transform a password into three different password classes with differing levels of security and memorability. The password cracking software hashcat as well as online resources were used to estimate the time it would crack each set of passwords to then gain an understanding of the security levels between them. Results show that it is possible to perform password generation without sacrificing too much security while still having the passwords somewhat memorable. / Med framväxten av digital information och teknik kräver fler webbplatser användarautentisering för att få tillgång till individers känsliga information. Den huvudsakliga formen av autentisering är lösenord, och om de väljs oklokt, kan lätt gissas eller knäckas av någon annan. Det är därför det är viktigt att skapa säkra men ändå minnesvärda lösenord. Målet med denna rapport var att utveckla ett program som kan upptäcka vanliga mönster i lösenord för att omvandla ett specifikt användar inmatat lösenord till ett säkrare lösenord utan att offra minnesvärdheten av den ursprungliga inmatningen. Detta förverkligas genom att analysera listor med vanliga lösenord och delta i en litteraturstudie inom detta område för att identifiera mönstren som finns i dessa lösenordslistor. Baserat på mönsteranalysen kunde programmet designas och utvecklas med Python för att omvandla ett lösenord in till tre olika lösenordsklasser med olika nivåer av säkerhet och minnesvärdhet. Mjukvaran ”hashcat” (ett lösenordsåterställningsverktyg) samt resurser från nätet användes för att uppskatta den tid det skulle ta att knäcka varje uppsättning av lösenord för att sedan få en förståelse för säkerhetsnivåerna mellan dem. Resultaten visar att det är möjligt att digitalt generera lösenord utan att offra för mycket säkerhet, samtidigt som lösenorden behåller minnesvärdheten.
159

Spatially Distributed Travel Time Modeling for Predicting Urban Floods During Extreme Precipitation Events / Modellering av spatialt fördelade flödestider för urbana översvämningar vid extrema nederbördshändelser

Delavar, Mohammadreza January 2024 (has links)
The intensity and frequency of precipitation events have increased because of global warming and its direct impact on the hydrological cycle. This poses a significant challenge for various locations around the globe where in recent years more unpredicted flooding has been observed. The utilization of hydrological models for accurate prediction of urban floods under heavy rainfall events is crucial to deal with such global problems. The purpose of this study is to develop a model based on the Spatial Distributed Travel Time (SDTT) approach that estimates the response of watersheds to a short and intense rainfall event in urban settings. The model is developed in Python and uses the ArcPy package, which allows access to all the geoprocessing tools available at ArcGIS, along with the Numpy package that supports matrices which makes mathematical calculation efficient.   One of the important factors affecting the response of watersheds is the contribution of upstream flow. The current study used Dynamic Upstream Contribution (DUC) to estimate the unit hydrograph and consider the effect of upstream runoff contributing to travel time equations using physical characteristics and the dynamic of rainfall events. The SDTT model was validated with a fully distributed model, MIKE 21, and showed that when the infiltration module estimates the total runoff volume accurately, the unit hydrograph of the DUC method can predict the peak almost as accurately as MIKE 21. Before validation, the excess rainfall estimated in the SDTT model is multiplied by a constant coefficient to align the total water volume of the model with that of the MIKE 21 model.  The peak flow is the most important component of a discharge hydrograph since its accurate prediction helps in assessing the severity of flooding and the capacity of drainage systems to handle the excess water. Another component of a discharge hydrograph is time to peak which the SDTT model predicts with a delay compared to MIKE 21. The sensitivity analysis showed the simplification regarding the dynamic of rainfall intensity used in travel time equations contributes to this delayed peak. The other simplification that might impact the watershed response is the approach the model used to handle depression volume which is too general. A conceptual method proposed in this report can be used in future studies to improve this part of the model by capturing the spatial distribution of depression locations as well as the temporal dynamics of charging the depressions.   After the model was validated in the first study area, it was implemented in another study area to evaluate the effect of urban development on the hydrological response of urban catchments to a short and intense rainfall event. This scenario-based analysis showed that by further development of the model, it can be used as a tool for the initial phase of hydrologic investigation of urban areas in response to heavy rainfall events. By conducting the screening phase of hydrological investigation and filtering the risky location, the SDTT model can be used as a complementary model for more advanced fully distributed models that are more computationally extensive.   The recorded simulation time demonstrated that the SDTT model is quick when it comes to small-sized watersheds, but it is less time-efficient for large catchments. An approach proposed in this report can be utilized to optimize the model's processing time for larger catchments. By making the model time efficient and addressing the issues mentioned in the report, the developed SDTT model can facilitate the hydrological investigation by reducing the initial data gathering burden and simulation time, and making the assessments of urban watersheds more efficient can facilitate informed decision-making in urban flood risk management. / Till följd av den globala uppvärmningen har intensiteten och frekvensen av nederbördshändelser ökat, en direkt inverkan på den hydrologiska cykeln som utgör en betydande utmaning för olika platser runt om i världen där oförutsedda översvämningar observerats under de senaste åren. Användningen av hydrologiska modeller för att med noggrannhet förutseurbana översvämningar under kraftiga nederbördshändelser är avgörande för att hantera detta globala problem. Syftet med denna studie är att utveckla en modell baserad på Spatial Distributed Travel Time (SDTT) metodiken. SDTT-metodiken beskriver responsen från ett avrinningsområde för en kort och intensiv nederbördshändelse i urban miljö. Modellen är utvecklad i Python och inkluderar ArcPy-paketet som ger tillgång till alla geoprocesseringsverktyg som finns i ArcGIS tillsammans med Numpy-paketet som stödjer matriser som effektiviserar matematiska beräkningar.  En av de avgörande faktorerna som visade sig påverka reaktionen från ett avrinningsområde var flödet från uppströmsområdet. Den aktuella studien använde Dynamic Upstream Contribution (DUC) för att uppskatta enhetshydrografen med hänsyn till effekten avrinningen uppströms har på avrinningshastigheten med hjälp av fysiska egenskaper och nederbördsdynamik. SDTT-modellen validerades med en fullt distribuerad modell, MIKE 21, och visade att när infiltrationsmodulen uppskattar den totala avrinningsvolymen exakt, kan enhetshydrografen för DUC-metoden förutsäga toppflödet exakt. Innan validering multipliceras överskottsnederbörden uppskattad i SDTT-modellen med en konstant koefficient för att justera modellens totala vattenvolym med den i MIKE 21-modellen. Toppflödet är den viktigaste komponenten i en flödeshydrograf eftersom dess noggranna förutsägelse hjälper till att bedöma allvarsgraden av översvämningar samt dräneringssystemens kapacitet att hantera överskottsvatten. En annan komponent i en flödeshydrograf är den tid det tar tills toppflödet uppstår, något som SDTT-modellen förutsäger med en fördröjning jämfört med MIKE 21. Känslighetsanalysen visade att förenklingen gällande dynamiken för nederbördsintensitet som används i ekvationerna för avrinningshastighet bidrar till denna fördröjda topp. Den andra förenklingen som kan påverka responsen från avrinningsområdet är metoden som modellen använde för att hantera volymen vatten som lagras i sänkor, som är förgenerell. En konceptuell metod föreslås i denna rapport och kan användas i framtida studier för att förbättra denna del av modellen genom att fånga den rumsliga fördelningen av sänkor samt tidsaspekten i att fylla upp sänkvolymerna.   Efter att modellen validerats i det första studieområdet, implementerades den i ett annat studieområde för att utvärdera kopplingen mellan stadsutveckling och hydrologisk respons i urbana avrinningsområden i kontexten av en kort och intensiv nederbördshändelse. Denna scenariobaserade analys visade att modellen efter vidareutveckling kan användas som ett verktyg för den inledande fasen av hydrologisk undersökning av stadsområden, i syfte att utreda möjliga konsekvenser av kraftiga nederbördshändelser. Genom att genomföra screeningfasen av hydrologisk undersökning och filtrera den mest riskfyllda platsen kan SDTT-modellen användas som en kompletterande modell för mer avancerade fullt distribuerade modeller som är mer beräkningsmässigt omfattande.   Den registrerade simuleringstiden visade att SDTT-modellen är snabb när det kommer till ett litet avrinningsområde, men modellen är mindre tidseffektiv för stora avrinningsområden. Ett tillvägagångssätt som föreslås i denna rapport kan användas för att optimera modellens handläggningstid för större avrinningsområden. Genom att göra modellen tidseffektiv och åtgärda frågorna som nämns i rapporten, kan den utvecklade SDTT-modellen underlätta den hydrologiska undersökningen genom att minska den inledande datainsamlingsbördan, minskasimuleringstiden, och dessutom göra utvärderingarna av urbana avrinningsområden mer effektiva. Slutligen kan modellens resultat användas för att underlätta informerat beslutsfattande kopplat till hantering av översvämningsrisker i städer.
160

ANNarchy: a code generation approach to neural simulations on parallel hardware

Vitay, Julien, Dinkelbach, Helge Ülo, Hamker, Fred Henrik 07 October 2015 (has links) (PDF)
Many modern neural simulators focus on the simulation of networks of spiking neurons on parallel hardware. Another important framework in computational neuroscience, rate-coded neural networks, is mostly difficult or impossible to implement using these simulators. We present here the ANNarchy (Artificial Neural Networks architect) neural simulator, which allows to easily define and simulate rate-coded and spiking networks, as well as combinations of both. The interface in Python has been designed to be close to the PyNN interface, while the definition of neuron and synapse models can be specified using an equation-oriented mathematical description similar to the Brian neural simulator. This information is used to generate C++ code that will efficiently perform the simulation on the chosen parallel hardware (multi-core system or graphical processing unit). Several numerical methods are available to transform ordinary differential equations into an efficient C++code. We compare the parallel performance of the simulator to existing solutions.

Page generated in 0.0497 seconds