Spelling suggestions: "subject:"python"" "subject:"jython""
351 |
Applying Computational Resources to the Down-Arrow ProblemKoch, Johnathan 28 April 2023 (has links)
No description available.
|
352 |
Updating existing Human-Machine Interface With The Ability Of Communicating With A Web ServerDalin-Volsing, Emil, Stranne, Viktor January 2022 (has links)
As technology advances and innovation becomes a keystone in every new product, some old gadgets and applications might experience difficulty keeping up. Theymight still be as functional as they were but the impression of them might not be ascreative as they were. At Tecnau, Ljungby, the user interface for their machines is noexception. Their GUI requires an update, aesthetic-wise and in terms of the softwarein which it is developed. Earlier their application was created in Tecanu’s programming language but this project will find a new, recently developed, framework andmethod of development for an HMI which will enable easier future development andredesigning of the user interface. To achieve this, a literature study has been donealongside experimenting with the framework that was found in this very study. Theresulting framework that was found was Django for the HMI in combination withApache to keep the application up to date. While finding the procedure of developing the HMI was most sufficient, the implementation ended up in minor piecesinstead of a complete application.
|
353 |
Utveckling av en API-Hubb : Django REST Framework och ReactHarnesk, Lukas January 2022 (has links)
Idag hämtar anställda på Bredband2 data från olika databaser på ett interntsystem som kallas en API-Hubb. Denna API-Hubb samlar all informationsom kunder, telefonnummer, tjänster och kunders personliga data genomAPI (Application Programming Interface) förfrågningar. Denna API-Hubbär begränsad i sin funktionalitet och ägs idag av ett externt företag som tarbetalt vid anslutningar av nya tjänster. Det här arbetet avser att skapa enAPI-Hubb som utökar denna funktionaliteten genom att komplettera denparallellt eller att ersätta den.För att göra det behöver ett Python-baserat webbramverk användas som geren bra grund för att uppfylla arbetsgivarens krav samt erbjuda effektiva ochfunktionella lösningmöjligheter. De funktioner som finns på existerandeAPI-Hubb ska få utökade anpassningsmöjligheter genom dynamisk kodsom är skalbart och fungerar oavsett vilken funktion som ska utföras.Funktionalitet och utveckling kommer att ske till stor del i Django RestFramework med programmeringsspråket Python. För funktioner i använ-dargränssnittet kommer React att användas. En uppgift är att få React ochDjango Rest Framework att interagera samt att arbetet ska använda sig avPostgreSQL som databas.Arbetet startar med att göra förundersökningar över vilket webbramverksom ska användas. Django Rest Framework valdes och installation ochgrundkonfiguration av Django startades. När den grundliga konfigura-tionen ägt rum så börjar utvecklandet av API endpoints, models, viewsoch funktioner för testmiljö. Det bestämdes olika utföranden för GET för-frågningar och POST förfrågningar riktade mot olika endpoints. Resultatenvisar på att det är fullt möjligt att utveckla en API-Hubb med utökad funk-tionalitet och anpassningsmöjligheter med Django React Framework ochReact genom att skapa en dynamisk kod som arbetar mot flera funktionerberoende på vilken indata som hanteras. / Today, employees at Bredband2 retrieve data from various databases on aninternal system called an API-Hub. This API-Hub collects all informationsuch as customers, telephone numbers, services and customers personaldata through API (Application Programming Interface) requests. This API-Hub is limited in its functionality and is currently owned by an externalcompany that charges for connections of new services. This project is in-tended to create an API Hub that expands this functionality by supplement-ing or replacing it.To do so, a Python-based web framework must be used which provides agood basis for meeting the foreman’s requirements as well as offering effi-cient and functional solution options. The functions available on the exist-ing API-Hub will have extended customization options through dynamiccode that is scalable and works regardless of which function is to be per-formed.Functionality and development will take place in the Django Rest Frame-work with the programming language Python. React will be used too han-dle functions in the user interface. One of the tasks is to get React andDjango Rest Framework to interact and that PostgreSQL is used as the database.The work starts with doing preparatory research on which web frameworkis to be used. Django Rest Framework was selected and installation andbasic configuration of Django was started. Once the thorough configura-tion had taken place, the development of API endpoints, models, views andfunctions for the test environment began. Different rules were determineddepending on whether it was a GET request or a POST request, which weresent to different endpoints. The results showed that it is entirely possibleto develop an API-Hub with extended functionality and customization op-tions with Django React Framework and React by creating a dynamic codethat works towards several functions depending on which input data is han-dled.
|
354 |
A visualization interface for spatial pathway regulation dataZhang, Yang January 2018 (has links)
Data visualization is an essential methodology for bioinformatics studies. Spatial Transcriptomics(ST) is a method that aims at measuring the transcriptome of tissue sections while maintaining its spacial information. Finally, the study of biological pathway focuses on a series of biochemical reactions that take place in organisms. As these studies generate a large number of datasets, this thesis attempts to combine the ST’s data with pathwayinformation and visualize it in an intuitive way to assist user comprehension and insight.In this thesis, Python was used for integrating the dataset and JavaScript libraries wereused for building the visualization. The processing of ST pathway data together with the data visualization interface are the outcomes of this thesis. The data visualization can show the regulation of pathways in the ST data and can be accessed by modern browsers. These outcomes can help users navigate the ST and pathway datasets more effectively. / Datavisualisering är en viktig del av bioinformatik. Spatial transkriptomik (ST) är en metod som mäter transkriptom, samtidigt som den behåller spatial information. Biologiskapathways å andrasidan fokuserar på biokemiska reaktioner som sker inom organismer. Dessa studier genererar mycket data, och denna avhandling försöker att kombinera ST-data med pathway information och få en intuitiv visualisering av det integrerade datat.I avhandlingen användes Python för att integrera datat och JavaScript bibliotek för attbygga visualiseringsverktyget. Avhandlingen resulterade i en metod för att integrera STdata och pathway information, samt ett visualiseringsverktyg för ovan nämnda information.Verktyget kan visa pathway regulationer i ST data och kan användas i moderna webbläsare.Forskningen resulterade i ett verktyg som kan hjälpa forskare att förstå ST och pathwaydata.
|
355 |
Biological Semantic Segmentation on CT Medical Images for Kidney Tumor Detection Using nnU-Net FrameworkBergsneider, Andres 01 March 2021 (has links) (PDF)
Healthcare systems are constantly challenged with bottlenecks due to human-reliant operations, such as analyzing medical images. High precision and repeatability is necessary when performing a diagnostics on patients with tumors. Throughout the years an increasing number of advancements have been made using various machine learning algorithms for the detection of tumors helping to fast track diagnosis and treatment decisions. “Black Box” systems such as the complex deep learning networks discussed in this paper rely heavily on hyperparameter optimization in order to obtain the most ideal performance. This requires a significant time investment in the tuning of such networks to acquire cutting-edge results. The approach of this paper relies on implementing a state of the art deep learning framework, the nn-UNet, in order to label computed tomography (CT) images from patients with kidney cancer through semantic segmentation by feeding raw CT images through a deep architecture and obtaining pixel-wise mask classifications. Taking advantage of nn-UNet’s framework versatility, various configurations of the architecture are explored and applied, benchmarking and assorting resulting performance, including variations of 2D and 3D convolutions as well as the use of distinct cost functions such as the Sørensen-Dice coefficient, Cross Entropy, and a compound of them. 79% is the accuracy currently reported for the detection of benign and malign tumors using CT imagery performed by medical practitioners. The best iteration and mixture of parameters in this work resulted in an accuracy of 83% for tumor labelling. This study has further exposed the performance of a versatile and groundbreaking approach to deep learning framework designed for biomedical image segmentation.
|
356 |
Добыча данных с помощью функций и библиотек языка Python : магистерская диссертация / Data mining with Python language functions and librariesАль-Мамури, М. О. Х., Al-Mamuri, A. H. January 2022 (has links)
Данная работа включает изучение алгоритмов машинного обучения (регрессии и классификации) на примере данных открытых источников Covid-19. Исходные данные для исследования взяты с веб-сайта Европейский центр по профилактике и контролю заболеваний в формате CSV. Для решения задачи использовались библиотеки Pyton: pandas, NumPy, Matplotlib, Seaborn, Sklearn.
В ходе исследования исследованы возможности библиотек и функций Python для предварительной обработки данных путем удаления NULL-полей и преобразования их в нулевые, а затем выполнен процесс извлечения данных с помощью библиотек и функций Python и то, как отображать информацию в различных формах в виде таблиц, графиков или временных рядов. Применение агломеративной кластеризации к данным, как показал график распределения, не позволило достаточно точно провести разбивку данных на группы. Использование алгоритма кластеризации BIRCH позволило более точно решить данную задачу. / Through the master's research, we will use the Covid-19 data file for the year 2020, and the Covid-19 data file for the year 2021 and early 2022 year The file is in (csv) format for all countries of the world to show cases of injuries and deaths. Through the study, we will show the ability of Python libraries and functions to pre-process data by removing NULL fields and converting them to zero and then the process of extracting data using Python libraries and functions and how to show information in different forms in the form of tables, charts or time series.
Then we conclude the six most important libraries in the Python language that cannot be dispensed with in the process of data mining and the most important functions used. Algorithms: regression algorithm, classification algorithm, clustering algorithm. Evaluate the results between the work of these algorithms by showing the drawing of each algorithm and deduce the best algorithm in our work only.
|
357 |
<b>Accelerating Physical design Algorithms using CUDA</b>Abhinav Agarwal (17623890) 13 December 2023 (has links)
<p dir="ltr">The intricate domain of chip design encompasses the creation of intricate blueprints for integrated circuits (ICs). Algorithms, pivotal in this realm, assume the role of optimizing IC performance and functionality. This thesis delves into the utilization of algorithms within chip design, spotlighting their potential to amplify design process efficiency and efficacy. Notably, this study undertakes a comprehensive comparison of algorithmic performances on both Central Processing Units (CPUs) and Graphics Processing Units (GPUs). A cornerstone application of algorithms in chip design lies in logic synthesis, which transmutes a high-level circuit description into a silicon-compatible, low-level representation. By minimizing gate requisites, curtailing power consumption, and bolstering performance, algorithms serve as architects of optimized logic synthesis. Furthermore, the arena of physical design harnesses algorithms to translate logical designs into physically realizable layouts on silicon wafers. This involves meticulous considerations like routing congestion and power efficiency. Furthermore, this thesis adopts a thorough approach by extensively exploring the implementation intricacies of two pivotal physical design algorithms. The Kernighan-Lin Partitioning Algorithm is prominently featured for optimizing Placement and Partitioning, while Lee’s Algorithm provides valuable insights for enhancing Routing. Through a meticulous comparison of dataset efficiency and run-time across both hardware platforms, noteworthy insights have emerged. In KL Algorithm, datasets categorized as small (with sizes < 105), the CPU demonstrates a 1.2X faster processing speed compared to the GPU. However, as dataset sizes surpass this threshold, a distinct trend emerges: while GPU run times remain relatively consistent, CPU run times undergo a threefold increase at select points. In the case of Lee’s Algorithm, the CPU demonstrated superior execution time despite having fewer cores and threads than the GPU. This can be attributed to the inherently sequential nature of Lee’s Algorithm, where each element depends on the preceding one, aligning with the CPU's strength in handling sequential tasks. This thesis embarks on a comprehensive analytical journey, delving into the nuanced interplay between these contrasting aspects.</p>
|
358 |
Performance Optimization of Ice Sheet Simulation Models : Examining ways to speed up simulations, enabling for upscaling with more dataBrink, Fredrika January 2023 (has links)
This study aims to examine how simulation models can be performance optimized in Python. Optimized in the sense of executing faster and enabling upscaling with more data. To meet this aim, two models simulating the Greenland ice sheet are studied. The simulation of ice sheets is an important part of glaciology and climate change research. By following an iterative spiral model of software development and evolution with focus on the bottlenecks, it is possible to optimize the most time-consuming code sections. Several iterations of implementing tools and techniques suitable for Python code are performed, such as implementing libraries, changing data structures, and improving code hygiene. Once the models are optimized, the upscaling with a new dataset, called CARRA, created from observations and modelled outcomes combined, is studied. The results indicate that the most effective approach of performance optimizing is to implement the Numba library to compile critical code sections to machine code and to parallelize the simulations using Joblib. Depending on the data used and the size and granularity of the simulations, simulations between 1.5 and 3.2 times the speed are gained. When simulating CARRA data, the optimized code still results in faster simulations. However, the outcome demonstrates that differences exist between the ice sheets simulated by the dataset initially used and CARRA data. Even though the CARRA dataset yields a different glaciological result, the overall changes in the ice sheet are similar to the changes shown in the initial dataset simulations. The CARRA dataset could possibly be used for getting an overview of what is happening to the ice sheet, but not for making detailed analyses, where exact numbers are needed.
|
359 |
En inblick i hur lärare använder programmering som verktyg i sin matematikundervisning / An insight into how teachers use programming as a tool inmathematic education practicesValeri, Federico, Jemt, Mikaela January 2023 (has links)
I detta examenarbete undersöks lärares beskrivningar av hur de använder programmering i matematikundervisningen på gymnasienivå. Arbetet undersöker även vilka förkunskaper och vilket stöd som lärare beskriver som nödvändigt för att genomföra detta. Intervjuunderlaget analyseras med tematisk analys och med hjälp av didaktisk transponering samt praxeologier som teoretiskt ramverk. Resultatet visar bland annat att lärare använder programmering både för att vidare utveckla matematisk förståelse och för att undervisa eleverna om programmering. I relation till förkunskaper är det splittrade meningar bland de intervjuade lärarna. Frågan om vilket stöd som krävs fick mer plats än väntat i intervjuerna, och därmed i resultatet. Bland annat diskuteras stöd i form digitala och fysiska resurser samt i form av tid.
|
360 |
Verktyg för optimerat val av testpanelerför antibiotikasensitivitetstesterAncker, Julia, Berg, Elin, Björkman, Therese, Malmvall, Hanna, Abdullahi, Hanad, Wong, Victor January 2023 (has links)
Denna rapport beskriver ett projekt vars syfte är att underlätta valet av bakteri- estammar till testpaneler som används av Q-lineas instrument ASTar®. ASTar® är ett automatiserat instrument för snabb antibiotikasensitivitetstestning (AST). Med testpanel menas en uppsättning av bakteriestammar som används för träning av den algoritm som används av ASTar®. De huvudsakliga målen med detta projekt är att ta fram indikatorer som kan användas för att utvärdera en testpanel samt att skapa verktyg för visualisering av en testpanel. Indikatorerna återspeglar en pa- nels spridning, täckning och redundans. Spridning är hur många olika MIC-värden en testpanel innefattar för varje antibiotikum och hur utspridda de är, täckning är antalet MIC-värden som varje antibiotikum har i en testpanel och redundans är kopplat till hur unikt varje MIC-värde på panelen är. Med MIC-värden menas den minsta koncentration av antibiotika som hämmar en bakteries tillväxt. I detta projekt har indikatorer tagits fram för att kunna kvantifiera en panels spridning, täckning och redundans, och enkelt kunna jämföra olika testpaneler utifrån dessa aspekter. Ett skript compare.py har skrivits i programmeringsspråket Python för att skapa en visualisering som jämför de kvantitativa indikatorvärdena för olika paneler i relation till de högsta möjliga värdena. Ytterligare ett skript, master_vis.py har skrivits för att generera olika visualiseringar av en panel och dess täckning, sprid- ning och redundans. Sex olika grafer och två tabeller kan genereras med detta skript. Dessa visualiseringar och tabeller visar bland annat hur utspridda MIC-värdena är på en panel, hur många känsliga, intermediära och resistenta MIC-värden som finns för varje antibiotikum på en panel och hur många unika MIC-värden som finns för varje stam på panelen. Slutligen har även ett tredje skript skrivits, kallat isola- te_selection.py. Detta skript utgår från de framtagna kvantitativa indikatorerna för att välja ett specificerat antal stammar till en panel och utvecklades för att under- söka hur indikatorerna skulle kunna användas för att påverka stamvalet. Möjligen skulle en liknande implementering kunna göras i Q-lineas nuvarande stamvalsskript. Samtliga skript, visualiseringar och beräkningsmetoder som har arbetats fram i det- ta projekt är tänkta att kunna användas av Q-linea för att underlätta deras fram- tagning och utvärdering av testpaneler.
|
Page generated in 0.0259 seconds