• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 16
  • Tagged with
  • 64
  • 53
  • 27
  • 27
  • 25
  • 21
  • 21
  • 20
  • 20
  • 17
  • 15
  • 13
  • 11
  • 11
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Evaluating clustering techniques in financial time series

Millberg, Johan January 2023 (has links)
This degree project aims to investigate different evaluation strategies for clustering methodsused to cluster multivariate financial time series. Clustering is a type of data mining techniquewith the purpose of partitioning a data set based on similarity to data points in the same cluster,and dissimilarity to data points in other clusters. By clustering the time series of mutual fundreturns, it is possible to help individuals select funds matching their current goals and portfolio. Itis also possible to identify outliers. These outliers could be mutual funds that have not beenclassified accurately by the fund manager, or potentially fraudulent practices. To determine which clustering method is the most appropriate for the current data set it isimportant to be able to evaluate different techniques. Using robust evaluation methods canassist in choosing the parameters to ensure optimal performance. The evaluation techniquesinvestigated are conventional internal validation measures, stability measures, visualizationmethods, and evaluation using domain knowledge about the data. The conventional internalvalidation methods and stability measures were used to perform model selection to find viableclustering method candidates. These results were then evaluated using visualization techniquesas well as qualitative analysis of the result. Conventional internal validation measures testedmight not be appropriate for model selection of the clustering methods, distance metrics, or datasets tested. The results often contradicted one another or suggested trivial clustering solutions,where the number of clusters is either 1 or equal to the number of data points in the data sets.Similarly, a stability validation metric called the stability index typically favored clustering resultscontaining as few clusters as possible. The only method used for model selection thatconsistently suggested clustering algorithms producing nontrivial solutions was the CLOSEscore. The CLOSE score was specifically developed to evaluate clusters of time series bytaking both stability in time and the quality of the clusters into account. We use cluster visualizations to show the clusters. Scatter plots were produced by applyingdifferent methods of dimension reduction to the data, Principal Component Analysis (PCA) andt-Distributed Stochastic Neighbor Embedding (t-SNE). Additionally, we use cluster evolutionplots to display how the clusters evolve as different parts of the time series are used to performthe clustering thus emphasizing the temporal aspect of time series clustering. Finally, the resultsindicate that a manual qualitative analysis of the clustering results is necessary to finely tune thecandidate clustering methods. Performing this analysis highlights flaws of the other validationmethods, as well as allows the user to select the best method out of a few candidates based onthe use case and the reason for performing the clustering.
32

Load profiling and customer segmentation for demand-side management

Baril, Anne January 2023 (has links)
The energy transition is accompanied by massive electrification of uses and sectors such as transport. As a result, the pressure on the electricity grid is increasing, and the time to connect to the power system is lengthening. Deploying new infrastructure is a laborious and expensive process but there are alternatives to exploit the flexibility of the power grid. The deployment of smart meters opens the door to many applications related to flexibility on the consumer side, to reduce peak loads that threaten grid capacity. Targeting the right consumers for Demand-Side Management (DSM) is a prerequisite to maximizing the chances of success of such programs. This degree project replicates and adapts the method developed in [14] to segment residential customers. It consists of encoding Daily Load Curves (DLC) using a dictionary of Typical Load Profiles (TLP) and grouping consumers according to the distribution of their TLP. A temporal analysis of the main TLP reveals different consumption behaviors. Customers are segmented into groups that reflect the degree of volatility of their consumption. This enables a classification based on the potential for Energy Efficiency (EE) or Demand Response (D/R) programs. We address the issue of attribute detection using the distribution of TLP of customers. In particular, several classification algorithms are compared to detect TLP characteristic of Electric Vehicle (EV). The obtained load shapes show consumption peaks at night, which may correspond to the charging time of EV. The method is discussed, especially the choice of the number of load profiles to be included in the dictionary of TLP. It proves to be useful to group consumers with similar consumption profiles and opens the door to applications such as individual household consumption forecasting. / Energiomställningen kräver en massiv elektrifiering av användningsområden och sektorer som t.ex. transportsektorn. Detta leder till att trycket på elnätet ökar och att tiden för att ansluta sig till elnätet blir allt längre. Att bygga ut ny infrastruktur är en mödosam och dyr process, men det finns alternativ för att utnyttja elnätets flexibilitet. Utplaceringen av smarta mätare öppnar dörren för många tillämpningar som rör flexibilitet på konsumentsidan, för att minska toppbelastningar som hotar nätkapaciteten. Att rikta in sig på rätt konsumenter för DSM är en förutsättning för att maximera chanserna att lyckas med sådana program. I detta examensarbete replikeras och anpassas den metod som utvecklats i [14] för att segmentera hushållskunder. Den består av att koda DLC med hjälp av ett lexikon av TLP och gruppera konsumenter enligt fördelningen av deras TLP. En tidsmässig analys av de viktigaste TLP avslöjar olika konsumtionsbeteenden. Kunderna delas in i grupper som återspeglar graden av volatilitet i deras konsumtion. Detta möjliggör en klassificering baserad på potentialen för EE eller D/R-program. Vi tar upp frågan om attributdetektering med hjälp av fördelningen av TLP hos kunderna. I synnerhet jämförs flera klassificeringsalgoritmer för att upptäcka TLP som är karakteristiska för EV. De erhållna belastningsformerna visar konsumtionstoppar på natten, vilket kan motsvara laddningstiden för EV. Metoden diskuteras, särskilt valet av antalet belastningsprofiler som ska ingå i ordlistan för TLP. Metoden visar sig vara användbar för att gruppera konsumenter med liknande förbrukningsprofiler och öppnar dörren för tillämpningar som prognostisering av enskilda hushålls förbrukning.
33

Pattern analysis of the user behaviour in a mobile application using unsupervised machine learning / Mönsteranalys av användarbeteenden i en mobilapp med hjälp av oövervakad maskininlärning

Hrstic, Dusan Viktor January 2019 (has links)
Continuously increasing amount of logged data increases the possibilities of finding new discoveries about the user interaction with the application for which the data is logged. Traces from the data may reveal some specific user behavioural patterns which can discover how to improve the development of the application by showing the ways in which the application is utilized. In this thesis, unsupervised machine learning techniques are used in order to group the users depending on their utilization of SEB Privat Android mobile application. The user interactions in the applications are first extracted, then various data preprocessing techniques are implemented to prepare the data for clustering and finally two clustering algorithms, namely, HDBSCAN and KMedoids are performed to cluster the data. Three types of user behaviour have been found from both K-medoids and HDBSCAN algorithm. There are users that tend to interact more with the application and navigate through its deeper layers, then the ones that consider only a quick check of their account balance or transaction, and finally regular users. Among the resulting features chosen with the help of feature selection methods, 73 % of them are related to user behaviour. The findings can be used by the developers to improve the user interface and overall functionalities of application. The user flow can thus be optimized according to the patterns in which the users tend to navigate through the application. / En ständigt växande datamängd ökar möjligheterna att hitta nya upptäckter om användningen av en mobil applikation för vilken data är loggad. Spår som visas i data kan avslöja vissa specifika användarbeteenden som kan förbättra applikationens utveckling genom att antyda hur applikationen används. I detta examensarbete används oövervakade maskininlärningstekniker för att gruppera användarna beroende på deras bruk av SEB Privat Android mobilapplikation. Användarinteraktionerna i applikationen extraheras ut först, sedan används olika databearbetningstekniker för att förbereda data för klustringen och slutligen utförs två klustringsalgoritmer, nämligen HDBSCAN och Kmedoids för att gruppera data. Tre distinkta typer av användarbeteende har hittats från både K-medoids och HDBSCAN-algoritmen. Det finns användare som har en tendens att interagera mer med applikationen och navigera genom sitt djupare lager, sedan finns det de som endast snabbt kollar på deras kontosaldo eller transaktioner och till slut finns det vanliga användare. Bland de resulterande attributen som hade valts med hjälp av teknikerna för val av attribut, är 73% av dem relaterade till användarbeteendet. Det som upptäcktes i denna avhandling kan användas för att utvecklarna ska kunna förbättra användargränssnittet och övergripande funktioner i applikationen. Användarflödet kan därmed optimeras med hänsyn till de sätt enligt vilka användarna har en speciell tendens att navigera genom applikationen.
34

Using Machine Learning for Predictive Maintenance in Modern Ground-Based Radar Systems / Användning av maskininlärning för förutsägbart underhåll i moderna markbaserade radarsystem

Faraj, Dina January 2021 (has links)
Military systems are often part of critical operations where unplanned downtime should be avoided at all costs. Using modern machine learning algorithms it could be possible to predict when, where, and at what time a fault is likely to occur which enables time for ordering replacement parts and scheduling maintenance. This thesis is a proof of concept study for anomaly detection in monitoring data, i.e., sensor data from a ground based radar system as an initial experiment to showcase predictive maintenance. The data in this thesis was generated by a Giraffe 4A during normal operation, i.e., no anomalous data with known failures was provided. The problem setting is originally an unsupervised machine learning problem since the data is unlabeled. Speculative binary labels are introduced (start-up state and steady state) to approximate a classification accuracy. The system is functioning correctly in both phases but the monitoring data looks differently. By showing that the two phases can be distinguished, it is possible to assume that anomalous data during break down can be detected as well.  Three different machine learning classifiers, i.e., two unsupervised classifiers, K-means clustering and isolation forest and one supervised classifier, logistic regression are evaluated on their ability to detect the start-up phase each time the system is turned on. The classifiers are evaluated graphically and based on their accuracy score. All three classifiers recognize a start up phase for at least four out of seven subsystems. By only analyzing their accuracy score it appears that logistic regression outperforms the other models. The collected results manifests the possibility to distinguish between start-up and steady state both in a supervised and unsupervised setting. To select the most suitable classifier, further experiments on larger data sets are necessary. / Militära system är ofta en del av kritiska operationer där oplanerade driftstopp bör undvikas till varje pris. Med hjälp av moderna maskininlärningsalgoritmer kan det vara möjligt att förutsäga när och var ett fel kommer att inträffa. Detta möjliggör tid för beställning av reservdelar och schemaläggning av underhåll. Denna uppsats är en konceptstudie för detektion av anomalier i övervakningsdata från ett markbaserat radarsystem som ett initialt experiment för att studera prediktivt underhåll. Datat som används i detta arbete kommer från en Saab Giraffe 4A radar under normal operativ drift, dvs. ingen avvikande data med kända brister tillhandahölls. Problemställningen är ursprungligen ett oövervakat maskininlärningsproblem eftersom datat saknar etiketter. Spekulativa binära etiketter introduceras (uppstart och stabil fas) för att uppskatta klassificeringsnoggrannhet. Systemet fungerar korrekt i båda faserna men övervakningsdatat ser annorlunda ut. Genom att visa att de två faserna kan urskiljas, kan man anta att avvikande data också går att detektera när fel uppstår.  Tre olika klassificeringsmetoder dvs. två oövervakade maskininlärningmodeller, K-means klustring och isolation forest samt en övervakad modell, logistisk regression utvärderas utifrån deras förmåga att upptäcka uppstartfasen varje gång systemet slås på. Metoderna utvärderas grafiskt och baserat på deras träffsäkerhet. Alla tre metoderna känner igen en startfas för minst fyra av sju delsystem. Genom att endast analysera deras noggrannhetspoäng, överträffar logistisk regression de andra modellerna. De insamlade resultaten demonstrerar möjligheten att skilja mellan uppstartfas och stabil fas, både i en övervakad och oövervakad miljö. För att välja den bästa metoden är det nödvändigt med ytterligare experiment på större datamängder.
35

Electroglottography in Real-Time Feedback for Healthy Singing / Elektroglottografi i realtidsfeedback för hållbar sångteknik

Nilsson, Isak January 2016 (has links)
This master thesis describes early attempts at using electroglottography (EGG) to capture such changes in vocal fold vibration patterns that could be of interest to teachers of contemporary commercial music. After initial explorations, focus is placed on detecting potentially detrimental phonation; more specifically on the pressed quality often associated with loud singing in high register (belting). FonaDyn, a program written in the SuperCollider language, is used to detect pressedness using an algorithm based on K-means clustering of Fourier components of EGG cycles. Results indicate that pressedness affects phonation in ways detectable using EGG. Changes caused by pressedness seem to vary between registers and this variation is similar between subjects. Detection of pressedness in a subject is quite successful when training the algorithm on the same subject, but not always across subjects. / Denna masteruppsats beskriver inledande försök att använda elektroglottografi (EGG) för att avläsa sådana förändringar i stämbandens vibrationsmönster som skulle kunna vara av intresse för sånglärare inom icke-klassisk stil. Tidiga undersökningar leder till att fortsatt fokus läggs på att detektera fonationstyper som kan orsaka röstskador; mer specifikt den typ av pressad röstkvalitet som ofta förknippas med stark sång i högt register (s.k. belting). FonaDyn, ett datorprogram skrivet i språket SuperCollider, används för att detektera pressad fonation med hjälp av K-means-klustring av EGG-cykler baserat på deras Fourierkomponenter. Resultaten indikerar att pressad fonation går att urskilja med hjälp av EGG. Kännetecknen för pressad fonation tycks skilja sig mellan röstregister och denna skillnad är snarlik hos olika försökspersoner. Programmet klarar av att känna igen pressad fonation hos samma person som algoritmen tränats på men inte alltid om algoritmen tränats på en annan sångare.
36

An automated approach to clustering with the framework suggested by Bradley, Fayyad and Reina

Berglund, Jesper January 2018 (has links)
Clustering with the framework suggested by Bradley, Fayyad and Reina allows for great scalability. However, practical challenges appear when applying the framework. One of the challenges is to define model parameters. This includes defining the number of clusters (K). Understanding how parameter values affect the final clustering may be challenging even with insight into the algorithm. Automating the clustering would allow for a more widespread use. The research question is thus: How could an automated process for clustering with BFR be defined and what results could such a process yield? A tailored method for parameter optimization is suggested. This method is used with a new and computationally advantageous cluster validity index called population density index. Computing the widely used within set sum of squares error requires an additional pass over the data set. Computing population density index does not. The final step of the automated process is to cluster with the parameters generated in the process. The outcome of these clusterings are measured. The results present data collected over 100 identically defined automated processes. These results show that 97 % of the identified K-values falls within the range of the suggested optimal value 2. The method for optimizing parameters clearly results in parameters that outperform randomized parameters. The suggested population density index has a correlation coefficient of 1.00 with the commonly used within set sum of square error in a 32-dimensional case. An automated process for clustering with BFR has been defined. / Ramverket som föreslås av Bradley, Fayyad och Reina möjliggör storskalig klustring. Att använda ramverket medför dock praktiska utmaningar. En av dessa utmaningar är att definiera modellens parametrar. Detta inkluderar att definiera antalet kluster (K). Att förstå hur angivna parametervärden påverkar det slutgiltiga klustringsresultatet är utmanande även med insikt i algoritmen. Att automatisera klustringen skulle möjliggöra för fler att använda ramverket. Detta resulterar i frågeställningen: Hur skulle en automatiserad process för klustring med BFR kunna definieras och vilka resultat skulle en sådan process kunna ge? En skräddarsydd metod för parameteroptimisering föreslås. Denna används i kombination med ett nytt klustervalideringsindex vilket refereras till som population density index. Användning av detta index medför beräkningsmässiga fördelar. Att beräkna det frekvent använda within set sum of squares-värdet kräver ytterligare en iteration över det använda datasettet. Att beräkna population density index undviker denna extra iteration. Det sista steget i den automatiserade processen är att klustra givet de parametervärden som processen själv definierar. Resultatet av dessa klustringar mäts. Resultaten presenterar data insamlad över 100 individuella försök. För samtliga av dessa var den automatiserade processen identiskt definierad. Resultaten visar att 97 % av de identifierade värdena på K-parametern faller inom en värdemängd baserad på det optimala värdet 2. Att optimera parametervärden med den föreslagna metoden ger tydligt bättre värden än om dessa genereras stokastiskt. Det föreslagna population density index har 1.00 som korrelationskoefficient med det välanvända within set sum of squares-värdet i ett 32-dimensionellt fall. En automatiserad process för att klustra med BFR har definierats.
37

A comparative study on a practical use case for image clustering based on common shareability and metadata / En jämförande studie i ett praktiskt användningsfall för bildklustring baserat på gemensamt delade bilder och dess metadata

Dackander, Erik January 2018 (has links)
As the amount of data increases every year, the need for effective structuring of data is a growing problem. This thesis aims to investigate and compare how four different clustering algorithms perform on a practical use case for images. The four algorithms used are Affinity Propagation, BIRCH, Rectifying Self-Organizing Maps, Deep Embedded Clustering. The algorithms get the image metadata and also its content, extracted using a pre-trained deep convolutional neural network. The results demonstrate that while there are variations in the data, Affinity Propagation and BIRCH shows the most potential among the four algorithms. Furthermore, when metadata is available it improves the results of the algorithms that can process the extreme values cause. For Affinity Propagation the mean share score is improved by 5.6 percentage points and the silhouette score is improved by 0.044. BIRCH mean share score improves by 1.9 percentage points and silhouette score by 0.051. RSOM and DEC could not process the metadata. / Allt eftersom datamängderna ökar för varje år som går så ökar även behovet av att strukturera datan på en bra sätt. Detta arbete syftar till att undersöka och jämföra hur väl fyra olika klustringsalgoritmer fungerar för ett praktiskt användningsfall med bilder. De fyra algorithmerna som används är Affinity Propagation, BIRCH, Rectifying Self-Organizing Maps och Deep Embedded Clustering. Algoritmerna hade bildernas metadata samt deras innehåll, framtaget med hjälp av ett deep convolutional neural network, att använda för klustringen. Resultaten visar att även om det finns stora variationer i utfallen, visar Affinity Propagation och BIRCH den största potentialen av de fyra algoritmerna. Vidare verkar metadatan, när den finns tillgänglig, förbättra resultaten för de klustringsalgoritmer som kunde hantera de extremvärden som metadatan kunde ge upphov till. För Affinity propagation föbättrades den genomsnittliga delnings poängen med 5,6 procentenheter och dess silhouette index ökade med 0.044. BIRCHs genomsnittliga delnings poäng ökade med 1,9 procentenheter samt dess silhouette index förbättades med 0.051. RSOM och DEC kunde inte processa metadatan.
38

Datautvinning av klickdata : Kombination av klustring och klassifikation / Data mining of click data : Combination of clustering and classification

Zhang, Xianjie, Bogic, Sebastian January 2018 (has links)
Ägare av webbplatser och applikationer tjänar ofta på att användare klickar på deras länkar. Länkarna kan bland annat vara reklam eller varor som säljs. Det finns många studier inom dataanalys angående om en sådan länk kommer att bli klickad, men få studier fokuserar på hur länkarna kan justeras för att bli klickade. Problemet som företaget Flygresor.se har är att de saknar ett verktyg för deras kunder, resebyråer, att analysera deras biljetter och därefter justera attributen för resorna. Den efterfrågade lösningen var en applikation som gav förslag på hur biljetterna skulle förändras för att bli mer klickade och på såsätt kunna sälja fler resor. I detta arbete byggdes en prototyp som använder sig av två olika datautvinningsmetoder, klustring med algoritmen DBSCAN och klassifikation med algoritmen k-NN. Algoritmerna användes tillsammans med en utvärderingsprocess, kallad DNNA, som analyserade resultatet från dessa två algoritmer och gav förslag på förändringar av artikelns attribut. Kombinationen av algoritmerna tillsammans med DNNA testades och utvärderades som lösning till problemet. Programmet lyckades förutse vilka attribut av biljetter som behövde justeras för att biljetterna skulle bli mer klickade. Rekommendationerna av justeringar var rimliga men eftersom andra liknande verktyg inte hade publicerats kunde detta arbetes resultat inte jämföras. / Owners of websites and applications usually profits through users that clicks on their links. These can be advertisements or items for sale amongst others. There are many studies about data analysis where they tell you if a link will be clicked, but only a few that focus on what needs to be adjusted to get the link clicked. The problem that Flygresor.se have is that they are missing a tool for their customers, travel agencies, that analyses their tickets and after that adjusts the attributes of those trips. The requested solution was an application which gave suggestions about how to change the tickets in a way that would make it more clicked and in that way, make more sales. A prototype was constructed which make use of two different data mining methods, clustering with the algorithm DBSCAN and classification with the algorithm knearest neighbor. These algorithms were used together with an evaluation process, called DNNA, which analyzes the result from the algorithms and gave suggestions about changes that could be done to the attributes of the links. The combination of the algorithms and DNNA was tested and evaluated as the solution to the problem. The program was able to predict what attributes of the tickets needed to be adjusted to get the tickets more clicks. ‘The recommendations of adjustments were reasonable but this result could not be compared to similar tools since they had not been published.
39

Unsupervised machine learning to detect patient subgroups in electronic health records / Identifiering av patientgrupper genom oövervakad maskininlärning av digitala patientjournaler

Lütz, Elin January 2019 (has links)
The use of Electronic Health Records (EHR) for reporting patient data has been widely adopted by healthcare providers. This data can encompass many forms of medical information such as disease symptoms, results from laboratory tests, ICD-10 classes and other information from patients. Structured EHR data is often high-dimensional and contain many missing values, which impose a complication to many computing problems. Detecting meaningful structures in EHR data could provide meaningful insights in diagnose detection and in development of medical decision support systems. In this work, a subset of EHR data from patient questionnaires is explored through two well-known clustering algorithms: K-Means and Agglomerative Hierarchical. The algorithms were tested on different types of data, primarily raw data and data where missing values have been imputed using different imputation techniques. The primary evaluation index for the clustering algorithms was the silhouette value using euclidean and cosine distance measures. The result showed that natural groupings most likely exist in the data set. Hierarchical clustering created higher quality clusters than k-means, and the cosine measure yielded a good interpretation of distance. The data imputation imposed large effects to the data and likewise to the clustering results, and other or more sophisticated techniques are needed for handling missing values in the data set. / Användandet av digitala journaler för att rapportera patientdata har ökat i takt med digitaliseringen av vården. Dessa data kan innehålla många typer av medicinsk information så som sjukdomssymptom, labbresultat, ICD-10 diagnoskoder och annan patientinformation. EHR data är vanligtvis högdimensionell och innehåller saknade värden, vilket kan leda till beräkningssvårigheter i ett digitalt format. Att upptäcka grupperingar i sådana patientdata kan ge värdefulla insikter inom diagnosprediktion och i utveckling av medicinska beslutsstöd. I detta arbete så undersöker vi en delmängd av digital patientdata som innehåller patientsvar på sjukdomsfrågor. Detta dataset undersöks genom att applicera två populära klustringsalgoritmer: k-means och agglomerativ hierarkisk klustring. Algoritmerna är ställda mot varandra och på olika typer av dataset, primärt rådata och två dataset där saknade värden har ersatts genom imputationstekniker. Det primära utvärderingsmåttet för klustringsalgoritmerna var silhuettvärdet tillsammans med beräknandet av ett euklidiskt distansmått och ett cosinusmått. Resultatet visar att naturliga grupperingar med stor sannolikhet finns att hitta i datasetet. Hierarkisk klustring visade på en högre klusterkvalitet än k-means, och cosinusmåttet var att föredra för detta dataset. Imputation av saknade data ledde till stora förändringar på datastrukturen och således på resultatet av klustringsexperimenten, vilket tyder på att andra och mer avancerade dataspecifika imputationstekniker är att föredra.
40

Gamma Knife treatment planning with new degrees of freedom / Behandlingsplanering med nya frihetsgrader för Strålkniven

Norell, Emil January 2019 (has links)
The Leksell Gamma Knife® is an instrument designed for high precision treatment of tumours and lesions located in the brain and upper spine. Today, the radioactive cobalt-60 sources can only move linearly along the radiation unit, but the machine could be modified to include rotational motion as well. We extend an existing linear programming approach to inverse planning for the Gamma Knife by examining the benefits from rotational degrees of freedom. The improvements offered from rotations are limited, but easy to make use of. We investigate the model in four patient cases, and find that an upper bound on the improvement of the optimization cost function is between 4.5% and 7.0% depending on case. With a total of four angles distributed uniformly over a 45 degree interval, one can in each case achieve a solution that performs up to within 1% of this bound. The average maximal improvements in terms of clinical metrics are 0.5% selectivity and 1.9% gradient index, at the cost of 5.9% worse beam-on time. No statistically significant change in coverage is found. A dynamic model based on column generation is proposed, which allows treatment during constant velocity angular motion and can achieve practically the same plan quality as the model with uniformly distributed angles at a significantly lower problem size. A similar algorithm can be designed to locate the most effective angles in a non-uniform manner that achieves better plans with fewer added rotational degrees of freedom. Trade-offs between memory and solution times are used to successively reduce the RAM occupation by around 90% and make significantly larger models computationally feasible to solve. A voxel clustering approach with emphasis on surface voxels, adapted to the radiosurgical framework, can significantly reduce the problem size while still producing competitive plans. / Strålkniven Leksell Gamma Knife® är ett instrument designat för högprecisionsbestrålning av tumörer och lesioner i hjärnan och övre delen av ryggraden. Idag kan de radioaktiva källorna endast förflyttas linjärt under behandlingen, men maskinen skulle kunna modifieras för att även tillåta rotationsrörelser. Vi utvidgar ett ramverk för inversplanering, formulerat som ett linjär-programmeringsproblem, genom att undersöka fördelarna med nya rotationsfrihetsgrader. Förbättringarna som rotationer möjliggör är begränsade, men kan relativt enkelt tas till vara. Vi undersöker de potentiella förändringarna i fyra patientfall och finner att den övre gränsen av förbättringarna för målfunktionsvärdet i optimeringsproblemet är mellan 4.5% och 7.0% beroende på fall. Genom att tillåta rotation av källorna till fyra jämnt fördelade vinklar över 45 grader kan man i samtliga fall hitta en lösning som är inom 1% från det bästa målfunktionsvärdet. De genomsnittliga förbättringarna i form av kliniska metriker är 0.5% selektivitet och 1.9% gradient-index, dock på bekostnad av en försämring av bestrålningstiden med 5.9%. Ingen tydlig förändring av täckningen kunde påvisas. En modell baserad på kolumngenerering, som tillåter behandling under rotation av kollimator-kroppen med konstant hastighet, föreslås. I denna modell kan praktiskt taget lika bra lösningar uppnås som för likformigt fördelade vinklar, men med betydligt mindre problemstorlek. En liknande algoritm kan lokalisera de mest effektiva vinklarna och åstadkomma samma plankvalitet med färre, men olikformt fördelade, rotationsfrihetsgrader. RAM-användningen kan reduceras med cirka 90% genom avvägningar mellan minne och beräknings-tider, vilket möjliggör lösning av probleminstanser som tidigare var beräkningsmässigt omöjliga. Klustringsmetoder av voxlar anpassade till strålkniven kan minska problemstorleken betydelsefullt medan de resulterande behandlingsplanerna är fortsatt konkurrenskraftiga.

Page generated in 0.4628 seconds