• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 229
  • 36
  • Tagged with
  • 265
  • 245
  • 242
  • 184
  • 171
  • 131
  • 130
  • 114
  • 87
  • 84
  • 64
  • 55
  • 55
  • 49
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

"Hey Siri, will AI replace project managers?" : Navigating the AI era: Impact of Machine Learning on Project Manager's Core Competencies / “Hej Siri, kommer AI att ersättaprojektledare?” : Navigera i AI-eran: Effekten av maskininlärning på projektledarens kärnkompetenser

Nguyen, Huy, Scheff, Dennis January 2023 (has links)
This paper examines how the advance of Artificial Intelligence (AI) technologies may affect the role of project managers. It draws on a narrative literature review and semi-structured interviews conducted with seventeen project managers from various industries in Sweden. The theoretical framework of the study is based on Wachnik's stages of AI development and categorization of core competencies for project success of Alvarenga et al. The results of this paper suggest that even though the current uptake of AI technologies is still low in project management practices, project managers can already start preparing for the potential paradigm shift by focusing on developing competencies such as communication, leadership, and understanding the technological context. Moreover, the authors developed the Holistic Competencies Triangle model to navigate project managers through the competencies needed for successful and effective project management when AI is more widely adopted. / Denna studie undersöker hur utvecklingen av artificiella intelligensteknologier (AI) kan påverka projektledarens roll. Studien är byggd på en narrativ litteraturöversikt och semistrukturerade intervjuer som genomfördes med sjutton projektledare från olika branscher i Sverige. Studiens teoretiska ramverk baseras på Wachniks steg för AI-utveckling och kategoriserade kärnkompetenser för projektframgång av Alvarenga et al. Resultatet tyder på att även om den nuvarande användningen av AI-tekniker fortfarande är låg inom projektledningspraxis, kan projektledare redan börja förbereda sig för det potentiella paradigmskiftet genom att fokusera på att utveckla kompetenser som kommunikation, ledarskap och förstå den teknologiska kontexten. Dessutom har författarna utvecklat en holistisk kompetens-triangelmodell för att navigera projektledare genom kompetenserna som krävs för en lyckad och effektivt projektledning när AI blir mer utbrett.
102

Attenueringskorrektion för ett rörelsekorrigerande neuralt nätverk i PET-undersökningar / Attenuation Correction for a Motion Correcting Neural Network in PET Imaging

Nissolle, David, Karlström, Daniel January 2023 (has links)
Positronemissionstomografi är en väl använd modalitet som kan hjälpa till att ge information om olika organs tillstånd. Ett problem som kan uppstå när man utför undersökningar är att patientrörelser, i synnerhet andning, förvränger de resulterande bilderna. Detta är ett vanligt problem och kan leda till komplikationer som inkorrekt diagnos och i sin tur felbehandling. Om rörelsen är för kraftig kan det till och med göra bilden värdelös, vilket tvingar patienten att genomgå en ny examination som är kostsam både för patientens hälsa och för sjukhuset som utför undersökningen. För att förhindra att detta inträffar har flera studier gjorts för att anpassa bilderna så att även om patienten rör sig skulle undersökningen fortfarande ge acceptabla bilder. Detta projekt är en fortsättning på det arbete som gjorts av en annan student på CBH-skolan vid KTH, som för sin masteruppsats tränade en djupinlärningsmodell att korrigera för patientrörelser. Denna modell tränades uteslutande på PET-fantomer och inte attenuerad data som genererats i simuleringar. I detta projekt prövades och implementerades tre olika metoder för att ta fram attenueringsmappar med hjälp av modellen för att utföra både rörelse- och attenueringskorrektion. Resultaten visade att metoden som direkt tillämpade deformationen mellan attenueringskarta och respektive PET-gate var överlägsen de andra, men den kunde fortfarande inte återge korrigerade bilder där lesionerna som fanns på fantomen är tydligt synliga. / Positron emission tomography is a widely used modality that can help provide information about how various parts of the body are functioning. An issue that can occur when performing these examinations is patient movement, usually breathing, distorting the resulting images. This is a common issue and can lead to complications such as misdiagnosis and in turn mistreatment. If the movement is too significant it can even render the scan useless, forcing the patient to undergo a new scan which is costly both for the patient’s health and for the hospital performing the examination. To prevent this from happening several methods have been tried to adapt the images so that even if the patient moved the scan would still produce acceptable images.  This project is a continuation of the work done by another student on the CBH-school at KTH who, for his master’s thesis, trained a deep-learning model to correct for patient movement. This model was trained exclusively on PET phantoms and not attenuated data generated in simulations. In this project three different methods were tested and implemented to acquire attenuation maps that could be used to perform movement- and attenuation correction. The results showed that the method that directly applied the deformation between attenuation map and respective PET-gate was superior to the others, but it could still not reconstruct corrected images with the lesions that were originally visible on the phantom.
103

Användandet av artificiell intelligens för effektiv försäljning inom e-handel

Bergman, Emmy, Drwiega, Erica January 2023 (has links)
I takt med den växande tekniska utvecklingen har e-handeln börjat ta en allt större plats bland konsumenter och företag. Möjligheten att göra inköp på nätet prioriteras högt, särskilt i samband med Covid-19 pandemin då e-handeln i många fall tog över helt från fysiska butiker. Samtidigt har även utvecklingen inom artificiell intelligens gått i snabb takt. Det har möjliggjort för företag att använda dessa tekniker för att göra sig konkurrenskraftiga inom e-handeln för att stödja olika aktiviteter relaterade till försäljning online. Artificiell intelligens kan definieras som den träning eller programmering av en dator som gör den kapabel att utföra uppgifter som vanligtvis kräver en människas intelligens. Vanliga delområden inom artificiell intelligens relaterade till studiens ämnesområde är maskininlärning, djupinlärning och språkteknologi. Problemet som studien grundar sig i är att e-handelsföretag använder artificiell intelligens inom marknadsföring och försäljning i en för låg utsträckning och att de därför riskerar att hamna efter, vilket ligger till grund för frågeställningen: Hur använder företag artificiell intelligens för att effektivisera försäljningen inom e-handel? Ämnet undersöks närmare genom en undersökning med kvalitativa, semistrukturerade intervjuer med lämpliga yrkeskunniga personer inom området. Insamlade data visade att e-handelsföretag främst använder artificiell intelligens i samband med riktad annonsering via tredjepartsleverantörer som Google och Facebook. Det framkom ur studien att artificiell intelligens-baserade chatbotar tillämpas för en effektivare hantering av kundtjänst. Ytterligare tredjepartsverktyg används för effektivisering av marknadsföring och försäljning vilket främst rörde text- och språkhantering men även bild- och innehållsgenerering. Detta ledde till sparad tid och arbete samt ökad effektivisering av marknadsföringen och försäljningen hos e-handelsföretag. Denna studie har endast undersökt ett urval av hur artificiell intelligens används inom e-handel, och det finns fortfarande många områden att utforska. Gällande samhälleliga konsekvenser möjliggör studiens resultat en tydligare bild av hur e-handelsföretag arbetar med artificiell intelligens inom marknadsföring och försäljning idag. Studien ger en bild av hur användning ser ut nu, med syfte att underlätta vidare forskning med vilken riktning utvecklingen kommer ta framåt samt stötta företag att börja använda artificiell intelligens. Studien har utförts med en strävan efter hög kvalitet och trovärdighet genom tillämpning av etablerade metoder och transparent dokumentation. / In line with the growing technological development, e-commerce has begun to take an increasingly large place among consumers and companies. The ability to make purchases online is of high priority, especially since the covid-19 pandemic, when e-commerce in a lot of cases completely took over from shopping in physical stores. At the same time, the development in artificial intelligence has proceeded at a rapid pace. This has enabled companies to use these technologies to stay competitive in ecommerce to support various activities related to sales online. Artificial intelligence is a machine that can perform cognitive functions typically associated with humans, such as perceiving, reasoning, learning, and interacting. Common subfields in artificial intelligence related to this study are machine learning, deep learning, and natural language processing. The problem that the study is based on is that e-commerce companies use artificial intelligence in marketing and sales to a low extent which means they risk falling behind. Based on this, the research question is: How do companies use artificial intelligence to create efficient sales in e-commerce? The subject is examined through a survey with qualitative semi-structured interviews with professionals in the field. The collected data clearly shows that e-commerce companies primarily use artificial intelligence in connection with targeted advertising through third-party providers such as Google and Facebook. It was found that artificial intelligence based chatbots are applied for more efficient management of customer service. Additional third-party tools are used for streamlining marketing and sales, which mainly involve text and language management but also image and content generation. This leads to saved time and effort as well as increased efficiency in marketing and sales for e-commerce companies. This study has only examined a selection of artificial intelligence usage within e-commerce, and there are still many areas to explore. Regarding societal consequences, the study's results help give a clearer picture of how e-commerce companies work with artificial intelligence in marketing and sales today. The study provides a snapshot of current usage to facilitate further research on the direction of future development and support companies in starting to use artificial intelligence. The study was conducted with an aim for high quality and credibility through the application of established methods and transparent documentation.
104

Estimating Forest Variables from LiDAR Pointcloud Data Using a Deep Learning Approach

Grundin, Ella, Kozak Åslöv, Rasmus January 2022 (has links)
Knowledge about forest measurements is essential for efficient and sustainableforestry. One important measurement is wood volume, both from an economicand an environmental perspective. Therefore it is crucial to measure wood vol-ume accurately and reliably. With airborne laser scanners, wood volume can beestimated at a large scale, more time efficiently than traditional, manual measure-ments. By utilising deep neural networks, we present methods to predict woodvolume on point clouds efficiently and accurately. Different network structuresfor point cloud regression are devised using field measurements from wood har-vesters and manual field measurements. To achieve more data, techniques tosplit up areas into smaller subareas and data augmentation methods were imple-mented. Our version of GDANet adapted for regression provided the best resultswith a RMSE of 62.68, MAPE of 24.7%, and relative RMSE of 28.0%. Furthermore,the final model produces more accurate wood volume predictions than more shal-low machine learning methods and predictions from Skoglig Grunddata.
105

Deep Ring Artifact Reduction in Photon-Counting CT / Djup ringartefaktkorrektion i fotonräknande CT

Liappis, Konstantinos January 2022 (has links)
Ring artifacts are a common problem with the use of photon-counting detectors and commercial deployment rests on being able to compensate for them. Deep learning has been proposed as a candidate for tackling the inefficiency or high cost of traditional techniques. In that spirit, we propose a new approach to ring artifact reduction, namely one that employs Residual Networks in sinogram domain. We train them on data simulated via a realistic photon-counting CT model based on numerical phantoms of real scans acquired by the KiTS19 Challenge dataset. By exploring various architectures we find that shallow ResNets achieve a significant artifact reduction by staying more true to the ground truth in terms of not introducing new artifacts. All networks introduce a smoothing effect which is attributed to the use of MSE as a loss function. An alternative training scheme using patches instead of whole sinograms is tested and it shows a slightly improved model stability. Lastly, we demonstrate via a performance metric study that common metrics are not suitable for quantifying the performance in this problem, save for a potential new approach in the virtual mono-energetic domain. / Ringartefakter är ett vanligt problem vid användning av fotonräknande detektorer och kommersiell introduktion kräver att man kan kompensera för dem. Djupinlärning har föreslagits som en kandidat för att hantera ineffektiviteten eller de höga kostnaderna för traditionella tekniker. I den andan föreslår vi ett nytt tillvägagångssätt för att reducera ringartefakter, nämligen en som använder sig av residualnätverk i sinogramdomänen. Vi tränar dem på data simulerad via en realistisk fotonräkning CT modell baserad på numeriska fantomer av verkliga skanningar från datamängen KiTS19 Challenge. Genom att utforska olika arkitekturer finner vi att grunda ResNet uppnår en betydande minskning av artefakter genom bevara en större likhet med den sanna bilden när det gäller att inte introducera nya artefakter. Alla nätverk introducerar en utsmetningseffekt som tillskrivs användningen av MSE som en förlustfunktion. Ett alternativt träningsschema med utsnitt istället för hela sinogram testas och det visar en något förbättrad modellstabilitet. Slutligen visar vi genom en prestandamåttstudie att vanliga prestandamått inte är lämpliga för att kvantifiera prestandan i detta problem med undantag för ett potentiellt nytt tillvägagångssätt i den virtuella monoenergetiska domänen.
106

A Deep Learning Approach to Predicting Diagnosis Code from Electronic Health Records / Djupinlärning för prediktion av diagnoskod utifrån elektroniska patientjournaler

Håkansson, Ellinor January 2018 (has links)
Electronic Health Record (EHR) is an umbrella term encompassing demographics and health information of a patient from many different sources in a digital format. Deep learning has been used on EHRs in many successful studies and there is great potential in future implementations. In this study, diagnosis classification of EHRs with Multi-layer Perceptron models are studied. Two MLPs with different architectures are constructed and run on both a modified version of the EHR dataset and the raw data. A Random Forest is used as baseline for comparison. The MLPs are not successful in beating the baseline, with the best-performing MLP having a classification accuracy of 48.1%, which is 13.7 percentage points lower than that of the baseline. The results indicate that when the dataset is small, this approach should not be chosen. However, the dataset is growing over time and thus there is potential for continued research in the future. / Elektronisk patientjournal (EHR) är ett paraplybegrepp som används för att beskriva en digital samling av demografisk och medicinsk data från olika källor för en patient. Det finns stor potential i användandet av djupinlärning på dessa journaler och många framgångsrika studier har redan gjorts på området. I denna studie undersöks diagnosklassificering av elektroniska patientjournaler med Multi-layer perceptronmodeller. Två MLP-modeller av olika arkitekturer presenteras. Dessa körs på både en anpassad version av EHR-datamängden och på den råa EHR-datan. En Random Forest-modell används som baslinje för jämförelse. MLP-modellerna lyckas inte överträffa baslinjen, då den bästa MLP-modellen ger en klassifikationsnoggrannhet på 48,1%, vilket är 13,7 procentenheter mindre än baslinjens. Resultaten visar att en liten datamängd indikerar att djupinlärning bör väljas bort för denna typ av problem. Datamängden växer dock över tid, vilket gör områdetattraktivt för framtida studier.
107

Deep Learning Models for Route Planning in Road Networks

Zhou, Tianyu January 2018 (has links)
Traditional shortest path algorithms can efficiently find the optimal paths in graphs using simple heuristics. However, formulating a simple heuristic is challenging under the road network setting since there are multiple factors to consider, such as road segment length, edge centrality, and speed limit. This study investigates how a neural network can learn to take these factors as inputs and yield a path given a pair of origin and destination. The research question is formulated as: Are neural networks applicable to real-time route planning tasks in a roadnetwork?. The proposed metric to evaluate the effectiveness of the neural network is arrival rate. The quality of generated paths is evaluated by time efficiency. The real-time performance of the model is also compared between pathfinding in dynamic and static graphs, using theabove metrics. A staggered approach is applied in progressing this investigation. The first step is to generate random graphs, which allows us to monitor the size and properties of the training graph without caring too many details in a road network. The next step is to determine, as a proof of concept, if a neural network can learn to traverse simple graphs with multiple strategies, given that road networks are in effect complex graphs. Finally, we scale up by including factors that might affect the pathfinding in real road networks. Overall, the training data is optimal paths in a graph generated by a shortest path algorithm. The model is then applied to new graphs to generate a path given a pair of origin and destination. The arrival rate and time efficiency are calculated and compared with that of the corresponding optimal path. Experimental results show that the effectiveness, i.e., arrival rate ofthe model is 90% and the path quality, i.e., time efficiency has a medianof 0.88 and a large variance. The experiment shows that the model has better performance in dynamic graphs than in static graphs. Overall, the answer to the research question is positive. However, there is still room to improve the effectiveness of the model and the paths generated by the model. This work shows that a neural network trained to make locally optimal choices can hardly give a globally optimal solution. We also show that our method, only making locally optimal choices, can adapt to dynamic graphs with little performance overhead. / Traditionella algoritmer för att hitta den kortaste vägen kan effektivt hitta de optimala vägarna i grafer med enkel heuristik. Att formulera en enkel heuristik är dock utmanande för vägnätverk eftersom det finns flera faktorer att överväga, såsom vägsegmentlängd, kantcentralitet och hastighetsbegränsningar. Denna studie undersöker hur ett neuralt nätverk kan lära sig att ta dessa faktorer som indata och finna en väg utifrån start- och slutpunkt. Forskningsfrågan är formulerad som: Är neuronnätverket tillämpliga på realtidsplaneringsuppgifter i ett vägnät?. Det föreslagna måttet för att utvärdera effektiviteten hos det neuronnätverket är ankomstgrad. Kvaliteten på genererade vägar utvärderas av tidseffektivitet. Prestandan hos modellen jämförs också mellan sökningen i dynamiska och statiska grafer, med hjälp av ovanstående mätvärden. Undersökningen bedrivs i flera steg. Det första steget är att generera slumpmässiga grafer, vilket gör det möjligt för oss att övervaka träningsdiagrammets storlek och egenskaper utan att ta hand om för många detaljer i ett vägnät. Nästa steg är att, som ett bevis på konceptet, undersöka om ett neuronnätverk kan lära sig att korsa enkla grafer med flera strategier, eftersom vägnätverk är i praktiken komplexa grafer. Slutligen skalas studien upp genom att inkludera faktorer som kan påverka sökningen i riktiga vägnät. Träningsdata utgörs av optimala vägar i en graf som genereras av en algoritm för att finna den kortaste vägen. Modellen appliceras sedan i nya grafer för att hitta en väg mellan start och slutpunkt. Ankomstgrad och tidseffektivitet beräknas och jämförs med den motsvarande optimala sökvägen. De experimentella resultaten visar att effektiviteten, dvs ankomstgraden av modellen är 90% och vägkvaliteten dvs tidseffektiviteten har en median på 0,88 och en stor varians. Experimentet visar att modellen har bättre prestanda i dynamiska grafer än i statiska grafer. Sammantaget är svaret på forskningsfrågan positivt. Det finns dock fortfarande utrymme att förbättra modellens effektivitet och de vägar som genereras av modellen. Detta arbete visar att ett neuronnätverk tränat för att göra lokalt optimala val knappast kan ge globalt optimal lösning. Vi visar också att vår metod, som bara gör lokalt optimala val, kan anpassa sig till dynamiska grafer med begränsad prestandaförlust.
108

Flying High: Deep Imitation Learning of Optimal Control for Unmanned Aerial Vehicles / Far & Flyg: Djup Imitationsinlärning av Optimal Kontroll för Obemannade Luftfarkoster

Ericson, Ludvig January 2018 (has links)
Optimal control for multicopters is difficult in part due to the low processing power available, and the instability inherent to multicopters. Deep imitation learning is a method for approximating an expert control policy with a neural network, and has the potential of improving control for multicopters. We investigate the performance and reliability of deep imitation learning with trajectory optimization as the expert policy by first defining a dynamics model for multicopters and applying a trajectory optimization algorithm to it. Our investigation shows that network architecture plays an important role in the characteristics of both the learning process and the resulting control policy, and that in particular trajectory optimization can be leveraged to improve convergence times for imitation learning. Finally, we identify some limitations and future areas of study and development for the technology. / Optimal kontroll för multikoptrar är ett svårt problem delvis på grund av den vanligtvis låga processorkraft som styrdatorn har, samt att multikoptrar är synnerligen instabila system. Djup imitationsinlärning är en metod där en beräkningstung expert approximeras med ett neuralt nätverk, och gör det därigenom möjligt att köra dessa tunga experter som realtidskontroll för multikoptrar. I detta arbete undersöks prestandan och pålitligheten hos djup imitationsinlärning med banoptimering som expert genom att först definiera en dynamisk modell för multikoptrar, sedan applicera en välkänd banoptimeringsmetod på denna modell, och till sist approximera denna expert med imitationsinlärning. Vår undersökning visar att nätverksarkitekturen spelar en avgörande roll för karakteristiken hos både inlärningsprocessens konvergenstid, såväl som den resulterande kontrollpolicyn, och att särskilt banoptimering kan nyttjas för att förbättra konvergenstiden hos imitationsinlärningen. Till sist påpekar vi några begränsningar hos metoden och identifierar särskilt intressanta områden för framtida studier.
109

Text feature mining using pre-trained word embeddings

Sjökvist, Henrik January 2018 (has links)
This thesis explores a machine learning task where the data contains not only numerical features but also free-text features. In order to employ a supervised classifier and make predictions, the free-text features must be converted into numerical features.  In this thesis, an algorithm is developed to perform that conversion. The algorithm uses a pre-trained word embedding model which maps each word to a vector. The vectors for multiple word embeddings belonging to the same sentence are then combined to form a single sentence embedding. The sentence embeddings for the whole dataset are clustered to identify distinct groups of free-text strings. The cluster labels are output as the numerical features. The algorithm is applied on a specific case concerning operational risk control in banking. The data consists of modifications made to trades in financial instruments. Each such modification comes with a short text string which documents the modification, a trader comment. Converting these strings to numerical trader comment features is the objective of the case study. A classifier is trained and used as an evaluation tool for the trader comment features. The performance of the classifier is measured with and without the trader comment feature. Multiple models for generating the features are evaluated. All models lead to an improvement in classification rate over not using a trader comment feature. The best performance is achieved with a model where the sentence embeddings are generated using the SIF weighting scheme and then clustered using the DBSCAN algorithm. / Detta examensarbete behandlar ett maskininlärningsproblem där data innehåller fritext utöver numeriska attribut. För att kunna använda all data för övervakat lärande måste fritexten omvandlas till numeriska värden. En algoritm utvecklas i detta arbete för att utföra den omvandlingen. Algoritmen använder färdigtränade ordvektormodeller som omvandlar varje ord till en vektor. Vektorerna för flera ord i samma mening kan sedan kombineras till en meningsvektor. Meningsvektorerna i hela datamängden klustras sedan för att identifiera grupper av liknande textsträngar. Algoritmens utdata är varje datapunkts klustertillhörighet. Algoritmen appliceras på ett specifikt fall som berör operativ risk inom banksektorn. Data består av modifikationer av finansiella transaktioner. Varje sådan modifikation har en tillhörande textkommentar som beskriver modifikationen, en handlarkommentar. Att omvandla dessa kommentarer till numeriska värden är målet med fallstudien. En klassificeringsmodell tränas och används för att utvärdera de numeriska värdena från handlarkommentarerna. Klassificeringssäkerheten mäts med och utan de numeriska värdena. Olika modeller för att generera värdena från handlarkommentarerna utvärderas. Samtliga modeller leder till en förbättring i klassificering över att inte använda handlarkommentarerna. Den bästa klassificeringssäkerheten uppnås med en modell där meningsvektorerna genereras med hjälp av SIF-viktning och sedan klustras med hjälp av DBSCAN-algoritmen.
110

Prediction of Dose Probability Distributions Using Mixture Density Networks / Prediktion av sannolikhetsfördelningar över dos med mixturdensitetsnätverk

Nilsson, Viktor January 2020 (has links)
In recent years, machine learning has become utilized in external radiation therapy treatment planning. This involves automatic generation of treatment plans based on CT-scans and other spatial information such as the location of tumors and organs. The utility lies in relieving clinical staff from the labor of manually or semi-manually creating such plans. Rather than predicting a deterministic plan, there is great value in modeling it stochastically, i.e. predicting a probability distribution of dose from CT-scans and delineated biological structures. The stochasticity inherent in the RT treatment problem stems from the fact that a range of different plans can be adequate for a patient. The particular distribution can be thought of as the prevalence in preferences among clinicians. Having more information about the range of possible plans represented in one model entails that there is more flexibility in forming a final plan. Additionally, the model will be able to reflect the potentially conflicting clinical trade-offs; these will occur as multimodal distributions of dose in areas where there is a high variance. At RaySearch, the current method for doing this uses probabilistic random forests, an augmentation of the classical random forest algorithm. A current direction of research is learning the probability distribution using deep learning. A novel parametric approach to this is letting a suitable deep neural network approximate the parameters of a Gaussian mixture model in each volume element. Such a neural network is known as a mixture density network. This thesis establishes theoretical results of artificial neural networks, mainly the universal approximation theorem, applied to the activation functions used in the thesis. It will then proceed to investigate the power of deep learning in predicting dose distributions, both deterministically and stochastically. The primary objective is to investigate the feasibility of mixture density networks for stochastic prediction. The research question is the following. U-nets and Mixture Density Networks will be combined to predict stochastic doses. Does there exist such a network, powerful enough to detect and model bimodality? The experiments and investigations performed in this thesis demonstrate that there is indeed such a network. / Under de senaste åren har maskininlärning börjat nyttjas i extern strålbehandlingsplanering. Detta involverar automatisk generering av behandlingsplaner baserade på datortomografibilder och annan rumslig information, såsom placering av tumörer och organ. Nyttan ligger i att avlasta klinisk personal från arbetet med manuellt eller halvmanuellt skapa sådana planer. I stället för att predicera en deterministisk plan finns det stort värde att modellera den stokastiskt, det vill säga predicera en sannolikhetsfördelning av dos utifrån datortomografibilder och konturerade biologiska strukturer. Stokasticiteten som förekommer i strålterapibehandlingsproblemet beror på att en rad olika planer kan vara adekvata för en patient. Den särskilda fördelningen kan betraktas som förekomsten av preferenser bland klinisk personal. Att ha mer information om utbudet av möjliga planer representerat i en modell innebär att det finns mer flexibilitet i utformningen av en slutlig plan. Dessutom kommer modellen att kunna återspegla de potentiellt motstridiga kliniska avvägningarna; dessa kommer påträffas som multimodala fördelningar av dosen i områden där det finns en hög varians. På RaySearch används en probabilistisk random forest för att skapa dessa fördelningar, denna metod är en utökning av den klassiska random forest-algoritmen. En aktuell forskningsriktning är att generera in sannolikhetsfördelningen med hjälp av djupinlärning. Ett oprövat parametriskt tillvägagångssätt för detta är att låta ett lämpligt djupt neuralt nätverk approximera parametrarna för en Gaussisk mixturmodell i varje volymelement. Ett sådant neuralt nätverk är känt som ett mixturdensitetsnätverk. Den här uppsatsen fastställer teoretiska resultat för artificiella neurala nätverk, främst det universella approximationsteoremet, tillämpat på de aktiveringsfunktioner som används i uppsatsen. Den fortsätter sedan att utforska styrkan av djupinlärning i att predicera dosfördelningar, både deterministiskt och stokastiskt. Det primära målet är att undersöka lämpligheten av mixturdensitetsnätverk för stokastisk prediktion. Forskningsfrågan är följande. U-nets och mixturdensitetsnätverk kommer att kombineras för att predicera stokastiska doser. Finns det ett sådant nätverk som är tillräckligt kraftfullt för att upptäcka och modellera bimodalitet? Experimenten och undersökningarna som utförts i denna uppsats visar att det faktiskt finns ett sådant nätverk.

Page generated in 0.0472 seconds