• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 684
  • 252
  • 79
  • 57
  • 42
  • 37
  • 30
  • 26
  • 25
  • 14
  • 9
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 1504
  • 1030
  • 249
  • 238
  • 223
  • 215
  • 195
  • 185
  • 167
  • 163
  • 151
  • 124
  • 123
  • 122
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1131

變數轉換之穩健迴歸分析

張嘉璁 Unknown Date (has links)
在傳統的線性迴歸分析當中,當基本假設不滿足時,有時可考慮變數轉換使得資料能夠比較符合基本假設。在眾多的轉換方法當中,以Box和Cox(1964)所提出的乘冪轉換(Box-Cox power transformation)最為常用,乘冪轉換可將某些複雜的系統轉換成線性常態模式。然而當資料存在離群值(outlier)時,Box-Cox Transformation會受到影響,因此不是一種穩健方法。 在本篇論文當中,我們利用前進演算法(forward search algorithm)求得最小消去平方估計量(Least trimmed squares estimator),在過程當中估計出穩健的轉換參數。
1132

Χωροχρονικές τεχνικές επεξεργασίας σήματος σε ασύρματα τηλεπικοινωνιακά δίκτυα / Space -Time signal processing techniques for wireless communication networks

Κεκάτος, Βασίλειος 25 October 2007 (has links)
Τα τελευταία χρόνια χαρακτηρίζονται από μια αλματώδη ανάπτυξη των προϊόντων και υπηρεσιών που βασίζονται στα δίκτυα ασύρματης επικοινωνίας, ενώ προκύπτουν σημαντικές ερευνητικές προκλήσεις. Τα συστήματα πολλαπλών κεραιών στον πομπό και στο δέκτη, γνωστά και ως συστήματα MIMO (multi-input multi-output), καθώς και η τεχνολογία πολλαπλής προσπέλασης με χρήση κωδικών (code division multiple access, CDMA) αποτελούν δύο από τα βασικά μέτωπα ανάπτυξης των ασύρματων τηλεπικοινωνιών. Στα πλαίσια της παρούσας διδακτορικής διατριβής, ασχοληθήκαμε με την ανάπτυξη και μελέτη αλγορίθμων επεξεργασίας σήματος για τα δύο παραπάνω συστήματα, όπως περιγράφεται αναλυτικά παρακάτω. Σχετικά με τα συστήματα MIMO, η πρωτοποριακή έρευνα που πραγματοποιήθηκε στα Bell Labs γύρω στα 1996, όπου αναπτύχθηκε η αρχιτεκτονική BLAST (Bell Labs Layered Space-Time), απέδειξε ότι η χρήση πολλαπλών κεραιών μπορεί να οδηγήσει σε σημαντική αύξηση της χωρητικότητας των ασύρματων συστημάτων. Προκειμένου να αξιοποιηθούν οι παραπάνω δυνατότητες, απαιτείται η σχεδίαση σύνθετων δεκτών MIMO. Προς αυτήν την κατεύθυνση, έχει προταθεί ένας μεγάλος αριθμός μεθόδων ισοστάθμισης του καναλιού. Ωστόσο, οι περισσότερες από αυτές υποθέτουν ότι το ασύρματο κανάλι είναι: 1) χρονικά σταθερό, 2) συχνοτικά επίπεδο (δεν εισάγει διασυμβολική παρεμβολή), και κυρίως 3) ότι είναι γνωστό στο δέκτη. Δεδομένου ότι σε ευρυζωνικά συστήματα μονής φέρουσας οι παραπάνω υποθέσεις είναι δύσκολο να ικανοποιηθούν, στραφήκαμε προς τις προσαρμοστικές μεθόδους ισοστάθμισης. Συγκεκριμένα, αναπτύξαμε τρεις βασικούς αλγορίθμους. Ο πρώτος αλγόριθμος αποτελεί έναν προσαρμοστικό ισοσταθμιστή ανάδρασης αποφάσεων (decision feedback equalizer, DFE) για συχνοτικά επίπεδα κανάλια ΜΙΜΟ. Ο προτεινόμενος MIMO DFE ακολουθεί την αρχιτεκτονική BLAST, και ανανεώνεται με βάση τον αλγόριθμο αναδρομικών ελαχίστων τετραγώνων (RLS) τετραγωνικής ρίζας. Ο ισοσταθμιστής μπορεί να παρακολουθήσει ένα χρονικά μεταβαλλόμενο κανάλι, και, από όσο γνωρίζουμε, έχει τη χαμηλότερη πολυπλοκότητα από όλους τους δέκτες BLAST που έχουν προταθεί έως σήμερα. Ο δεύτερος αλγόριθμος αποτελεί την επέκταση του προηγούμενου σε συχνοτικά επιλεκτικά κανάλια. Μέσω κατάλληλης μοντελοποίησης του προβλήματος ισοστάθμισης, οδηγηθήκαμε σε έναν αποδοτικό DFE για ευρυζωνικά κανάλια MIMO. Τότε, η διαδικασία της ισοστάθμισης εμφανίζει προβλήματα αριθμητικής ευστάθειας, που λόγω της υλοποίησης RLS τετραγωνικής ρίζας αντιμετωπίστηκαν επιτυχώς. Κινούμενοι προς την κατεύθυνση περαιτέρω μείωσης της πολυπλοκότητας, προτείναμε έναν προσαρμοστικό MIMO DFE που ανανεώνεται με βάση τον αλγόριθμο ελαχίστων μέσων τετραγώνων (LMS) υλοποιημένο εξ ολοκλήρου στο πεδίο της συχνότητας. Με χρήση του ταχύ μετασχηματισμού Fourier (FFT), μειώνεται η απαιτούμενη πολυπλοκότητα. Παράλληλα, η μετάβαση στο πεδίο των συχνοτήτων έχει ως αποτέλεσμα την προσεγγιστική διαγωνοποίηση του συστήματος, προσφέροντας ανεξάρτητη ανανέωση των φίλτρων ανά συχνοτική συνιστώσα και επιτάχυνση της σύγκλισης του αλγορίθμου. Ο προτεινόμενος ισοσταθμιστής πετυχαίνει μια καλή ανταλλαγή μεταξύ απόδοσης και πολυπλοκότητας. Παράλληλα με τα παραπάνω, ασχοληθήκαμε με την εκτίμηση του ασύρματου καναλιού σε ένα ασύγχρονο σύστημα CDMA. Το βασικό σενάριο είναι ότι ο σταθμός βάσης γνωρίζει ήδη τους ενεργούς χρήστες, και καλείται να εκτιμήσει τις παραμέτρους του καναλιού ανερχόμενης ζεύξης ενός νέου χρήστη που εισέρχεται στο σύστημα. Το πρόβλημα περιγράφεται από μια συνάρτηση ελαχίστων τετραγώνων, η οποία είναι γραμμική ως προς τα κέρδη του καναλιού, και μη γραμμική ως προς τις καθυστερήσεις του. Αποδείξαμε ότι το πρόβλημα έχει μια προσεγγιστικά διαχωρίσιμη μορφή, και προτείναμε μια επαναληπτική μέθοδο υπολογισμού των παραμέτρων. Ο προτεινόμενος αλγόριθμος δεν απαιτεί κάποια ειδική ακολουθία διάχυσης και λειτουργεί αποδοτικά ακόμη και για περιορισμένη ακολουθία εκπαίδευσης. Είναι εύρωστος στην παρεμβολή πολλαπλών χρηστών και περισσότερο ακριβής από μια υπάρχουσα μέθοδο εις βάρος μιας ασήμαντης αύξησης στην υπολογιστική πολυπλοκότητα. / Over the last decades, a dramatic progress in the products and services based on wireless communication networks has been observed, while, at the same time, new research challenges arise. The systems employing multiple antennas at the transmitter and the receiver, known as MIMO (multi-input multi-output) systems, as well as code division multiple access (CDMA) systems, are two of the main technologies employed for the evolution of wireless communications. During this PhD thesis, we worked on the design and analysis of signal processing algorithms for the two above systems, as it is described in detail next. Concerning the MIMO systems, the pioneering work performed at Bell Labs around 1996, where the BLAST (Bell Labs Layered Space-Time) architecture has been developed, proved that by using multiple antennas can lead to a significant increase in wireless systems capacity. To exploit this potential, sophisticated MIMO receivers should be designed. To this end, a large amount of channel equalizers has been proposed. However, most of these methods assume that the wireless channel is: 1) static, 2) frequency flat (no intersymbol interference is introduced), and mainly 3) it is perfectly known at the receiver. Provided that in high rate single carrier systems these assumptions are difficult to be met, we focused our attention on adaptive equalization methods. More specifically, three basic algorithms have been developed. The first algorithm is an adaptive decision feedback equalizer (DFE) for frequency flat MIMO channels. The proposed MIMO DFE implements the BLAST architecture, and it is updated by the recursive least squares (RLS) algorithm in its square root form. The new equalizer can track time varying channels, and, to the best of our knowledge, it has the lowest computational complexity among the BLAST receivers that have been proposed up to now. The second algorithm is an extension of the previous one to the frequency selective channel case. By proper modeling of the equalization problem, we arrived at an efficient DFE for wideband MIMO channels. In this case, the equalization process encounters numerical instability problems, which were successfully treated by the square root RLS implementation employed. To further reduce complexity, we proposed an adaptive MIMO DFE that is updated by the least mean square (LMS) algorithm, fully implemented in the frequency domain. By using the fast Fourier transform (FFT), the complexity required is considerably reduced. Moreover, the frequency domain implementation leads to an approximate decoupling of the equalization problem at each frequency bin. Thus, an independent update of the filters at each frequency bin allows for a faster convergence of the algorithm. The proposed equalizer offers a good performance - complexity tradeoff. Furthermore, we worked on channel estimation for an asynchronous CDMA system. The assumed scenario is that the base station has already acquired all the active users, while the uplink channel parameters of a new user entering the system should be estimated. The problem can be described via a least squares cost function, which is linear with respect to the channel gains, and non linear to its delays. We proved that the problem is approximately decoupled, and a new iterative parameter estimation method has been proposed. The suggested method does not require any specific pilot sequence and performs well even for a short training interval. It is robust to multiple access interference and more accurate compared to an existing method, at the expense of an insignificant increase in computational complexity.
1133

既有建物作為空載光達系統點雲精度評估程序之研究 / The Study of Accuracy Assessment Procedure on Point Clouds from Airborne LiDAR Systems Using Existing Buildings

詹立丞, Chan, Li Cheng Unknown Date (has links)
空載光達系統於建置國土測繪基本資料扮演關鍵角色,依國土測繪法,為確保測繪成果品質,應依測量計畫目的及作業精度需求辦理儀器校正。國土測繪中心已於102年度建置航遙測感應器系統校正作業中,提出矩形建物之平屋頂面做為空載光達系統校正之可行性,而其所稱之校正,是以點雲精度評估待校件空載光達系統所得最終成果品質,並不對儀器做任何參數改正,但其校正成果可能因不同人員操作而有差異,因此本研究嘗試建立一套空載光達點雲半自動化精度評估程序,此外探討以山形屋脊線執行點雲精度評估之可行性。 由於光達點雲為離散的三維資訊,不論是以山形屋脊線或矩形建物之平屋頂面作為標物執行點雲精度評估,均須先萃取屋頂面上之點,為避免萃取成果受雜訊影響,本研究引入粗差偵測理論,發展最小一乘法結合李德仁以後驗變方估計原理導出的選擇權迭代法(李德仁法)將非屋頂點視為粗差排除。研究中分別對矩形建物之平屋頂面及山形屋脊線進行模擬及真實資料實驗,其中山形屋脊線作為點雲精度評估之可行性實驗中發現不適合用於評估點雲精度,因此後續實驗僅以萃取矩形建物之平屋頂面點雲過程探討粗差比率對半自動化點雲精度評估程序之影響。模擬實驗成果顯示最小一乘法有助於提升李德仁法偵測粗差數量5%至10%;真實資料實驗,以含有牆面點雲的狀況為例,則有助提升5%的偵測粗差數量。本研究由逐步測試結果提出能夠適用於真實狀況的半自動化之點雲精度評估程序,即使由不同人員操作,仍能獲得一致的成果,顯示本研究半自動化精度評估程序之可信度。 / The airborne LiDAR system plays a crucial role in building land surveying data. Based on the Land Surveying and Mapping Act, to ensure the quality of surveying, instrument calibration is required. The approach proposed by National Land Surveying and Mapping Center (NLSC) in 2013 was confirmed the feasibility for airborne LiDAR system calibration using rectangular horizontal roof plane. The calibration mean to assess the final quality of airborne LiDAR system based on the assessment of the accuracy of the point cloud, and do not adjust the instrument. But the results may vary according to different operators. This study attempts to establish a semi-automatic procedure for the accuracy assessment of point clouds from airborne LiDAR system. In addition, the gable roof ridge lines is discussed for its feasibility for the accuracy assessment of point cloud. No matter that calibration is performed using rectangular horizontal roof plane or gable roof ridge line, point clouds located on roof planes need to be extracted at first. Therefore, Least Absolute Deviation (LAD) combined with the Iteration using Selected Weights (Deren Li method) is developed to exclude the non-roof points which regarded as gross errors and eliminate their influences. The simulated test and actual data test found that gable roof ridge lines are not suitable for accuracy assessment. As for the simulated test using horizontal roof planes, LAD combined with Deren Li method prompts the rate of gross error detection about 5% to 10% than that only by Deren Li method. In actual test, data contains wall points, LAD combined with Deren Li method can prompt about 5%. Meanwhile, a semi-automatic procedure for real operations is proposed by the step-by-step test. Even different operators employ this semi-automatic procedure, consistent results will be obtained and the reliability can achieve.
1134

Propriétés fonctionnelles et spectrales d’espèces végétales de tourbières ombrotrophes le long d’un gradient de déposition d’azote

Girard, Alizée 12 1900 (has links)
Les tourbières ombrotrophes, ou bogs sont particulièrement vulnérables à l’augmentation de la déposition atmosphérique d’azote. Cet apport d’un nutriment normalement limitant altère la capacité des tourbières à accumuler le carbone (C), en plus de mener à des changements de leur composition végétale. L’imagerie spectrale est une approche prometteuse puisqu’elle rend possible la détection des espèces végétales et de certaines caractéristiques chimiques des plantes, à distance. Toutefois, l’ampleur des différences spectrales intra- et interespèces n’est pas encore connue. Nous avons évalué la façon dont la chimie, la structure et la signature spectrale des feuilles changent chez Chamaedaphne calyculata, Kalmia angustifolia, Rhododendron groenlandicum et Eriophorum vaginatum, dans trois tourbières du sud du Québec et de l’Ontario, incluant une tourbière où se déroule une expérience de fertilisation à long terme. Nous avons mesuré des changements dans les traits fonctionnels dus aux différences dans la quantité d’azote disponible dans les sites. Toutefois, la déposition atmosphérique d’azote a eu relativement peu d’effet sur les spectres foliaires ; les variations spectrales les plus importantes étaient entre les espèces. En fait, nous avons trouvé que les quatre espèces ont un spectre caractéristique, une signature spectrale permettant leur identification au moyen d’analyses discriminantes des moindres carrés partiels (PLSDA). De plus, nous avons réussi à prédire plusieurs traits fonctionnels (l’azote, le carbone ; et la proportion d’eau et de matière sèche) avec moins de 10 % d’erreur grâce à des régressions des moindres carrés partiels (PLSR) des données spectrales. Notre étude fournit de nouvelles preuves que les variations intraspécifiques, causées en partie par des variations environnementales considérables, sont perceptibles dans les spectres foliaires. Toutefois, les variations intraspécifiques n’affectent pas l’identification des espèces ou la prédiction des traits. Nous démontrons que les spectres foliaires comprennent des informations sur les espèces et leurs traits fonctionnels, confirmant le potentiel de la spectroscopie pour le suivi des tourbières. / Abstract Bogs, as nutrient-poor ecosystems, are particularly sensitive to atmospheric nitrogen (N) deposition. Nitrogen deposition alters bog plant community composition and can limit their ability to sequester carbon (C). Spectroscopy is a promising approach for studying how N deposition affects bogs because of its ability to remotely determine changes in plant species composition in the long term as well as shorter-term changes in foliar chemistry. However, there is limited knowledge on the extent to which bog plants differ in their foliar spectral properties, how N deposition might affect those properties, and whether subtle inter- or intraspecific changes in foliar traits can be spectrally detected. Using an integrating sphere fitted to a field spectrometer, we measured spectral properties of leaves from the four most common vascular plant species (Chamaedaphne calyculata, Kalmia angustifolia, Rhododendron groenlandicum and Eriophorum vaginatum) in three bogs in southern Québec and Ontario, Canada, exposed to different atmospheric N deposition levels, including one subjected to a 18 years N fertilization experiment. We also measured chemical and morphological properties of those leaves. We found detectable intraspecific changes in leaf structural traits and chemistry (namely chlorophyll b and N concentrations) with increasing N deposition and identified spectral regions that helped distinguish the site-specific populations within each species. Most of the variation in leaf spectral, chemical and morphological properties was among species. As such, species had distinct spectral foliar signatures, allowing us to identify them with high accuracy with partial least squares discriminant analyses (PLSDA). Predictions of foliar traits from spectra using partial least squares regression (PLSR) were generally accurate, particularly for the concentrations of N and C, soluble C, leaf water, and dry matter content (<10% RMSEP). However, these multi-species PLSR models were not accurate within species, where the range of values was narrow. To improve the detection of short-term intraspecific changes in functional traits, models should be trained with more species-specific data. Our field study showing clear differences in foliar spectra and traits among species, and some within-species differences due to N deposition, suggest that spectroscopy is a promising approach for assessing long-term vegetation changes in bogs subject to atmospheric pollution.
1135

Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods

Hellwig, Friederike 12 June 2019 (has links)
Die vorliegende Arbeit "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" beweist optimale Konvergenzraten für vier diskontinuierliche Petrov-Galerkin (dPG) Finite-Elemente-Methoden für das Poisson-Modell-Problem für genügend feine Anfangstriangulierung. Sie zeigt dazu die Äquivalenz dieser vier Methoden zu zwei anderen Klassen von Methoden, den reduzierten gemischten Methoden und den verallgemeinerten Least-Squares-Methoden. Die erste Klasse benutzt ein gemischtes System aus konformen Courant- und nichtkonformen Crouzeix-Raviart-Finite-Elemente-Funktionen. Die zweite Klasse verallgemeinert die Standard-Least-Squares-Methoden durch eine Mittelpunktsquadratur und Gewichtsfunktionen. Diese Arbeit verallgemeinert ein Resultat aus [Carstensen, Bringmann, Hellwig, Wriggers 2018], indem die vier dPG-Methoden simultan als Spezialfälle dieser zwei Klassen charakterisiert werden. Sie entwickelt alternative Fehlerschätzer für beide Methoden und beweist deren Zuverlässigkeit und Effizienz. Ein Hauptresultat der Arbeit ist der Beweis optimaler Konvergenzraten der adaptiven Methoden durch Beweis der Axiome aus [Carstensen, Feischl, Page, Praetorius 2014]. Daraus folgen dann insbesondere die optimalen Konvergenzraten der vier dPG-Methoden. Numerische Experimente bestätigen diese optimalen Konvergenzraten für beide Klassen von Methoden. Außerdem ergänzen sie die Theorie durch ausführliche Vergleiche beider Methoden untereinander und mit den äquivalenten dPG-Methoden. / The thesis "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" proves optimal convergence rates for four lowest-order discontinuous Petrov-Galerkin methods for the Poisson model problem for a sufficiently small initial mesh-size in two different ways by equivalences to two other non-standard classes of finite element methods, the reduced mixed and the weighted Least-Squares method. The first is a mixed system of equations with first-order conforming Courant and nonconforming Crouzeix-Raviart functions. The second is a generalized Least-Squares formulation with a midpoint quadrature rule and weight functions. The thesis generalizes a result on the primal discontinuous Petrov-Galerkin method from [Carstensen, Bringmann, Hellwig, Wriggers 2018] and characterizes all four discontinuous Petrov-Galerkin methods simultaneously as particular instances of these methods. It establishes alternative reliable and efficient error estimators for both methods. A main accomplishment of this thesis is the proof of optimal convergence rates of the adaptive schemes in the axiomatic framework [Carstensen, Feischl, Page, Praetorius 2014]. The optimal convergence rates of the four discontinuous Petrov-Galerkin methods then follow as special cases from this rate-optimality. Numerical experiments verify the optimal convergence rates of both types of methods for different choices of parameters. Moreover, they complement the theory by a thorough comparison of both methods among each other and with their equivalent discontinuous Petrov-Galerkin schemes.
1136

The determinants and deterrents of profit shifting : evidence from a sample of South African multinational enterprises

Isaac, Nereen 10 1900 (has links)
This study aimed to assess the determinants and deterrents of profit shifting, which can occur as a result of corporate income tax competition, with a view to aid in collecting sufficient tax revenue to meet public spending requirements. The study theoretically and empirically analysed the effectiveness of the introduction of the South African transfer pricing regulations on deterring the occurrence of profit shifting in South Africa using annual financial information of South African parented multinational enterprises for the period 2010 – 2017. The study established that the implementation of transfer pricing regulations resulted in a reduction in profit shifting that became increasingly more prominent as the rules became stricter. Based on the findings of the study, it is recommended that the South Africa government should allocate sufficient resources to ensure that the transfer pricing regulations are being adhered with an aim to reduce profit shifting from South Africa. / Economics / M. Com. (Economics)
1137

Fraktionierung des Chemischen Sauerstoffbedarfs mithilfe von Extinktionsmessungen im UV/Vis-Spektralbereich

Weber, Steffen 21 April 2023 (has links)
Das Messverfahren der optischen Spektrophotometrie wird zur kontinuierlichen Messung der Abwasserqualität auf ihre Einsatztauglichkeit überprüft. Der chemische Sauerstoffbedarf (CSB) wird als zentraler Kennwert für die stoffliche Verschmutzung von Abwasser und für dessen Nachweis in Oberflächengewässern eingesetzt, welche es zu bestimmen galt. Dabei wird der Informationsgehalt über eine organische, summarische Kohlenstoffbelastung mittels einer zusätzlichen Fraktionierung erhöht. In einer Labormesskampagne werden auf der Grundlage von Respirationsversuchen Daten aus Extinktionswerten des UV/Vis-Spektrums und Referenzwerten (Standardanalyseparameter und simulierte Stoffkonzentrationen mithilfe des Activated Sludge Modell No. 1) generiert. Darauf aufbauend werden Kalibrationsmodelle für den CSB und einzelne Fraktionen entwickelt. Die Modelle werden mithilfe des Regressionsansatzes der Partial-Least-Squares entwickelt und im Rahmen eines Anwendungsbeispiels auf ihre Praxistauglichkeit überprüft. Als Ergebnis dieser Arbeit stehen Kalibrationsmodelle für den Einsatz im kommunalem Abwasser unter Trockenwetterbedingungen zur Verfügung. Die Vorhersagequalität nimmt mit zunehmender Differenzierung ab. Von einer Weiterverwendung der berechneten Äquivalentkonzentrationen für die CSB-Fraktionen (SS, XS, SI und XI), z. B. als Kalibriergröße für Stofftransportmodelle oder als Steuer- und Regelgröße, wird allerdings abgeraten. Als Ursache für die hohen Messungenauigkeiten wurde eine unzureichende Anpassung an die Veränderungen in der Abwasserzusammensetzung während eines Trockenwettertagesganges identifiziert. Mit einer erweiterten Datengrundlage, unter der Verwendung von Standardanalyseparametern (CSB, CSBmf und BSB) in einer Abwasserprobe, welche für den Ausschluss von Stoffverbindungen vor und nach einer respirativen Vorbehandlung bestimmt werden, wird eine höhere Modellgüte in Aussicht gestellt. Darüber hinaus wird ein Umdenken hinsichtlich statischer - hin zu dynamischen - Kalibrationsfunktionen für UV/Vis-Sensoren vorgeschlagen. Eine Generalisierbarkeit der entwickelten Kalibrationsmodelle auf weitere Wetterbedingungen, Messstandorte oder Sensoren wird nicht empfohlen.:Abbildungen VI Tabellen XIII Abkürzungen XV 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 2 Stand der Forschung 5 2.1 Kohlenstoffe 6 2.1.1 Zusammensetzung und Herkunft im häuslichen Abwasser 7 2.1.1.1 Fette 8 2.1.1.2 Proteine 8 2.1.1.3 Tenside 9 2.1.1.4 Phenole 10 2.1.1.5 Kohlenwasserstoffe 10 2.1.2 Fraktionierung von Kohlenstoffverbindungen 11 2.1.2.1 Chemischer Sauerstoffbedarf 12 2.1.2.2 Ansätze zur CSB-Fraktionierung 12 2.1.2.3 Stoffzusammensetzung einzelner CSB-Fraktionen 15 2.1.2.4 Messmethoden zur Bestimmung des CSB 18 2.2 Optische Spektroskopie 20 2.2.1 Grundlagen 20 2.2.1.1 Elektromagnetische Strahlung 20 2.2.1.2 Einordnung der optischen Spektroskopie 21 2.2.1.3 Lichtabsorption 21 2.2.1.4 Chemisch-physikalische Grundlagen 22 2.2.1.5 Mathematische Grundlagen 24 2.2.1.6 Extinktionsmessung 25 2.2.2 Online-Messtechnik 26 2.2.2.1 Sensoren /-hersteller 26 2.2.2.2 Kalibrierung 26 2.2.2.2.1 Kalibrierung der S::CAN MESSTECHNIK GmbH 27 2.2.2.2.2 Unabhängige Analyseverfahren zur Auswertung spektrophotometrischer Messreihen 28 2.2.2.3 Messung 29 2.2.2.3.1 Einstellungen und Voraussetzungen 29 2.2.2.3.2 Qualitative Einflussnahme von Störgrößen auf die spektroskopische Datenerfassung 30 2.2.3 Einsatz in der Siedlungswasserwirtschaft und Hydrologie 31 3 Versuchsdurchführung und Analytik 33 3.1 Messkampagnen 33 3.1.1 Labormessversuche 33 3.1.1.1 Respirationsversuch 34 3.1.1.1.1 Versuchsaufbau zum Respirationsversuch 35 3.1.1.1.2 Betriebshinweise Respirationsversuch 38 3.1.1.2 Verdünnungsversuch 41 3.1.1.2.1 Versuchsaufbau zum Verdünnungsversuch 42 3.1.1.2.2 Betriebshinweise Verdünnungsversuch 43 3.1.2 Feldmessversuch 43 3.1.2.1 Versuchsaufbau zum Feldmessversuch 44 3.1.2.2 Betriebshinweise Feldmessversuch 46 3.2 Abwasserproben: Aufbewahrung und Analytik 47 3.2.1 Konservierung und Probenvorbehandlung 48 3.2.2 Standardisierte Laboranalyseverfahren 49 3.2.2.1 CSB 49 3.2.2.2 Biologischer Sauerstoffbedarf BSBn 50 3.3 Mess- und Regelinstrumente 51 3.3.1 Optischer Multiparameter-Sensor 51 3.3.2 Luminescent Dissolved Oxygen-Sensor (LDO) 53 3.3.3 Peristaltik-Pumpe 54 3.3.4 Dispergierer 54 4 Untersuchungen zur Entwicklung und Anwendung von UV/Vis-Kalibrierungen 55 4.1 Statistische Verfahren zur Kalibrierung 55 4.1.1 Datengrundlage und Methoden 56 4.1.1.1 Datengrundlage 56 4.1.1.2 Multivariate Datenanalyse 57 4.1.1.2.1 Regressionsanalyse 58 4.1.1.2.1.1 Schätzung der Regressionsfunktion 59 4.1.1.2.2 Qualitätsprüfung 61 4.1.1.2.3 Prüfung der Modellprämissen 63 4.1.1.2.4 Multivariate Regressionsanalyse 66 4.1.1.3 Vergleich der Kalibrierverfahren 70 4.1.2 Ergebnisse 70 4.1.2.1 Regressionsansätze für UV/Vis-Kalibrierung 70 4.1.2.1.1 Partial-Least-Squares Regression (PLS-R) 70 4.1.2.1.2 Lasso-Regression 73 4.1.2.1.3 Herstellerkalibrierung (SCAN GmbH) 73 4.1.2.1.3.1 Anwendung der globalen Herstellerkalibrierung 73 4.1.2.1.3.2 Lokal angepasste Herstellerkalibrierung 74 4.1.3 Auswertungen 75 4.1.3.1 Tauglichkeit angewandter Regressionsansätze zur Entwicklung von UV/Vis-Kalibrierfunktionen 75 4.1.3.1.1 Vergleich der Vorhersagequalitäten zwischen Regressionsansätzen und Herstellerkali¬- brierung 75 4.1.3.1.2 Aussagekraft angewandter Regressionsmodelle 77 4.1.3.1.2.1 Regressionsfunktion und -koeffizienten 77 4.1.3.1.2.2 Modellprämissen 78 4.1.3.2 Identifizierung signifikanter WL oder -Bereiche 80 4.2 Fraktionierung von CSB-Verbindungen 81 4.2.1 Datengrundlage und Methoden 82 4.2.1.1 Laborwertmethode 83 4.2.1.2 Modellwertmethode 85 4.2.1.2.1 Respirometrische Messung 86 4.2.1.2.2 Sauerstoffverbrauchsrate 87 4.2.1.2.3 Modellberechnung 89 4.2.1.2.4 Simulationsmethode mit modifiziertem Activated Sludge Modell No. 1 92 4.2.1.2.5 Modellkalibrierung 95 4.2.1.2.6 Datenauswahl 96 4.2.1.3 Lichtabsorptionsmethode 96 4.2.2 Ergebnisse 97 4.2.2.1 Modellwertmethode mit ASM No. 1 97 4.2.2.2 Auswahl von Modelldaten 100 4.2.2.3 UV/Vis-Kalibrierfunktionen 101 4.2.2.3.1 CSB-Fraktionen 101 4.2.2.3.2 Vergleich MW- und LW-Modell 103 4.2.3 Auswertungen 104 4.2.3.1 Tauglichkeit von Simulationsergebnissen aus Modellwertmethode zur Entwicklung von Kalibrierfunktionen 104 4.2.3.2 Abweichende Vorhersagequalitäten zwischen den UV/Vis-Kalibrierfunktionen 106 4.2.3.3 Messunsicherheiten und Modellqualität 107 4.2.3.4 Signifikante Wellenlängen oder -bereiche für einzelne CSB-Fraktionen 109 4.3 Anwendungsbeispiel: Kohlenstoffumsatz entlang einer Fließstrecke 111 4.3.1 Datengrundlage und Methoden 112 4.3.1.1 Einsatz von UV/Vis-Messtechnik 115 4.3.1.1.1 Vergleichbarkeit bei Parallelbetrieb baugleicher Sensoren 115 4.3.1.1.1.1 Versuchsdurchführung 116 4.3.1.1.1.2 Berechnungsansätze 116 4.3.1.1.2 Lokale Kalibrierung 117 4.3.1.1.2.1 Univariat 118 4.3.1.1.2.2 Multivariat 118 4.3.1.2 Kohlenstoffumwandlung und -umsatz innerhalb des Durchflussreaktors 118 4.3.1.2.1 Vorverarbeitung von UV/Vis-Daten 120 4.3.1.2.2 Zeitsynchronisation mithilfe der Fließzeit 120 4.3.1.2.3 Bestimmung von stofflichen Veränderungen in einem Wasserpaket 121 4.3.2 Ergebnisse 122 4.3.2.1 Praxiseinsatz von UV/Vis-Messtechnik 122 4.3.2.1.1 Stabilität und Vergleichbarkeit von Messsignalen bei unterschiedlichen Sensoren 122 4.3.2.1.1.1 Messgüte 122 4.3.2.1.1.2 Sensoranpassung 124 4.3.2.1.2 UV/Vis-Kalibrationsfunktionen 125 4.3.2.1.2.1 Validierung LK-PLS-R 126 4.3.2.1.2.2 Lokale Nachkalibrierung LK-PLS-R 128 4.3.2.1.3 Anwendung entwickelter Kalibrationsmodelle auf Zeitreihen 130 4.3.2.2 Kohlenstoffumsatz 131 4.3.3 Auswertungen 135 4.3.3.1 Tauglichkeit von UV/Vis-Messtechnik für den Einsatz in der Kanalisation 135 4.3.3.1.1 Vorhersagegenauigkeit von Kalibrationsfunktionen 135 4.3.3.1.2 Abweichende Messergebnisse der Extinktion von einzelnen Sensoren 135 4.3.3.2 Veränderungen in den Konzentrationen einzelner Kohlenstofffraktionen entlang der Fließstrecke 136 5 Diskussion 139 6 Ausblick 151 7 Zusammenfassung 153 8 Literaturverzeichnis 157 A Anhang 171 A.1 Respirationsversuche CSB-Fraktionen 171 A.1.1 Quellcode - CSB-Fraktionierung 171 A.1.2 Respirationsversuche CSB-Fraktionen 175 A.1.3 Quellcode - PLS-Regression 178 A.1.4 UV/Vis-Kalibrierung - CSB-Fraktionen 180 A.1.5 Modellgüte 183 A.1.6 Modellprämissen 184 A.2 Feldmesskampagne 188 A.2.1 Sensorkompensation 188 A.2.2 Korrelationsplots 189 A.2.2.1 Validierung der Kalibrationsmodelle 189 A.2.2.2 Nachkalibrierung der Kalibrationsmodelle 192 A.2.2.2.1 univariat 192 A.2.3 Stoffliche Veränderungen in Wasserpaketen 198 A.2.4 Laboranalysen Stoffliche Veränderungen in Wasserpaketen 201 / Optical spectrophotometry is checked as measuring method for continuous monitoring of waste water quality. The chemical oxygen demand (COD) is used as a central parame-ter for the material assessment of waste water and for its detection in surface waters. The information value about an organic load is increased using an additional fractiona-tion. In a laboratory measurement campaign, data from extinction values of the UV/Vis spectrum and reference values are created (standard analysis parameters and simulated concentrations by using the Activated Sludge Model No. 1). Based on this calibration models for the COD and individual fractions are developed using the regression ap-proach of the partial least squares and their practical suitability is checked in the context of an application example. As a result of this work, calibration models for use in munici-pal wastewater under dry weather conditions, are available. The prediction quality de-creases with increasing differentiation. We advise against further use of the calculated equivalent concentrations for the COD fractions (SS, XS, SI und XI), e.g. as a calibration var-iable for mass transfer models or as a control and regulation variable. The reason for higher measurement uncertainties is identified as insufficient adaptation to the changing wastewater composition during a dry weather day. With an extended data basis, a higher model quality is promised: Standard analysis parameters (COD, CODmf and BOD) are de-termined in wastewater samples before and after respiratory pretreatment in order to be able to rule out substances. In addition, rethinking of static calibration functions for UV/Vis sensors is proposed towards dynamic methods. A generalization of calibration models to other weather conditions, measurement locations or sensors is not recom-mended.:Abbildungen VI Tabellen XIII Abkürzungen XV 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 2 Stand der Forschung 5 2.1 Kohlenstoffe 6 2.1.1 Zusammensetzung und Herkunft im häuslichen Abwasser 7 2.1.1.1 Fette 8 2.1.1.2 Proteine 8 2.1.1.3 Tenside 9 2.1.1.4 Phenole 10 2.1.1.5 Kohlenwasserstoffe 10 2.1.2 Fraktionierung von Kohlenstoffverbindungen 11 2.1.2.1 Chemischer Sauerstoffbedarf 12 2.1.2.2 Ansätze zur CSB-Fraktionierung 12 2.1.2.3 Stoffzusammensetzung einzelner CSB-Fraktionen 15 2.1.2.4 Messmethoden zur Bestimmung des CSB 18 2.2 Optische Spektroskopie 20 2.2.1 Grundlagen 20 2.2.1.1 Elektromagnetische Strahlung 20 2.2.1.2 Einordnung der optischen Spektroskopie 21 2.2.1.3 Lichtabsorption 21 2.2.1.4 Chemisch-physikalische Grundlagen 22 2.2.1.5 Mathematische Grundlagen 24 2.2.1.6 Extinktionsmessung 25 2.2.2 Online-Messtechnik 26 2.2.2.1 Sensoren /-hersteller 26 2.2.2.2 Kalibrierung 26 2.2.2.2.1 Kalibrierung der S::CAN MESSTECHNIK GmbH 27 2.2.2.2.2 Unabhängige Analyseverfahren zur Auswertung spektrophotometrischer Messreihen 28 2.2.2.3 Messung 29 2.2.2.3.1 Einstellungen und Voraussetzungen 29 2.2.2.3.2 Qualitative Einflussnahme von Störgrößen auf die spektroskopische Datenerfassung 30 2.2.3 Einsatz in der Siedlungswasserwirtschaft und Hydrologie 31 3 Versuchsdurchführung und Analytik 33 3.1 Messkampagnen 33 3.1.1 Labormessversuche 33 3.1.1.1 Respirationsversuch 34 3.1.1.1.1 Versuchsaufbau zum Respirationsversuch 35 3.1.1.1.2 Betriebshinweise Respirationsversuch 38 3.1.1.2 Verdünnungsversuch 41 3.1.1.2.1 Versuchsaufbau zum Verdünnungsversuch 42 3.1.1.2.2 Betriebshinweise Verdünnungsversuch 43 3.1.2 Feldmessversuch 43 3.1.2.1 Versuchsaufbau zum Feldmessversuch 44 3.1.2.2 Betriebshinweise Feldmessversuch 46 3.2 Abwasserproben: Aufbewahrung und Analytik 47 3.2.1 Konservierung und Probenvorbehandlung 48 3.2.2 Standardisierte Laboranalyseverfahren 49 3.2.2.1 CSB 49 3.2.2.2 Biologischer Sauerstoffbedarf BSBn 50 3.3 Mess- und Regelinstrumente 51 3.3.1 Optischer Multiparameter-Sensor 51 3.3.2 Luminescent Dissolved Oxygen-Sensor (LDO) 53 3.3.3 Peristaltik-Pumpe 54 3.3.4 Dispergierer 54 4 Untersuchungen zur Entwicklung und Anwendung von UV/Vis-Kalibrierungen 55 4.1 Statistische Verfahren zur Kalibrierung 55 4.1.1 Datengrundlage und Methoden 56 4.1.1.1 Datengrundlage 56 4.1.1.2 Multivariate Datenanalyse 57 4.1.1.2.1 Regressionsanalyse 58 4.1.1.2.1.1 Schätzung der Regressionsfunktion 59 4.1.1.2.2 Qualitätsprüfung 61 4.1.1.2.3 Prüfung der Modellprämissen 63 4.1.1.2.4 Multivariate Regressionsanalyse 66 4.1.1.3 Vergleich der Kalibrierverfahren 70 4.1.2 Ergebnisse 70 4.1.2.1 Regressionsansätze für UV/Vis-Kalibrierung 70 4.1.2.1.1 Partial-Least-Squares Regression (PLS-R) 70 4.1.2.1.2 Lasso-Regression 73 4.1.2.1.3 Herstellerkalibrierung (SCAN GmbH) 73 4.1.2.1.3.1 Anwendung der globalen Herstellerkalibrierung 73 4.1.2.1.3.2 Lokal angepasste Herstellerkalibrierung 74 4.1.3 Auswertungen 75 4.1.3.1 Tauglichkeit angewandter Regressionsansätze zur Entwicklung von UV/Vis-Kalibrierfunktionen 75 4.1.3.1.1 Vergleich der Vorhersagequalitäten zwischen Regressionsansätzen und Herstellerkali¬- brierung 75 4.1.3.1.2 Aussagekraft angewandter Regressionsmodelle 77 4.1.3.1.2.1 Regressionsfunktion und -koeffizienten 77 4.1.3.1.2.2 Modellprämissen 78 4.1.3.2 Identifizierung signifikanter WL oder -Bereiche 80 4.2 Fraktionierung von CSB-Verbindungen 81 4.2.1 Datengrundlage und Methoden 82 4.2.1.1 Laborwertmethode 83 4.2.1.2 Modellwertmethode 85 4.2.1.2.1 Respirometrische Messung 86 4.2.1.2.2 Sauerstoffverbrauchsrate 87 4.2.1.2.3 Modellberechnung 89 4.2.1.2.4 Simulationsmethode mit modifiziertem Activated Sludge Modell No. 1 92 4.2.1.2.5 Modellkalibrierung 95 4.2.1.2.6 Datenauswahl 96 4.2.1.3 Lichtabsorptionsmethode 96 4.2.2 Ergebnisse 97 4.2.2.1 Modellwertmethode mit ASM No. 1 97 4.2.2.2 Auswahl von Modelldaten 100 4.2.2.3 UV/Vis-Kalibrierfunktionen 101 4.2.2.3.1 CSB-Fraktionen 101 4.2.2.3.2 Vergleich MW- und LW-Modell 103 4.2.3 Auswertungen 104 4.2.3.1 Tauglichkeit von Simulationsergebnissen aus Modellwertmethode zur Entwicklung von Kalibrierfunktionen 104 4.2.3.2 Abweichende Vorhersagequalitäten zwischen den UV/Vis-Kalibrierfunktionen 106 4.2.3.3 Messunsicherheiten und Modellqualität 107 4.2.3.4 Signifikante Wellenlängen oder -bereiche für einzelne CSB-Fraktionen 109 4.3 Anwendungsbeispiel: Kohlenstoffumsatz entlang einer Fließstrecke 111 4.3.1 Datengrundlage und Methoden 112 4.3.1.1 Einsatz von UV/Vis-Messtechnik 115 4.3.1.1.1 Vergleichbarkeit bei Parallelbetrieb baugleicher Sensoren 115 4.3.1.1.1.1 Versuchsdurchführung 116 4.3.1.1.1.2 Berechnungsansätze 116 4.3.1.1.2 Lokale Kalibrierung 117 4.3.1.1.2.1 Univariat 118 4.3.1.1.2.2 Multivariat 118 4.3.1.2 Kohlenstoffumwandlung und -umsatz innerhalb des Durchflussreaktors 118 4.3.1.2.1 Vorverarbeitung von UV/Vis-Daten 120 4.3.1.2.2 Zeitsynchronisation mithilfe der Fließzeit 120 4.3.1.2.3 Bestimmung von stofflichen Veränderungen in einem Wasserpaket 121 4.3.2 Ergebnisse 122 4.3.2.1 Praxiseinsatz von UV/Vis-Messtechnik 122 4.3.2.1.1 Stabilität und Vergleichbarkeit von Messsignalen bei unterschiedlichen Sensoren 122 4.3.2.1.1.1 Messgüte 122 4.3.2.1.1.2 Sensoranpassung 124 4.3.2.1.2 UV/Vis-Kalibrationsfunktionen 125 4.3.2.1.2.1 Validierung LK-PLS-R 126 4.3.2.1.2.2 Lokale Nachkalibrierung LK-PLS-R 128 4.3.2.1.3 Anwendung entwickelter Kalibrationsmodelle auf Zeitreihen 130 4.3.2.2 Kohlenstoffumsatz 131 4.3.3 Auswertungen 135 4.3.3.1 Tauglichkeit von UV/Vis-Messtechnik für den Einsatz in der Kanalisation 135 4.3.3.1.1 Vorhersagegenauigkeit von Kalibrationsfunktionen 135 4.3.3.1.2 Abweichende Messergebnisse der Extinktion von einzelnen Sensoren 135 4.3.3.2 Veränderungen in den Konzentrationen einzelner Kohlenstofffraktionen entlang der Fließstrecke 136 5 Diskussion 139 6 Ausblick 151 7 Zusammenfassung 153 8 Literaturverzeichnis 157 A Anhang 171 A.1 Respirationsversuche CSB-Fraktionen 171 A.1.1 Quellcode - CSB-Fraktionierung 171 A.1.2 Respirationsversuche CSB-Fraktionen 175 A.1.3 Quellcode - PLS-Regression 178 A.1.4 UV/Vis-Kalibrierung - CSB-Fraktionen 180 A.1.5 Modellgüte 183 A.1.6 Modellprämissen 184 A.2 Feldmesskampagne 188 A.2.1 Sensorkompensation 188 A.2.2 Korrelationsplots 189 A.2.2.1 Validierung der Kalibrationsmodelle 189 A.2.2.2 Nachkalibrierung der Kalibrationsmodelle 192 A.2.2.2.1 univariat 192 A.2.3 Stoffliche Veränderungen in Wasserpaketen 198 A.2.4 Laboranalysen Stoffliche Veränderungen in Wasserpaketen 201
1138

Efficient Monte Carlo Simulation for Counterparty Credit Risk Modeling / Effektiv Monte Carlo-simulering för modellering av motpartskreditrisk

Johansson, Sam January 2019 (has links)
In this paper, Monte Carlo simulation for CCR (Counterparty Credit Risk) modeling is investigated. A jump-diffusion model, Bates' model, is used to describe the price process of an asset, and the counterparty default probability is described by a stochastic intensity model with constant intensity. In combination with Monte Carlo simulation, the variance reduction technique importance sampling is used in an attempt to make the simulations more efficient. Importance sampling is used for simulation of both the asset price and, for CVA (Credit Valuation Adjustment) estimation, the default time. CVA is simulated for both European and Bermudan options. It is shown that a significant variance reduction can be achieved by utilizing importance sampling for asset price simulations. It is also shown that a significant variance reduction for CVA simulation can be achieved for counterparties with small default probabilities by employing importance sampling for the default times. This holds for both European and Bermudan options. Furthermore, the regression based method least squares Monte Carlo is used to estimate the price of a Bermudan option, resulting in CVA estimates that lie within an interval of feasible values. Finally, some topics of further research are suggested. / I denna rapport undersöks Monte Carlo-simuleringar för motpartskreditrisk. En jump-diffusion-modell, Bates modell, används för att beskriva prisprocessen hos en tillgång, och sannolikheten att motparten drabbas av insolvens beskrivs av en stokastisk intensitetsmodell med konstant intensitet. Tillsammans med Monte Carlo-simuleringar används variansreduktionstekinken importance sampling i ett försök att effektivisera simuleringarna. Importance sampling används för simulering av både tillgångens pris och, för estimering av CVA (Credit Valuation Adjustment), tidpunkten för insolvens. CVA simuleras för både europeiska optioner och Bermuda-optioner. Det visas att en signifikant variansreduktion kan uppnås genom att använda importance sampling för simuleringen av tillgångens pris. Det visas även att en signifikant variansreduktion för CVA-simulering kan uppnås för motparter med små sannolikheter att drabbas av insolvens genom att använda importance sampling för simulering av tidpunkter för insolvens. Detta gäller både europeiska optioner och Bermuda-optioner. Vidare, används regressionsmetoden least squares Monte Carlo för att estimera priset av en Bermuda-option, vilket resulterar i CVA-estimat som ligger inom ett intervall av rimliga värden. Slutligen föreslås några ämnen för ytterligare forskning.
1139

Quishing i Sikte:Försvarsstrategier och Verktyg : -En Studie om medarbetares Medvetenhet om QR-kod Phishing och En Undersökning av Anti-Phishing-Verktyg

Ivarsson, Anton, Stefanescu, Adrian January 2024 (has links)
Denna studie undersöker det växande fenomenet quishing (QR-kod phishing) i ljuset av den ökande användningen av QR-koder under COVID-19-pandemin. QR-koder, som är en lösning för beröringsfri interaktion, har blivit allt vanligare och utnyttjas alltmer frekvent i skadliga phishing-attacker mot företag och deras anställda. Under 2023 observerades en dramatisk ökning på över 2 400 procent i en omfattande quishing-kampanj. Undersökningen granskar tidigare studier och forskning om quishing och framhäver behovet av att öka medvetenheten bland anställda och hur man kan implementera effektiva skyddsåtgärder. En central del av studien inkluderar en enkätundersökning och en Attack Simulation Training (AST) som genomförs i samarbete med en Managed Security Service Provider (MSSP). Målet med undersökningen är att belysa anställdas medvetenhet om quishing, deras reaktioner och vad som ligger till grund för de anställdas agerande. Vidare inkluderar studien ett experiment rörande hur effektivt MDO (Microsoft Defender for Office) och andra säkerhetslösningar upptäcker inbäddade QR-koder i olika bildformat och rörliga animationer i epost. Resultaten från enkätundersökningen och ASTn ger insikter som stärker förståelsen för företagens och de anställdas handlande i förhållande till en av många varianter av phishing.Utifrån detta kan rekommendationer för förbättringar, verktyg och policys för att motverka hotet utvecklas och anpassas till hur det verkliga förhållandet är i dagsläget. Studien strävar efter att bidra till en mer omfattande förståelse av quishing och främja framtidens säkerhetskultur inom företagsmiljöer. / This study explores the rising trend of quishing (QR code phishing) in the context of the increased use of QR codes during the COVID-19 pandemic. QR codes, which facilitate contactless interactions, have become more prevalent and are increasingly exploited in malicious phishing attacks targeting companies and their employees. In 2023, a significant surge of over 2,400 percent was observed in a major quishing campaign. The research reviews previous studies on quishing and underscores the necessity of raising employee awareness and implementing effective protective measures. A key component of the study involves a survey and an Attack Simulation Training (AST) conducted in partnership with a Managed Security Service Provider (MSSP). The objective is to assess employees' awareness of quishing, their responses, and the factors influencing their behavior. Additionally, the study includes an experiment to evaluate how effectively Microsoft Defender for Office (MDO) and other security solutions detect embedded QR codes in various image formats and animations in emails. The findings from the survey and AST provide valuable insights into how companies and employees respond to different types of phishing attacks. Based on these insights, recommendations for improvements, tools, and policies can be developed and tailored to the current threat landscape. The study aims to enhance the overall understanding of quishing and promote a stronger security culture within corporate environments.
1140

Statistical modelling of return on capital employed of individual units

Burombo, Emmanuel Chamunorwa 10 1900 (has links)
Return on Capital Employed (ROCE) is a popular financial instrument and communication tool for the appraisal of companies. Often, companies management and other practitioners use untested rules and behavioural approach when investigating the key determinants of ROCE, instead of the scientific statistical paradigm. The aim of this dissertation was to identify and quantify key determinants of ROCE of individual companies listed on the Johannesburg Stock Exchange (JSE), by comparing classical multiple linear regression, principal components regression, generalized least squares regression, and robust maximum likelihood regression approaches in order to improve companies decision making. Performance indicators used to arrive at the best approach were coefficient of determination ( ), adjusted ( , and Mean Square Residual (MSE). Since the ROCE variable had positive and negative values two separate analyses were done. The classical multiple linear regression models were constructed using stepwise directed search for dependent variable log ROCE for the two data sets. Assumptions were satisfied and problem of multicollinearity was addressed. For the positive ROCE data set, the classical multiple linear regression model had a of 0.928, an of 0.927, a MSE of 0.013, and the lead key determinant was Return on Equity (ROE),with positive elasticity, followed by Debt to Equity (D/E) and Capital Employed (CE), both with negative elasticities. The model showed good validation performance. For the negative ROCE data set, the classical multiple linear regression model had a of 0.666, an of 0.652, a MSE of 0.149, and the lead key determinant was Assets per Capital Employed (APCE) with positive effect, followed by Return on Assets (ROA) and Market Capitalization (MC), both with negative effects. The model showed poor validation performance. The results indicated more and less precision than those found by previous studies. This suggested that the key determinants are also important sources of variability in ROCE of individual companies that management need to work with. To handle the problem of multicollinearity in the data, principal components were selected using Kaiser-Guttman criterion. The principal components regression model was constructed using dependent variable log ROCE for the two data sets. Assumptions were satisfied. For the positive ROCE data set, the principal components regression model had a of 0.929, an of 0.929, a MSE of 0.069, and the lead key determinant was PC4 (log ROA, log ROE, log Operating Profit Margin (OPM)) and followed by PC2 (log Earnings Yield (EY), log Price to Earnings (P/E)), both with positive effects. The model resulted in a satisfactory validation performance. For the negative ROCE data set, the principal components regression model had a of 0.544, an of 0.532, a MSE of 0.167, and the lead key determinant was PC3 (ROA, EY, APCE) and followed by PC1 (MC, CE), both with negative effects. The model indicated an accurate validation performance. The results showed that the use of principal components as independent variables did not improve classical multiple linear regression model prediction in our data. This implied that the key determinants are less important sources of variability in ROCE of individual companies that management need to work with. Generalized least square regression was used to assess heteroscedasticity and dependences in the data. It was constructed using stepwise directed search for dependent variable ROCE for the two data sets. For the positive ROCE data set, the weighted generalized least squares regression model had a of 0.920, an of 0.919, a MSE of 0.044, and the lead key determinant was ROE with positive effect, followed by D/E with negative effect, Dividend Yield (DY) with positive effect and lastly CE with negative effect. The model indicated an accurate validation performance. For the negative ROCE data set, the weighted generalized least squares regression model had a of 0.559, an of 0.548, a MSE of 57.125, and the lead key determinant was APCE and followed by ROA, both with positive effects.The model showed a weak validation performance. The results suggested that the key determinants are less important sources of variability in ROCE of individual companies that management need to work with. Robust maximum likelihood regression was employed to handle the problem of contamination in the data. It was constructed using stepwise directed search for dependent variable ROCE for the two data sets. For the positive ROCE data set, the robust maximum likelihood regression model had a of 0.998, an of 0.997, a MSE of 6.739, and the lead key determinant was ROE with positive effect, followed by DY and lastly D/E, both with negative effects. The model showed a strong validation performance. For the negative ROCE data set, the robust maximum likelihood regression model had a of 0.990, an of 0.984, a MSE of 98.883, and the lead key determinant was APCE with positive effect and followed by ROA with negative effect. The model also showed a strong validation performance. The results reflected that the key determinants are major sources of variability in ROCE of individual companies that management need to work with. Overall, the findings showed that the use of robust maximum likelihood regression provided more precise results compared to those obtained using the three competing approaches, because it is more consistent, sufficient and efficient; has a higher breakdown point and no conditions. Companies management can establish and control proper marketing strategies using the key determinants, and results of these strategies can see an improvement in ROCE. / Mathematical Sciences / M. Sc. (Statistics)

Page generated in 0.0479 seconds