Spelling suggestions: "subject:"[een] QUANTIFICATION"" "subject:"[enn] QUANTIFICATION""
391 |
Nachweis und Quantifizierung von NanopartikelnDorn, Marco 23 March 2015 (has links) (PDF)
Die Nanotechnologie spielt eine Schlüsselrolle bei der technologischen Entwicklung. Jedoch stellen Nanopartikel ein potentielles Gesundheitsrisiko dar. Durch ihre große Oberfläche zeigen Nanopartikel eine hohe Reaktivität und die geringe Größe trägt zu einer erhöhten Beweglichkeit und Bioverfügbarkeit bei. Beispielsweise können Nanopartikel Entzündungen auslösen oder die Produktion von freien Radikalen fördern. Insbesondere Lungenepithelzellen stellen die wichtigste Barriere zur Aufnahme von industriell relevanten Nanopartikeln im Alltag dar, denn durch ihre geringe Größe können Nanopartikel bis in einzelne Alveolen vordringen und in die Blutbahn gelangen. Aus diesen Gründen ist es notwendig das Risikopotential, was von Nanopartikeln ausgeht zu bewerten. In dieser Dissertation wurden die Metalloxid-Nanopartikel Al2O3, TiO2, Fe2O3, ZnO und CeO2 in einzelnen Lungenzellen erstmals mit Hilfe der Ionenstrahlmikroskopie quantifiziert. Darüber hinaus erfolgte die Quantifizierung von ausgewählten Metalloxid-Nanopartikeln in gedehnten primären Typ 2 Pneumozyten sowie in den Alveolen des Lungengewebes. Außerdem wurden Gold und Silber als Markierungspartikel eingesetzt, um die Aufnahme der organischen Nanopartikel Graphen zu untersuchen. Die Ionenstrahlmikroskopie ist eine hochempfindliche Methode, welche durch die charakteristische Röntgenstrahlung den zellulären Elementgehalt innerhalb einer Zelle visualisieren kann. Dies ist, je nach Element, bis zu einer unteren Konzentrationsgrenze von 5 – 20 ppm möglich. Die Ionenstrahlmikroskopie erlaubt, im Vergleich zur Elektronenstrahlmikroanalyse, biologische Proben bis zu einer Tiefe von ca. 80 µm zu untersuchen. Durch das zelluläre Rückstreusignal konnte bei Kulturzellen entschieden werden, ob die Nanopartikel internalisiert wurden oder auf der Zelloberfläche assoziiert sind. Da biologische Proben eine relativ geringe Dichte und Dicke aufweisen, ist die Signalausbeute und damit die Messzeit ein limitierender Faktor bei der ionenstrahlanalytischen Quantifizierung des Elementgehalts. Durch das Aufziehen der Probe auf einen Aluminiumrahmen, konnte der Abstand zwischen Röntgendetektor und Probe reduziert werden, was zu einer höheren Signalausbeute führte und damit eine schnellere Analyse der Präparate ermöglichte. Die Art und Weise der Probenpräparation kann einen Einfluss auf den zellulären Elementgehalt haben, indem Ionen aus dem Medium an die Zellaußenseite binden oder durch die Waschlösung ein Verlust von intrazellulär lokalisierten organischen und anorganischen Molekülen entsteht. Durch den Vergleich zwischen einer ionenfreien Polyethylenglycol-Lösung mit dem üblicherweise verwendeten Waschpuffer konnte gezeigt werden, dass sich bei der Verwendung des Waschpuffers der zelluläre Elementgehalt von Kalium, Kalzium und insbesondere Chlor erhöht. Allerdings bleiben Phosphor und Schwefel als wichtige zelluläre Strukturelemente und die biologisch relevanten Spurenelemente Eisen und Zink davon unbeeinflusst. Die ionenstrahlmikroskopische Analyse von Lungengewebe erfordert eine Einbettung der Präparate. Dabei erwies sich DePeX, was als Material routinemäßig zur Einbettung verwendet wird, als ungeeignet, da eine inhomogene Zink-Kontamination vorhanden war, welche eine intrazelluläre Zink-Messung verhinderte. Durch die Entwicklung eines neuen zinkfreien Einbettmaterials auf Limonen-Basis, konnte jetzt auch die Zinkkonzentration in Alveolen gemessen werden. Im biologischen Millieu können Proteine und Ionen auf der Oberfläche der Nanopartikel adsorbieren und dadurch deren Aufnahme in die Zelle beeinflussen. Deshalb wurde die zelluläre Aufnahme in Abhängigkeit der Proteinhülle (Korona) bei in vitro Bedingungen untersucht. Tragen die Partikel eine Korona, ist bei allen untersuchten Metalloxid-Nanopartikeln eine geringere zelluläre Konzentration zu beobachten und gleichzeitig sind weniger Nanopartikel auf der Zelloberfläche adsorbiert. Die Aufnahme von CeO2 und ZnO wurde näher untersucht, da ZnO als einziger untersuchter Nanopartikel einen deutlichen toxischen Effekt hervorruft und CeO2 durch die hohe Ausbeute des Rückstreusignals und die starke zelluläre Aufnahme zum näheren Studium der Aufnahme besonders geeignet ist. Es wurde beobachtet, dass CeO2 und ZnO im extrazellulären Raum mit Phosphat und Kalzium aus dem Kulturmedium kolokalisiert sind. Da Kalziumphosphat als Transfektionsagenz bekannt ist, kann diese Modifikation der Partikeloberfläche die Aufnahme der Partikel begünstigen. Im Vergleich zu CeO2, ist bei ZnO auf Grund der erhöhten Toxizität keine Sättigung der zellulären Konzentration zu erkennen. Daneben lässt die die Halbierung der zellulären CeO2-Konzentration nach 72 Stunden Applikationszeit darauf schließen, dass die Zellen in der Lage sind die Nanopartikel durch Exozytose wieder abzugeben. Mit Hilfe von Inhibitoren wurde der Aufnahmemechanismus von CeO2-NP untersucht. Dabei zeigte sich, dass CeO2 Nanopartikel durch Caveolae- bzw. Clathrin-vermittelte Endozytose und Makropinozytose aufgenommen werden. Die Internalisierung von CeO2 und ZnO Nanopartikeln wurde mit Hilfe des zellulären Protonen-Rückstreusignals untersucht. Internalisierte Nanopartikel liefern im Vergleich zu extrazellulär assoziierten Nanopartikeln ein Rückstreusignal bei niedrigeren Energien, da die zurückgestreuten Protonen durch die Passage des Zellmaterials zusätzlich Energie verlieren. Bei diesen Untersuchungen wurde festgestellt dass, ZnO und CeO2-Nanopartikel ohne Proteinhülle häufiger an der Zelloberfläche lokalisiert sind und zu einer höheren zellulären Konzentration führen. Sowohl im Lungengewebe als auch bei gedehnten primären Typ 2 Pneumozyten und kultivierten Lungenepithelzellen zeigte sich eine sehr inhomogene zelluläre Konzentrationsverteilung der Nanopartikel. Hier liegt die Stärke der Ionenstrahlmikroskopie darin, die Konzentration in einzelnen Zellen bzw. Alveolen erfassen zu können. Dadurch erlaubt es diese Methode, das Risiko abzuschätzen, was durch die Extrembelastung in einzelnen Zellen entstehen könnte. Da Lungengewebe aus Typ I und Typ II Pneumozyten besteht und Makrophagen in das Gewebe einwandern können, ist es in zukünftigen Experimenten notwendig die einzelnen Zelltypen zu markieren, um die Nanopartikel-Aufnahme im Lungengewebe mit den Ergebnissen der Zellkultur besser vergleichen zu können. Durch eine Markierung mit Gold-konjugierten Antikörpern, kann erreicht werden, die einzelnen Zelltypen mittels Ionenstrahlmikroskopie zu identifizieren. Durch verschiedene Applikationsformen bei in vitro und in vivo Untersuchungen ist die Wirkung der Nanopartikel nur schwer vergleichbar. Aus diesem Grund wurde in dieser Arbeit das Konzept der effektiv wirksamen zellulären Dosis eingeführt. Dieses erlaubt es, der Dosis, welche tatsächlich zellulär oder im Gewebe vorhanden ist, einen toxischen Effekt der Nanopartikel zuzuordnen. Dadurch kann die effektive Dosis als wichtige Größe zum systematischen Vergleich von toxikologischen Studien auf in vitro und in vivo Basis eingesetzt werden. Die Ionenstrahlmikroskopie ist zur Zeit die einzige Methode, welche für die intrazelluläre Quantifizierung von unmarkierten Nanopartikeln auf Einzelzellebene in Frage kommt. Deshalb ist sie als zukünftige Referenzmethode für die Dosimetrie von Nanopartikeln sehr gut geeignet.
|
392 |
Uncertainty in the Bifurcation Diagram of a Model of Heart Rhythm DynamicsRing, Caroline January 2014 (has links)
<p>To understand the underlying mechanisms of cardiac arrhythmias, computational models are used to study heart rhythm dynamics. The parameters of these models carry inherent uncertainty. Therefore, to interpret the results of these models, uncertainty quantification (UQ) and sensitivity analysis (SA) are important. Polynomial chaos (PC) is a computationally efficient method for UQ and SA in which a model output Y, dependent on some independent uncertain parameters represented by a random vector ξ, is approximated as a spectral expansion in multidimensional orthogonal polynomials in ξ. The expansion can then be used to characterize the uncertainty in Y.</p><p>PC methods were applied to UQ and SA of the dynamics of a two-dimensional return-map model of cardiac action potential duration (APD) restitution in a paced single cell. Uncertainty was considered in four parameters of the model: three time constants and the pacing stimulus strength. The basic cycle length (BCL) (the period between stimuli) was treated as the control parameter. Model dynamics was characterized with bifurcation analysis, which determines the APD and stability of fixed points of the model at a range of BCLs, and the BCLs at which bifurcations occur. These quantities can be plotted in a bifurcation diagram, which summarizes the dynamics of the model. PC UQ and SA were performed for these quantities. UQ results were summarized in a novel probabilistic bifurcation diagram that visualizes the APD and stability of fixed points as uncertain quantities.</p><p>Classical PC methods assume that model outputs exist and reasonably smooth over the full domain of ξ. Because models of heart rhythm often exhibit bifurcations and discontinuities, their outputs may not obey the existence and smoothness assumptions on the full domain, but only on some subdomains which may be irregularly shaped. On these subdomains, the random variables representing the parameters may no longer be independent. PC methods therefore must be modified for analysis of these discontinuous quantities. The Rosenblatt transformation maps the variables on the subdomain onto a rectangular domain; the transformed variables are independent and uniformly distributed. A new numerical estimation of the Rosenblatt transformation was developed that improves accuracy and computational efficiency compared to existing kernel density estimation methods. PC representations of the outputs in the transformed variables were then constructed. Coefficients of the PC expansions were estimated using Bayesian inference methods. For discontinuous model outputs, SA was performed using a sampling-based variance-reduction method, with the PC estimation used as an efficient proxy for the full model.</p><p>To evaluate the accuracy of the PC methods, PC UQ and SA results were compared to large-sample Monte Carlo UQ and SA results. PC UQ and SA of the fixed point APDs, and of the probability that a stable fixed point existed at each BCL, was very close to MC UQ results for those quantities. However, PC UQ and SA of the bifurcation BCLs was less accurate compared to MC results.</p><p>The computational time required for PC and Monte Carlo methods was also compared. PC analysis (including Rosenblatt transformation and Bayesian inference) required less than 10 total hours of computational time, of which approximately 30 minutes was devoted to model evaluations, compared to approximately 65 hours required for Monte Carlo sampling of the model outputs at 1 × 10<super>6</super> ξ points.</p><p>PC methods provide a useful framework for efficient UQ and SA of the bifurcation diagram of a model of cardiac APD dynamics. Model outputs with bifurcations and discontinuities can be analyzed using modified PC methods. The methods applied and developed in this study may be extended to other models of heart rhythm dynamics. These methods have potential for use for uncertainty and sensitivity analysis in many applications of these models, including simulation studies of heart rate variability, cardiac pathologies, and interventions.</p> / Dissertation
|
393 |
Closing the building energy performance gap by improving our predictionsSun, Yuming 27 August 2014 (has links)
Increasing studies imply that predicted energy performance of buildings significantly deviates from actual measured energy use. This so-called "performance gap" may undermine one's confidence in energy-efficient buildings, and thereby the role of building energy efficiency in the national carbon reduction plan. Closing the performance gap becomes a daunting challenge for the involved professions, stimulating them to reflect on how to investigate and better understand the size, origins, and extent of the gap. The energy performance gap underlines the lack of prediction capability of current building energy models. Specifically, existing predictions are predominantly deterministic, providing point estimation over the future quantity or event of interest. It, thus, largely ignores the error and noise inherent in an uncertain future of building energy consumption. To overcome this, the thesis turns to a thriving area in engineering statistics that focuses on computation-based uncertainty quantification. The work provides theories and models that enable probabilistic prediction over future energy consumption, forming the basis of risk assessment in decision-making. Uncertainties that affect the wide variety of interacting systems in buildings are organized into five scales (meteorology - urban - building - systems - occupants). At each level both model form and input parameter uncertainty are characterized with probability, involving statistical modeling and parameter distributional analysis. The quantification of uncertainty at different system scales is accomplished using the network of collaborators established through an NSF-funded research project. The bottom-up uncertainty quantification approach, which deals with meta uncertainty, is fundamental for generic application of uncertainty analysis across different types of buildings, under different urban climate conditions, and in different usage scenarios. Probabilistic predictions are evaluated by two criteria: coverage and sharpness. The goal of probabilistic prediction is to maximize the sharpness of the predictive distributions subject to the coverage of the realized values. The method is evaluated on a set of buildings on the Georgia Tech campus. The energy consumption of each building is monitored in most cases by a collection of hourly sub-metered consumption data. This research shows that a good match of probabilistic predictions and the real building energy consumption in operation is achievable. Results from the six case buildings show that using the best point estimations of the probabilistic predictions reduces the mean absolute error (MAE) from 44% to 15% and the root mean squared error (RMSE) from 49% to 18% in total annual cooling energy consumption. As for monthly cooling energy consumption, the MAE decreases from 44% to 21% and the RMSE decreases from 53% to 28%. More importantly, the entire probability distributions are statistically verified at annual level of building energy predictions. Based on uncertainty and sensitivity analysis applied to these buildings, the thesis concludes that the proposed method significantly reduces the magnitude and effectively infers the origins of the building energy performance gap.
|
394 |
Nouvel outil de quantification de biomarqueurs couplant la spectroscopie optique et de la spectrométrie de masse, la Photo-SRMEnjalbert, Quentin 08 November 2013 (has links) (PDF)
La spectrométrie de masse apparaît au travers de la technologie SRM (Selected Reaction Monitoring) comme une alternative crédible aux tests immunologiques pour la quantification de biomarqueurs. Cependant, les limites de quantifications et de détections atteintes ne sont pas suffisantes pour réaliser des dosages cliniques. Afin d'améliorer les limites de détections, nous nous sommes intéressés au couplage de la spectroscopie optique avec la spectrométrie de masse pour le dosage de biomarqueurs. Ce couplage s'appelle la Photo-SRM. Je me suis donc appliqué, dans un premier temps, à étudier les propriétés optiques de biomolécules dans des domaines de longueurs d'ondes différents allant du VUV au visible. Par la suite, la preuve de concept de l'outil Photo-SRM a été réalisée. Suite à une modification instrumentale réalisée sur un spectromètre de masse de type triple quadripôle, un laser continu émettant des photons dans le domaine du visible, 532 nm, a été implémenté dans cet instrument. Cet outil a ensuite été appliqué pour un dosage multiplexé des protéines endogènes majoritaires du sérum humain. Ces protéines ont été dosées via des peptides protéotypiques contenant des cystéines. L'ensemble du sérum a donc été dérivé en amont de l'analyse. Nous avons souhaité appliquer la Photo-SRM au dosage des métabolites. En effet, dans de nombreuses pathologies, les métabolites et les protéines jouent un rôle important. Par exemple, les œstrogènes utilisés comme contraceptif ont un impact sur les concentrations des protéines de coagulation. Il semble donc intéressant de pouvoir étudier ces deux familles de biomolécules lors d'une même analyse. Enfin, avec l'avènement des instruments hybrides, tels que les Q-TOF et le Q-exactive, la quantification n'est plus réservée qu'à l'usage des instruments de type triple quadripôle. Ces instruments permettent de doser des biomolécules aux mêmes ordres de grandeur que les triples quadripôles en mode SRM. Ces instruments permettent également de réaliser des expériences de découvertes en protéomique. La modification instrumentale d'un Q-exactive, hybride quadripôle-Orbitrap, est présentée suivie d'expériences préliminaires. Ce couplage ouvre donc de nouvelles perspectives d'étude en quantification mais également en découverte protéomique
|
395 |
Méthodes numériques pour les processus markoviens déterministes par morceauxBrandejsky, Adrien 02 July 2012 (has links) (PDF)
Les processus markoviens déterministes par morceaux (PMDM) ont été introduits dans la littérature par M.H.A. Davis en tant que classe générale de modèles stochastiques non-diffusifs. Les PMDM sont des processus hybrides caractérisés par des trajectoires déterministes entrecoupées de sauts aléatoires. Dans cette thèse, nous développons des méthodes numériques adaptées aux PMDM en nous basant sur la quantification d'une chaîne de Markov sous-jacente au PMDM. Nous abordons successivement trois problèmes : l'approximation d'espérances de fonctionnelles d'un PMDM, l'approximation des moments et de la distribution d'un temps de sortie et le problème de l'arrêt optimal partiellement observé. Dans cette dernière partie, nous abordons également la question du filtrage d'un PMDM et établissons l'équation de programmation dynamique du problème d'arrêt optimal. Nous prouvons la convergence de toutes nos méthodes (avec le plus souvent des bornes de la vitesse de convergence) et les illustrons par des exemples numériques.
|
396 |
Algorithms for Viral Population AnalysisMancuso, Nicholas 12 August 2014 (has links)
The genetic structure of an intra-host viral population has an effect on many clinically important phenotypic traits such as escape from vaccine induced immunity, virulence, and response to antiviral therapies. Next-generation sequencing provides read-coverage sufficient for genomic reconstruction of a heterogeneous, yet highly similar, viral population; and more specifically, for the detection of rare variants. Admittedly, while depth is less of an issue for modern sequencers, the short length of generated reads complicates viral population assembly. This task is worsened by the presence of both random and systematic sequencing errors in huge amounts of data. In this dissertation I present completed work for reconstructing a viral population given next-generation sequencing data. Several algorithms are described for solving this problem under the error-free amplicon (or sliding-window) model. In order for these methods to handle actual real-world data, an error-correction method is proposed. A formal derivation of its likelihood model along with optimization steps for an EM algorithm are presented. Although these methods perform well, they cannot take into account paired-end sequencing data. In order to address this, a new method is detailed that works under the error-free paired-end case along with maximum a-posteriori estimation of the model parameters.
|
397 |
Introduction à quelques aspects de quantification géométrique.Aubin-Cadot, Noé 08 1900 (has links)
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier.
Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références. / We review some differential geometric prerequisite needed for an initial approach of the geometric quantization theory, i.e. basic notions in symplectic geometry, Lie group, Lie group action, principal G-bundle, connection, associated bundle, almost-complex structure. This leads to an in-depth study of Hermitian line bundles that leads to an existence condition for a prequantum line bundle over a symplectic manifold. With these tools, we start a study of geometric quantization, step by step. We introduce the prequantization theory, which is the construction of operators associated to classical observables and construction of a Hilbert space. Some major problems arise when applying prequantization in concrete examples : the obtained operators are not exactly those expected by first quantization and the constructed Hilbert space is too big. A first correction, polarization, corrects some problems, but greatly limits the set of classical observables that we can quantize.
This dissertation is not a complete survey of geometric quantization, which is not its goal. It's not covering metaplectic correction, neither BKS kernel. It's a side lecture for those introducing themselves to geometric quantization. First, it's introducing differential geometric concepts taken for granted in (Woodhouse [21]) and (Sniatycki [18]), i.e. principal G-bundles and associated bundles. Secondly, it adds details to some brisk proofs given in these two last references.
|
398 |
Towards multifidelity uncertainty quantification for multiobjective structural designLebon, Jérémy 12 December 2013 (has links) (PDF)
This thesis aims at Multi-Objective Optimization under Uncertainty in structural design. We investigate Polynomial Chaos Expansion (PCE) surrogates which require extensive training sets. We then face two issues: high computational costs of an individual Finite Element simulation and its limited precision. From numerical point of view and in order to limit the computational expense of the PCE construction we particularly focus on sparse PCE schemes. We also develop a custom Latin Hypercube Sampling scheme taking into account the finite precision of the simulation. From the modeling point of view,we propose a multifidelity approach involving a hierarchy of models ranging from full scale simulations through reduced order physics up to response surfaces. Finally, we investigate multiobjective optimization of structures under uncertainty. We extend the PCE model of design objectives by taking into account the design variables. We illustrate our work with examples in sheet metal forming and optimal design of truss structures.
|
399 |
The relationship between internal value drivers and shareholder value : JSE listed mining companies investigated / A. GerberGerber, Anton January 2008 (has links)
The primary goal of a publicly traded company is to maximise the wealth of its shareholders. This implies that the management of the firm, as agents of the owners, has to manage the firm in such a manner as to create value from every decision taken. Value-based management (VBM) is a management strategy aimed at achieving shareholder wealth creation and is based on the effective management of a set of internal value drivers to maximise wealth creation. The primary objective of the current study is to investigate the quantification of the relationship between internal value drivers and shareholder wealth creation in the Mining sector of JSE listed companies in South Africa. In order to achieve this, the internal value drivers were identified from literature, the necessary financial data was collected and the value drivers as well as actual shareholder wealth were quantified. Revenue growth, operating profitability, capital requirements and weighted average cost of capital (WACC) were identified as the value drivers while total shareholder return (TSR) was identified as the actual shareholder wealth creator. For the purpose of the current study, WACC was excluded from the analysis. By application of linear regression, it was found that revenue growth and operating profitability have a positive, statistically significant effect of TSR. After analysing the effect size, it is however concluded that the effect is not practically significant. These findings concur with similar research in the field of VBM. / Thesis (M.B.A.)--North-West University, Vaal Triangle Campus, 2009.
|
400 |
The relationship between internal value drivers and shareholder value : JSE listed mining companies investigated / A. GerberGerber, Anton January 2008 (has links)
The primary goal of a publicly traded company is to maximise the wealth of its shareholders. This implies that the management of the firm, as agents of the owners, has to manage the firm in such a manner as to create value from every decision taken. Value-based management (VBM) is a management strategy aimed at achieving shareholder wealth creation and is based on the effective management of a set of internal value drivers to maximise wealth creation. The primary objective of the current study is to investigate the quantification of the relationship between internal value drivers and shareholder wealth creation in the Mining sector of JSE listed companies in South Africa. In order to achieve this, the internal value drivers were identified from literature, the necessary financial data was collected and the value drivers as well as actual shareholder wealth were quantified. Revenue growth, operating profitability, capital requirements and weighted average cost of capital (WACC) were identified as the value drivers while total shareholder return (TSR) was identified as the actual shareholder wealth creator. For the purpose of the current study, WACC was excluded from the analysis. By application of linear regression, it was found that revenue growth and operating profitability have a positive, statistically significant effect of TSR. After analysing the effect size, it is however concluded that the effect is not practically significant. These findings concur with similar research in the field of VBM. / Thesis (M.B.A.)--North-West University, Vaal Triangle Campus, 2009.
|
Page generated in 0.0621 seconds