• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 84
  • 54
  • 32
  • 31
  • 26
  • 9
  • 7
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • Tagged with
  • 571
  • 101
  • 73
  • 59
  • 50
  • 49
  • 48
  • 46
  • 46
  • 44
  • 44
  • 39
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Properties Of Light And Heavy Baryons In Light Cone Qcd Sum Rules Formalism

Azizi, Kazem 01 March 2009 (has links) (PDF)
In this thesis, we investigate the masses, form factors and magnetic dipole moments of some light octet, decuplet and heavy baryons containing a single heavy quark in the framework of the light cone QCD sum rules. The magnetic dipole moments can be measured considering radiative transitions within a multiplet or between multiplets. Analyzing the transitions among the baryons and calculating the above mentioned parameters can give us insight into the structure of those baryons. In analyzing the aforementioned processes, the transition form factors play a crucial role. In this thesis, the form factors for these transitions are calculated using the light cone QCD sum rules approach. In the limit when the light quark masses are equal, mu = md = ms, QCD has an SU(3) flavour symmetry which can be used to classify the light baryons. This classification results in the light decuplet, octet and singlet baryons. The baryons containing single heavy quark, on the other hand, can be classified according to the spin of the light degrees of freedom in the heavy quark limit, mQ -&gt / infinity. QCD at low energies, when the baryons are formed, is a non-perturbative theory. Hence, for phenomenology of the baryons, the QCD sum rules as a more powerful non-perturbative approach is used. Understanding the properties of nucleons is one of the main objectives of QCD. To investigate the properties of the nucleons, the axial N-Delta(1232) transition form factors are calculated within the light cone QCD sum rules method. A comparison of our results on those form factors with the predictions of lattice QCD and quark model is presented. The nucleon electromagnetic form factors are also calculated in the same framework using the most general form of the nucleon interpolating current. Using two forms of the distribution amplitudes (DA&rsquo / s), predictions for the form factors are presented and compared with existing experimental data. It is shown that our results describe the existing experimental data remarkably well. Another important property of the baryons is their magnetic moments. The magnetic moments of the heavy Xi_Q (Q = b or c) baryons containing a single charm or bottom quark are calculated within the light cone QCD sum rules approach. A comparison of our results with the predictions of other approaches, such as relativistic and nonrelativistic quark models, hyper central model, Chiral perturbation theory, soliton and skyrmion models is presented. Moreover, inspired by the results of recent experimental discoveries for charm and bottom baryons, the masses and magnetic moments of the heavy baryons with J^2P = 3/2^+ containing a single heavy quark are studied also within the light cone QCD sum rules method. Our results on the masses of heavy baryons are in good agreement with predictions of other approaches, as well as with the existing experimental values. Our predictions on the masses of the states, which are not experimentally discovered yet, can be tested in the future experiments. A comparison of our results on the magnetic moments of these baryons and the hyper central model predictions is also presented.
362

Analysis Of Kappa Meson In Light Cone Qcd Sum Rules

Baytemir, Gulsen 01 September 2011 (has links) (PDF)
In the present work some hadronic properties of the scalar &kappa / meson are studied. Using the QCD sum rules approach, which is a nonperturbative method, the mass and the overlap amplitude of this meson are calculated. As well as the mass and the overlap amplitude, &kappa / &rarr / K^+&pi / ^&minus / decay is also studied. For this decay the coupling constant g_&kappa / K^+&pi / ^&minus / is obtained using light cone QCD sum rules which is an extension of the QCD sum rules method. Moreover, the coupling constant is calculated using the experimental decay width and it is compared with the value obtained in light cone QCD sum rules approach. The result of the calculation of g_&kappa / K^+&pi / ^&minus / , the one obtained from light cone QCD sum rules approach, is also applied to acquire the f_0 &minus / &sigma / scalar mixing angle, &theta / s, using the ratio g^2 (&kappa / &rarr / K^+&pi / ^&minus / )/g^2 (&sigma / &rarr / &pi / &pi / ) obtained from experimental decay width. The value of scalar mixing angle is also compared with its experimental results.
363

Estimation of the discrete spectrum of relaxations for electromagnetic induction responses

Wei, Mu-Hsin 30 March 2011 (has links)
This thesis presents a robust method for estimating the relaxations of a metallic object from its electromagnetic induction (EMI) response. The EMI response of a metallic object can be accurately modeled by a sum of real decaying exponentials. However, it is diffcult to obtain the model parameters from measurements when the number of exponentials in the sum is unknown or the terms are strongly correlated. Traditionally, the time constants and residues are estimated by nonlinear iterative search that often leads to unsatisfactory results. In this thesis, a constrained linear method of estimating the parameters is formulated by enumerating the relaxation parameter space and imposing a nonnegative constraint on the parameters. The resulting algorithm does not depend on a good initial guess to converge to a solution. Using tests on synthetic data and laboratory measurement of known targets the proposed method is shown to provide accurate and stable estimates of the model parameters.
364

In-Medium QCD Sum Rules for omega Meson, Nucleon and D Meson / QCD-Summenregeln für im Medium modifizierte omega-Mesonen, Nukleonen und D-Mesonen

Thomas, Ronny 29 January 2009 (has links) (PDF)
The modifications of hadronic properties caused by an ambient nuclear medium are investigated within the scope of QCD sum rules. This is exemplified for the cases of the omega meson, the nucleon and the D meson. By virtue of the sum rules, integrated spectral densities of these hadrons are linked to properties of the QCD ground state, quantified in condensates. For the cases of the omega meson and the nucleon it is discussed how the sum rules allow a restriction of the parameter range of poorly known four-quark condensates by a comparison of experimental and theoretical knowledge. The catalog of independent four-quark condensates is covered and relations among these condensates are revealed. The behavior of four-quark condensates under the chiral symmetry group and the relation to order parameters of spontaneous chiral symmetry breaking are outlined. In this respect, also the QCD condensates appearing in differences of sum rules of chiral partners are investigated. Finally, the effects of an ambient nuclear medium on the D meson are discussed and relevant condensates are identified. / Die Veränderungen von Hadroneneigenschaften durch ein umgebendes nukleares Medium (Kernmaterie) werden mit der Methode der QCD-Summenregeln untersucht. Dies wird am Beispiel des omega-Mesons, des Nukleons und des D-Mesons vorgeführt. Durch die Summenregeln werden integrierte Spektraldichten dieser Hadronen in Beziehung zu Eigenschaften des QCD-Grundzustandes, quantifiziert in Kondensaten, gesetzt. Diskutiert wird am Beispiel des omega-Mesons und des Nukleons, wie diese Summenregeln eine Einschränkung des Parameterbereiches von wenig bekannten Vierquark-Kondensaten durch Vergleich von experimentellen und theoretischen Erkenntnissen erlauben. Ein Katalog unabhängiger Vierquark-Kondensate wird aufgestellt und Relationen zwischen diesen Kondensaten werden deutlich gemacht. Das Verhalten der Vierquark-Kondensate unter der chiralen Symmetriegruppe und der Zusammenhang mit Ordnungsparametern spontaner chiraler Symmetriebrechung werden behandelt. In dieser Hinsicht werden auch die in Differenzen der Summenregeln chiraler Partner eingehenden QCD-Kondensate untersucht. Schließlich werden die Effekte endlicher Kerndichten beim D-Meson diskutiert und relevante Kondensate identifiziert.
365

Die visuelle Interpretation von Fernerkundungsdaten

Donner, Ralf 24 July 2009 (has links) (PDF)
Die Fähigkeit, in Luft- und Satellitenbildern Objekte wiederzuerkennen, kann folgendermaßen erklärt werden: Aus der Kenntnis einer Landschaft und ihrer Abbildung im Bild werden Interpretationsregeln entwickelt, die bestimmten Kombinationen von Bildmerkmalen wie Farbe, Form, Größe, Textur oder Kontext festgelegte Bedeutungen zuordnen. Kommt es nicht auf das Wiedererkennen mit festen Wahrnehmungsmustern an, stellt sich die bislang offene Frage nach einer wissenschaftlichen Kriterien genügenden Methode, wie der gedankliche Zusammenhang zwischen den Sinneswahrnehmungen erfasst werden kann. Die Erfahrung von Umkehrbildern und optischen Täuschungen führt zur Frage nach dem festen Element bei der visuellen Interpretation von Fernerkundungsdaten. Galileis Antwort, Messwerte als Ausgangspunkt naturwissenschaftlicher Erkenntnis zu nehmen, löst die Mehrdeutigkeiten und Unsicherheiten gedanklicher Interpretationen nicht auf, denn zu jeder Zahl gehört bereits eine gedankliche Bestimmung darüber, was sie bedeutet: Äpfel, Birnen, Höhendifferenzen … Daher muss für die begriffliche Interpretation der Wahrnehmungen ein anderer Ausgangspunkt bestimmt werden: Weder kann der Mensch beobachten oder wahrnehmen, ohne seine Erlebnisse gedanklich zu fassen und zu ordnen, noch ist die Sinnesempfindung ein subjektives, vom Gegenstand abgespaltenes, nur persönliches Erlebnis. Wahrnehmung realisiert sich als Einheit von Wahrnehmendem und Wahrgenommenen. Demzufolge gibt es keine binäre Unterscheidung von objektiver Tatsache und subjektiver Interpretation. Wahrnehmung findet zwischen den Polen reiner Empfindung eines gegebenen und sinnlichkeitsfreien Denkens statt. Die reinen Erlebnisqualitäten der Sinnesempfindungen (warm, kalt, hell, rau) stellen sich als die am wenigsten von der subjektiven gedanklichen Interpretation abhängigen Elemente des Erkenntnisprozesses dar. Diesem Verhältnis von Beobachtung und gedanklicher Deutung entspricht ein phänomenologischer Untersuchungsansatz. Mit ihm bekommen Erfahrungen als absolute Elemente der Wahrnehmung primäre Bedeutung, gedankliche Interpretationen werden zu Abhängigen. Daher werden in der Untersuchung Ergebnisse phänomenologischer Arbeiten bevorzugt. Auch die eigene Bearbeitung des Themas geht von einer konsequent empirischen Position aus. Um einen Sachverhalt zu verstehen, genügt es nicht, bei den Sinnesempfindungen stehen zu bleiben, denn zu ihrem Verständnis fehlt der gedankliche Zusammenhang, die Erlebnisse müssen begrifflich interpretiert werden. Dabei ist die Doppelrolle der Begriffe von entscheidender Bedeutung: In der Analyse grenzen sie innerhalb des Erfahrungsfeldes Teilaspekte gegeneinander ab, welche in der Synthese durch dieselben Begriffe gedanklich verbunden werden. Diese Funktion der Begriffe wird ausgenutzt, um Wiedererkennen und Bildung von Verständnis zu differenzieren: Die Interpretation der Erfahrung nach a priori vorgegebenen Mustern zielt auf das Wiedererkennen. Im Gegensatz dazu emergiert Verständnis im Prozess der Begriffsbildung aus den Beobachtungen: Man sucht erst nach einer Gliederung, welche eine gedankliche Synthese plausibel erscheinen lässt. Das Konzept der Selbstorganisation hat in der Ökologie mechanistische Vorstellungen weitgehend abgelöst und im letzten Jahrzehnt auch in die Technik Eingang gefunden. Mit den Worten dieses Konzeptes kann die Begriffsbildung als Erkenntnisprozess beschrieben werden, in welchem sich gedankliche und nichtgedankliche Wahrnehmungen selbst organisieren. Sinnesempfindungen haben auch in anderen Zugangsweisen zur Natur eine dominierende Stellung. Daher können Goetheanismus, wissenschaftliche Ästhetik und Kunst zu einer voraussetzungslosen Naturerkundung beitragen. Die nahe Verwandtschaft von Phänomenologie, Ästhetik und Kunst lässt künstlerisches Schaffen als Vervollkommnung des in der Natur Veranlagten erscheinen. Weitere Querbeziehungen ergeben sich aus der Interpretation topografischer oder thematischer Karten oder sonstiger visualisierter raumbezogener Daten. Parallelen und Unterschiede werden herausgearbeitet. Moderne Naturwissenschaft ist quantitativ. Daher ist zu klären, was mathematische Modellierung zur Verständnisbildung beiträgt. In diesem Teil der Arbeit ist es der folgende Gedanke, welcher über die hinlänglich bekannte Nützlichkeit mathematischer Modellierungen, Vorausberechnungen und Simulationen hinausgeht: Die Mathematik überzeugt durch ihre logische Strenge in der Ableitung und Beweisführung: Aus Obersatz und Untersatz folgt die Konklusion. Eine Beobachtungsmethode, bei welcher eine Beobachtung an die nächste gereiht wird, so dass sich das Eine aus dem Anderen ergibt, wobei kein Sprung die Folge unterbricht, käme der Notwendigkeit eines mathematischen Beweises gleich. Diese strenge Folge des Einen aus dem Anderen tritt in der wissenschaftlichen Argumentation an die Stelle der spontanen Intuition mit Verifikation, Falsifikation und bestätigendem Beispiel. Auf diese Weise kann durch die Anwendung der mathematischen Methode eine realitätsnahe Begriffsbildung erreicht werden. Die bis hierher dargelegten Aspekte der Wahrnehmung, der Ästhetik, der Kunst und der Mathematik werden in der Methode einer voraussetzungslosen Begriffsentwicklung zusammengefasst. Damit ist das Hauptziel der Untersuchung, die Entwicklung einer auf das Verständnis gerichteten erfahrungsbasierten Beobachtungsmethode, erreicht. Die Abhandlung wird mit der Anwendung der entwickelten Methode auf einen Grundbegriff der Geoinformatik in folgender Weise fortgesetzt: Für die Geoinformatik ist der Raumbegriff von grundlegender Bedeutung. Daher bietet es sich an, diesen Begriff unter Anwendung der entwickelten Methode zu untersuchen. Unter phänomenologischen Gesichtspunkten stehen Raum und Zeit in einem engen Zusammenhang. Beide werden in der Bewegung erfahren. Interpretiert man Bewegung mit den Begriffen des Nebeneinander und des Nacheinander, entsteht Wissen von Raum und Zeit. Mit anderen Worten: Die am Leib erfahrene Bewegung wird durch Interpretation mit dem Raumbegriff zur Vorstellung durchlaufener Orte. Je nachdem, welche Sinneserfahrungen, allgemeiner: Beobachtungen, zugrunde gelegt werden, hat der Raum unterschiedliche geometrische Eigenschaften. Die Erfahrungen des Tastsinnes begründen euklidische Beobachtungen. Die Begriffe Raum und Zeit haben für die Verständnisbildung eine fundamentale Bedeutung. Mit ihrer Hilfe können die Erlebnisse als zugleich und nebeneinander oder als nacheinander geordnet werden. Sie ermöglichen Erkenntnis durch Analyse und Synthese. Wesentliches Motiv der Untersuchung ist die Frage nach der Bildung von Verständnis im Rahmen der visuellen Interpretation. Das Erkennen von Objekten stellt sich als synästhetische Synthese der Sinnesempfindungen und gedanklicher Inhalte dar. Unterschiedliche Gewichtungen der Gedankeninhalte lassen zwei Vorgehensweisen unterscheiden: 1, Für das Erkennen von Neuem ist es von grundlegender Bedeutung, dass die gedanklichen Inhalte den nichtgedanklichen Sinnesempfindungen untergeordnet sind, das heißt von diesen modifiziert werden können. Vorgewussten Begriffen kommt die Rolle von Hypothesen zu. 2, Beim Wiedererkennen haben gedankliche Inhalte eine dominierende Rolle – anhand von Interpretationsmerkmalen sollen Bildinhalten Bedeutungen zugewiesen werden. Das Bild wird hierzu nach Bildflächen mit solchen Kombinationen von Farben, Formen, Mustern, Texturen und räumlichen Anordnungen durchsucht, die dem zu suchenden Begriff entsprechen können. Oder das Bild wird, bei Verwendung einer Art Beispielschlüssel, nach Übereinstimmungen mit kompletten Bildmustern durchsucht. Auch das ist eine Form des Wiedererkennens. Um ein Phänomen zu verstehen, kommt es darauf an, in der Regelmäßigkeit der äußeren Form den Zusammenhang zu entdecken, der den verschiedenartigen Ausgestaltungen als regelndes Element zugrunde liegt. Dazu muss über eine Klassifizierung von Interpretationsmerkmalen hinausgegangen werden. Die gedankliche Auseinandersetzung mit den visualisierten Repräsentanzen der Phänomene unterstützt die Bildung eines solchen ideellen Zusammenhangs, welcher das in aller Mannigfaltigkeit der natürlichen Erscheinungen Gleichbleibende, Ruhende darstellt, aus welchem die Einzelphänomene hervorgegangen sein könnten. Die Funktionen beschreiben die Wechselwirkungen zwischen den räumlichen Elementen, welche sich in Austauschprozessen von Energie, Material und Stoffen ausdrücken. Überall dort, wo räumliche Anordnung ein Ausdruck funktionaler Beziehungen ist, unterstützt die visuelle Wahrnehmung der räumlichen Beziehungen die Einsicht in die sachlichen. In den Schlussfolgerungen wird die Visualisierung von Geodaten als Mittel zur Sichtbarmachung des Zusammenhanges zwischen den Erscheinungen charakterisiert. Die Bezugnahme zur Fernerkundung führt zu der Feststellung, dass die Anwendung der vorgeschlagenen Forschungsstrategie im Bereich der Geofernerkundung nur eingeschränkt möglich ist.
366

分析失去部分訊息的貝氏更新計算方法 / Bayesian updating methods for the analysis of censored data.

范靜宜, Fan, Gin-Yi Unknown Date (has links)
對於使用貝氏法來處理部份區分(partially-classified)或是失去部分訊息資料的類別抽樣(categorical sampling with censored data),大多建立在「誠實回答」(truthful reporting)以及「無價值性失去部分訊息」(non-informative censoring)的前提下。Jiang(1995)及Jiang and Dickey(2006)取消以上兩個限制,提出貝氏解並利用準貝氏法(quasi-Bayes)來求近似解,而Jiang and Ko(2004)也利用吉氏取樣器(Gibbs sampler)來近似這類問題的貝氏解。本文首先嘗試利用Kuroda, Geng and Niki(2001)所提的“平均變異數和(average variance sum)”估計法 來應用到我們問題的貝氏解。在小樣本時,數值上我們可求得貝氏解,因此本文另一個重點為在小樣本時比較以上三種方法估計值的準確性,並考慮先驗參數(prior)的選取對估計的影響。 本文更進一步證明若選取到某種特殊的先驗參數時,利用“平均變異數和”的方法所計算出來的結果會和 準貝氏法的估計結果相同,而且皆等於用貝氏法計算出的結果。
367

A multi-criteria approach to the evaluation of food safety interventions.

Dunn, Alexander Hiram January 2015 (has links)
New Zealand faces a range of food safety hazards. Microbial hazards alone were estimated to cause over 2,000 years of lost healthy life in 2011 (Cressey, 2012) and $62m in medical costs and lost productivity in 2009 (Gadiel & Abelson, 2010). Chemical hazards are thought to be well managed through existing controls (Vannoort & Thomson, 2009) whereas microbial hazards are considered harder to control, primarily due to their ability to reproduce along the food production chain. Microbial hazards are thought to cause the majority of acute foodborne gastroenteritis. This research reviewed food safety literature and official documentation, and conducted 55 interviews, mostly with food safety experts from different stakeholder groups, to examine the food safety decision-making environment in New Zealand. This research explores the concept of the ‘stakeholder’ in the context of food safety decision-making and proposes an inclusive ‘stakeholder’ definition as any group which is able to affect, or be affected by, the decision-making process. Utilising this definition, and guided by interviews, New Zealand stakeholders in food safety decision-making were identified and classified as follows: •Regulators •Public health authorities •Food safety scientists/academics •Consumers •Māori •Food Businesses (further classified as): o Farmers o Processors o Food retailers o Exporters Interviews with stakeholders from these groups highlighted twelve criteria as being relevant to multiple groups during food safety intervention evaluation: •Effectiveness •Financial cost •Market Access •Consumer Perceptions •Ease of Implementation •Quality or Suitability •Quality of Science •Equity of Costs •Equity of Benefits •Workplace Safety •Cultural Impact •Animal Welfare There are a number of different ways to measure or assess performance on these criteria. Some are able to be quantitatively measured, while others may require the use of value judgements. This thesis used the Disability-Adjusted Life Year (DALY) metric for quantifying effectiveness during the testing of different MCDA models. This thesis reviews the MCDA process and the food safety specific MCDA literature. There are different ways of conducting MCDA. In particular, there are a large number of models available for the aggregation phase; the process of converting model inputs, in the form of criteria scores and weights, into model recommendations. This thesis has described and reviewed the main classes of model. The literature review and interview process guided the construction and testing of three classes of MCDA model; the Weighted Sum, Analytic Hierarchy Process (AHP) and PROMETHEE models. These models were selected due to their having different characteristics and degrees of complexity, as well as their popularity in the food safety and Health Technology Assessment (HTA) literature. Models were tested on the problem of selecting the most appropriate intervention to address the historic Campylobacter in poultry problem in New Zealand during the mid-2000s. Experimentation was conducted on these models to explore how different configurations utilise data and produce model outputs. This experimentation included: •Varying the format of input data •Exploring the effects of including/excluding criteria •Methods for sensitivity analysis •Exploring how data inputs and outputs can be elicited and presented using visual tools • Creating and using hybrid MCDA models The results of this testing are a key output of this thesis and provide insight into how such models might be used in food safety decision-making. The conclusions reached throughout this research phase can be classified into one of two broad groups: •Those relating to MCDA as a holistic process/methodology for decision-making •Those relating to the specific models and mathematical procedures for generating numerical inputs and outputs This thesis demonstrates that food-safety decision-making is a true multi-criteria, multi-stakeholder problem. The different stakeholders in food-safety decision-making do not always agree on the value and importance of the attributes used to evaluate competing intervention schemes. MCDA is well suited to cope with such complexity as it provides a structured methodology for the systematic and explicit identification, recording and aggregation of qualitative and quantitative information, gathered from a number of different sources, with the output able to serve as a basis for decision-making. The MCDA models studied in this thesis range from models that are simple and quick to construct and use, to more time consuming models with sophisticated algorithms. The type of model used for MCDA, the way these models are configured and the way inputs are generated or elicited can have a significant impact on the results of an analysis. This thesis has identified a number of key methodological considerations for those looking to employ one of the many available MCDA models. These considerations include: •Whether a model can accommodate the type and format of input data •The desired degree of compensation between criteria (i.e. full, partial or no compensation) •Whether the goal of an analysis is the identification of a ‘best’ option(s), or the facilitation of discussion, and communication of data •The degree of transparency required from a model and whether an easily understood audit trail is desired/required •The desired output of a model (e.g. complete or partial ranking). This thesis has also identified a number of practical considerations when selecting which model to use in food safety decision-making. These include: •The amount of time and energy required of stakeholders in the generation of data inputs (elicitation burden) •The degree of training required for participants •How data inputs are to be elicited and aggregated in different group decision-making environments •The availability of MCDA software for assisting an analysis Considering the above points will assist users in selecting a suitable MCDA model that meets their requirements and constraints. This thesis provides original and practical knowledge to assist groups or individuals looking to employ MCDA in the context of food-safety intervention decision-making. This research could also serve as a guide for those looking to evaluate a different selection of MCDA models.
368

Ανάλυση επιπτώσεων αριθμητικών προσεγγίσεων σε επαναληπτικούς αποκωδικοποιητές για γραμμικούς κώδικες διόρθωσης σφαλμάτων

Αστάρας, Στέφανος 21 February 2015 (has links)
Σε αυτή την εργασία μελετάμε τους αλγορίθμους που χρησιμοποιούνται στην αποκωδικοποίηση των LDPC, με έμφαση στους κώδικες του προτύπου 802.11n. Αντιμετωπίζουμε τις δυσκολίες που αντιμετωπίζουν στην υλοποίηση στο υλικό, κυρίως στην εκτέλεση αριθμητικών πράξεων, και προτείνουμε πρακτικές λύσεις. Χρησιμοποιώντας τα αποτελέσματα εκτενών εξομοιώσεων, καταλήγουμε στις βέλτιστες παραμέτρους που θα έχουν οι προτεινόμενες υλοποιήσεις. / In this thesis, we study the LDPC decoding algorithms, with emphasis on the 802.11n standard codes. We tackle the hardware implementation difficulties, especially those related to arithmetic computations, and propose practical solutions. Leveraging the results of extensive simulations, we find the optimal parameters of the proposed implementations.
369

Μελέτη των ριζών των associated ορθογωνίων q-πολυωνύμων / Study of the zeros of the associated orthogonal q-polynomials

Στάμπολας, Ιωάννης 29 June 2007 (has links)
Στη διατριβή αυτή μελετάται η μονοτονία και η κυρτότητα των ριζών ορισμένων οικογενειών associated ορθογωνίων q-πολυωνύμων που εμφανίζονται στο q-ανάλογο του σχήματος Askey. Για τη μελέτη της μονοτονίας και της κυρτότητας των ριζών χρησιμοποιείται μια συναρτησιακή αναλυτική μέθοδος η οποία βασίζεται στην αναδρομική σχέση τριών όρων που ικανοποιεί οποιαδήποτε οικογένεια ορθογωνίων πολυωνύμων. Επίσης για τον υπολογισμό των αθροισμάτων Newton των ριζών χρησιμοποιείται η συναρτησιακή αναλυτική μλεθοδος που παρουσιάστηκε από τους Υφαντή, Κοκολογιαννάκη και Σιαφαρίκα για τον υπολογισμό των αθροισμάτων Newton των ριζών των scaled corecursive associated ορθογωνίων πολυωνύμων. Επειδή τα ορθογώνια q-πολυώνυμα είναι q-ανάλογα κλασικών ορθογωνίων πολυωνύμων παίρνοντας το όριο q-1 προκύπτουν αντίστοιχα αποτελέσματα για τις ρίζες των κλασσικών ορθογωνίων πολυωνύμων. Τα αποτελέσματα αυτά γενικεύουν ενοποιούν και βελτιώνουν προηγούμενα αποτελέσματα. / In this thesis, we study the monotonicity properties and the convexity of the zeros of some families of associated orthogonal q-polynomials. Also, we calculate the Newton sum rules of these zeros. For the study of the monotonicity of the zeros, we use a functional analytic method based on the three terms recurrence relations satisfied by the associated orthogonal q-polynomials under consideration.
370

Throughput Scaling Laws in Point-to-Multipoint Cognitive Networks

Jamal, Nadia 07 1900 (has links)
Simultaneous operation of different wireless applications in the same geographical region and the same frequency band gives rise to undesired interference issues. Since licensed (primary) applications have been granted priority access to the frequency spectrum, unlicensed (secondary) services should avoid imposing interference on the primary system. In other words, secondary system’s activity in the same bands should be in a controlled fashion so that the primary system maintains its quality of service (QoS) requirements. In this thesis, we consider collocated point-to-multipoint primary and secondary networks that have simultaneous access to the same frequency band. Particularly, we examine three different levels at which the two networks may coexist: pure interference, asymmetric co-existence, and symmetric co-existence levels. At the pure interference level, both networks operate simultaneously regardless of their interference to each other. At the other two levels, at least one of the networks attempts to mitigate its interference to the other network by deactivating some of its users. Specifically, at the asymmetric co-existence level, the secondary network selectively deactivates its users based on knowledge of the interference and channel gains, whereas at the symmetric level, the primary network also schedules its users in the same way. Our aim is to derive optimal sum-rates (i.e., throughputs) of both networks at each co-existence level as the number of users grows asymptotically and evaluate how the sum-rates scale with the network size. In order to find the asymptotic throughput results, we derive two propositions; one on the asymptotic behaviour of the largest order statistic and one on the asymptotic behaviour of the sum of lower order statistics. As a baseline comparison, we calculate primary and secondary sum-rates for the time division (TD) channel sharing. Then, we compare the asymptotic secondary sum-rate in TD to that under simultaneous channel sharing, while ensuring the primary network maintains the same sum-rate in both cases. Our results indicate that simultaneous channel sharing at both asymmetric and symmetric co-existence levels can outperform TD. Furthermore, this enhancement is achievable when user scheduling in uplink mode is based only on the interference gains to the opposite network and not on a network’s own channel gains. In other words, the optimal secondary sum-rate is achievable by applying a scheduling strategy, referred to as the least interference strategy, for which only the knowledge of interference gains is required and can be performed in a distributed way.

Page generated in 0.0389 seconds