571 |
Matrix decompositions and algorithmic applications to (hyper)graphs / Décomposition de matrices et applications algorithmiques aux (hyper)graphesBergougnoux, Benjamin 13 February 2019 (has links)
Durant ces dernières décennies, d'importants efforts et beaucoup de café ont été dépensés en vue de caractériser les instances faciles des problèmes NP-difficiles. Dans ce domaine de recherche, une approche s'avère être redoutablement efficace : la théorie de la complexité paramétrée introduite par Downey et Fellows dans les années 90.Dans cette théorie, la complexité d'un problème n'est plus mesurée uniquement en fonction de la taille de l'instance, mais aussi en fonction d'un paramètre .Dans cette boite à outils, la largeur arborescente est sans nul doute un des paramètres de graphe les plus étudiés.Ce paramètre mesure à quel point un graphe est proche de la structure topologique d'un arbre.La largeur arborescente a de nombreuses propriétés algorithmiques et structurelles.Néanmoins, malgré l'immense intérêt suscité par la largeur arborescente, seules les classes de graphes peu denses peuvent avoir une largeur arborescente bornée.Mais, de nombreux problèmes NP-difficiles s'avèrent faciles dans des classes de graphes denses.La plupart du temps, cela peut s'expliquer par l'aptitude de ces graphes à se décomposer récursivement en bipartitions de sommets $(A,B)$ où le voisinage entre $A$ et $B$ possède une structure simple.De nombreux paramètres -- appelés largeurs -- ont été introduits pour caractériser cette aptitude, les plus remarquables sont certainement la largeur de clique , la largeur de rang , la largeur booléenne et la largeur de couplage induit .Dans cette thèse, nous étudions les propriétés algorithmiques de ces largeurs.Nous proposons une méthode qui généralise et simplifie les outils développés pour la largeur arborescente et les problèmes admettant une contrainte d'acyclicité ou de connexité tel que Couverture Connexe , Dominant Connexe , Coupe Cycle , etc.Pour tous ces problèmes, nous obtenons des algorithmes s'exécutant en temps $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ et $n^{O(k)}$ avec $k$ étant, respectivement, la largeur de clique, la largeur de Q-rang, la larguer de rang et la largueur de couplage induit.On prouve aussi qu'il existe un algorithme pour Cycle Hamiltonien s'exécutant en temps $n^{O(k)}$ quand une décomposition de largeur de clique $k$ est donné en entrée.Finalement, nous prouvons qu'on peut compter en temps polynomial le nombre de transversaux minimaux d'hypergraphes $\beta$-acyclique ainsi que le nombre de dominants minimaux de graphes fortement triangulés.Tous ces résultats offrent des pistes prometteuses en vue d'une généralisation des largeurs et de leurs applications algorithmiques. / In the last decades, considerable efforts have been spent to characterize what makes NP-hard problems tractable. A successful approach in this line of research is the theory of parameterized complexity introduced by Downey and Fellows in the nineties.In this framework, the complexity of a problem is not measured only in terms of the input size, but also in terms of a parameter on the input.One of the most well-studied parameters is tree-width, a graph parameter which measures how close a graph is to the topological structure of a tree.It appears that tree-width has numerous structural properties and algorithmic applications.However, only sparse graph classes can have bounded tree-width.But, many NP-hard problems are tractable on dense graph classes.Most of the time, this tractability can be explained by the ability of these graphs to be recursively decomposable along vertex bipartitions $(A,B)$ where the adjacency between $A$ and $B$ is simple to describe.A lot of graph parameters -- called width measures -- have been defined to characterize this ability, the most remarkable ones are certainly clique-width, rank-width, and mim-width.In this thesis, we study the algorithmic properties of these width measures.We provide a framework that generalizes and simplifies the tools developed for tree-width and for problems with a constraint of acyclicity or connectivity such as Connected Vertex Cover, Connected Dominating Set, Feedback Vertex Set, etc.For all these problems, we obtain $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ and $n^{O(k)}$ time algorithms parameterized respectively by clique-width, Q-rank-width, rank-width and mim-width.We also prove that there exists an algorithm solving Hamiltonian Cycle in time $n^{O(k)}$, when a clique-width decomposition of width $k$ is given.Finally, we prove that we can count in polynomial time the minimal transversals of $\beta$-acyclic hypergraphs and the minimal dominating sets of strongly chordal graphs.All these results offer promising perspectives towards a generalization of width measures and their algorithmic applications.
|
572 |
Deep Learning Semantic Segmentation of 3D Point Cloud Data from a Photon Counting LiDAR / Djupinlärning för semantisk segmentering av 3D punktmoln från en fotonräknande LiDARSüsskind, Caspian January 2022 (has links)
Deep learning has shown to be successful on the task of semantic segmentation of three-dimensional (3D) point clouds, which has many interesting use cases in areas such as autonomous driving and defense applications. A common type of sensor used for collecting 3D point cloud data is Light Detection and Ranging (LiDAR) sensors. In this thesis, a time-correlated single-photon counting (TCSPC) LiDAR is used, which produces very accurate measurements over long distances up to several kilometers. The dataset collected by the TCSPC LiDAR used in the thesis contains two classes, person and other, and it comes with several challenges due to it being limited in terms of size and variation, as well as being extremely class imbalanced. The thesis aims to identify, analyze, and evaluate state-of-the-art deep learning models for semantic segmentation of point clouds produced by the TCSPC sensor. This is achieved by investigating different loss functions, data variations, and data augmentation techniques for a selected state-of-the-art deep learning architecture. The results showed that loss functions tailored for extremely imbalanced datasets performed the best with regard to the metric mean intersection over union (mIoU). Furthermore, an improvement in mIoU could be observed when some combinations of data augmentation techniques were employed. In general, the performance of the models varied heavily, with some achieving promising results and others achieving much worse results.
|
573 |
Application of biological sample oxidiser and low-level liquid scintillation counter for the determination of ¹⁴C and ³H content in water from the Hartbeespoort Dam in North-West ProvinceKhumalo, Lamlile Hlakaniphile Ntando 02 1900 (has links)
The aim of the research study was to evaluate the levels of 14C and 3H radionuclides in Hartbeespoort Dam water and to determine if these radionuclides are within regulatory concerns. Water samples from Hartbeespoort Dam were prepared using the Sample Oxidiser Method and measurements of selected radionuclides were done using Liquid Scintillation Counter Quantulus 1220. The results evaluated suggest that water from Hartbeespoort Dam contains levels of 14C and 3H radionuclides that are within regulatory limits. The highest average concentration for 14C measured was 3.77E+01 (+/-2.47E-01) Bq/L, whereas the highest average concentration measured for 3H was 2.74E+01 (+/- 2.30E-01) Bq/L. The observations made regarding the impacts of climate on the 14C radionuclide were that, the concentration levels were higher during winter season when there was a rain than during rainy seasons. Tritium results showed that the climate conditions did not have any significant impacts on the concentration levels. When the concentrations of these radionuclides are above regulatory levels (14C is 100 Bq/L and 3H is10000 Bq/L), their impacts may cause harm to public`s health and the environment. Therefore, Necsa as a nuclear facility owner and National Nuclear Regulator (NNR) as a regulator are responsible for ensuring the public protection from radioactive effluents that contain not just 3H and 14C, but any radionuclide which may cause harm to public`s health. / Environmental Sciences / M. Sc. (Environmental Science)
|
574 |
Étude de la tomodensitométrie spectrale quantitative et ses applications en radiothérapieSimard, Mikaël 02 1900 (has links)
La tomodensitométrie par rayons-X (CT) est une modalité d’imagerie produisant une carte tridimensionnelle du coefficient d’atténuation des rayons-X d’un objet. En radiothérapie, le CT fournit de l’information anatomique et quantitative sur le patient afin de permettre la planification du traitement et le calcul de la dose de radiation à livrer. Le CT a plusieurs problèmes, notamment (1) une limitation au niveau de l’exactitude des paramètres physiques quantitatifs extraits du patient, et (2) une sensibilité aux biais causés par des artéfacts de durcissement du faisceau. Enfin, (3) dans le cas où le CT est fait en présence d’un agent de contraste pour améliorer la planification du traitement, il est nécessaire d’effectuer un deuxième CT sans agent de contraste à des fins de calcul de dose, ce qui augmente la dose au patient. Ces trois problèmes limitent l’efficacité du CT pour certaines modalités de traitement qui sont plus sensibles aux incertitudes comme la protonthérapie.
Le CT spectral regroupe un ensemble de méthodes pour produire plusieurs cartes d’atténuation des rayons-X moyennées sur différentes plages énergétiques. L’information supplémentaire, pondérée en énergie qui est obtenue permet une meilleure caractérisation des matériaux analysés. Le potentiel de l’une de ces modalités spectrales, le CT bi-énergie (DECT), est déjà bien démontré en radiothérapie, alors qu’une approche en plein essor, le CT spectral à comptage de photons (SPCCT), promet davantage d’information spectrale à l’aide de détecteurs discriminateurs en énergie. Par contre, le SPCCT souffre d’un bruit plus important et d’un conditionnement réduit. Cette thèse investigue la question suivante : y a-t-il un bénéfice à utiliser plus d’information résolue en énergie, mais de qualité réduite pour la radiothérapie ? La question est étudiée dans le contexte des trois problèmes ci-haut.
Tout d’abord, un estimateur maximum a posteriori (MAP) est introduit au niveau de la caractérisation des tissus post-reconstruction afin de débruiter les données du CT spectral. L’approche est validée expérimentalement sur un DECT. Le niveau de bruit du pouvoir d’arrêt des protons diminue en moyenne d’un facteur 3.2 à l’aide de l’estimateur MAP. Celui-ci permet également de conserver généralement le caractère quantitatif des paramètres physiques estimés, le pouvoir d’arrêt variant en moyenne de 0.9% par rapport à l’approche conventionnelle. Ensuite, l’estimateur MAP est adapté au contexte de l’imagerie avec agent de contraste. Les résultats numériques démontrent un bénéfice clair à utiliser le SPCCT pour l’imagerie virtuellement sans contraste par rapport au DECT, avec une réduction de l’erreur RMS sur le pouvoir d’arrêt des protons de 2.7 à 1.4%. Troisièmement, les outils développés ci-haut sont validés expérimentalement sur un micro-SPCCT de la compagnie MARS Bioimaging, dont le détecteur à comptage de photons est le Medipix 3, qui est utilisé pour le suivi de particules au CERN. De légers bénéfices au niveau de l’estimation des propriétés physiques à l’aide du SPCCT par rapport au DECT sont obtenus pour des matériaux substituts à des tissus humains. Finalement, une nouvelle paramétrisation du coefficient d’atténuation pour l’imagerie pré-reconstruction est proposée, dans le but ultime de corriger les artéfacts de durcissement du faisceau. La paramétrisation proposée élimine les biais au niveau de l’exactitude de la caractérisation des tissus humains par rapport aux paramétrisations existantes. Cependant, aucun avantage n’a été obtenu à l’aide du SPCCT par rapport au DECT, ce qui suggère qu’il est nécessaire d’incorporer l’estimation MAP dans l’imagerie pré-reconstruction via une approche de reconstruction itérative. / X-ray computed tomography (CT) is an imaging modality that produces a tridimensional map of the attenuation of X-rays by the scanned object. In radiation therapy, CT provides anatomical and quantitative information on the patient that is required for treatment planning. However, CT has some issues, notably (1) a limited accuracy in the estimation of quantitative physical parameters of the patient, and (2) a sensitivity to biases caused by beam hardening artifacts. Finally, (3) in the case where contrast-enhanced CT is performed to help treatment planning, a second scan with no contrast agent is required for dose calculation purposes, which increases the overall dose to the patient. Those 3 problems limit the efficiency of CT for some treatment modalities more sensitive to uncertainties, such as proton therapy.
Spectral CT regroups a set of methods that allows the production of multiple X-ray attenuation maps evaluated over various energy windows. The additional energy-weighted information that is obtained allows better material characterization. The potential of one spectral CT modality, dual-energy CT (DECT), is already well demonstrated for radiation therapy, while an upcoming method, spectral photon counting CT (SPCCT), promises more spectral information with the help of energy discriminating detectors. Unfortunately, SPCCT suffers from increased noise and poor conditioning. This thesis thus investigates the following question: is there a benefit to using more, but lower quality energy-resolved information for radiotherapy? The question is studied in the context of the three problems discussed earlier.
First, a maximum a posteriori (MAP) estimator is introduced for post-reconstruction tissue characterization for denoising purposes in spectral CT. The estimator is validated experimentally using a commercial DECT. The noise level on the proton stopping power is reduced, on average, by a factor of 3.2 with the MAP estimator. The estimator also generally con- serves the quantitative accuracy of estimated physical parameters. For instance, the stopping power varies on average by 0.9% with respect to the conventional approach. Then, the MAP estimation framework is adapted to the context of contrast-enhanced imaging. Numerical results show clear benefits when using SPCCT for virtual non-contrast imaging compared to DECT, with a reduction of the RMS error on the proton stopping power from 2.7 to 1.4%. Third, the developed tools are validated experimentally on a micro-SPCCT from MARS Bioimaging, which uses the Medipix 3 chip as a photon counting detector. Small benefits in the accuracy of physical parameters of tissue substitutes materials are obtained. Finally, a new parametrization of the attenuation coefficient for pre-reconstruction imaging is pro- posed, whose ultimate aim is to correct beam hardening artifacts. In a simulation study, the proposed parametrization eliminates all biases in the estimated physical parameters of human tissues, which is an improvement upon existing parametrizations. However, no ad- vantage has been obtained with SPCCT compared to DECT, which suggests the need to incorporate MAP estimation in the pre-reconstruction framework using an iterative reconstruction approach.
|
575 |
Large companies taking climate action by using science-based methods : A case study performed at a global leader in appliance manufacturing with a leading position in sustainability / Storföretag som tagit miljöåtgärder genom att använda sig utav vetenskapligbaserade metoder : En fallstudie utförd hos en global ledare inom tillverkning av hushållsapparater med en ledande position inom hållbarutvecklingRisberg, Erik January 2017 (has links)
Many companies acknowledge the threat from global carbon emissions and how it affects climate change. Despite the continuous warnings, many organizations lack the necessary and recommended action plans that can hamper their negative impact on the environment. One of the managerial tools that companies use globally in order to work proactively and strategically on issues related to the environment, is to set up carbon reduction targets. With time companies have in-house strategies on how to reach the carbon reduction targets by creating a roadmap of cutting measures. Unfortunately, the majority of companies do not have carbon reduction targets that are in line with what science think is needed to avoid contributing to global warming. Nonetheless, forward-thinking early adopters have been using “science-based” methods to challenge the status quo by developing ambitious carbon targets that are in line with today’s best carbon science. This qualitative research investigates the challenging steps from setting a long-term carbon target, using the guidelines and methods presented by the Science-based target initiative. With an exploratory research approach, a case study was conducted at a global leader in appliance manufacturing and industry leader within sustainability. The data was gathered by using semistructured interviews combined with observational findings with a focus to examine how carbon targets emerge in a situated organizational setting. The interviewee's representatives come from two categories, internal company representatives and, external companies that have used the guidelines to set science-based carbon targets. For manufacturing firms, the findings from investigating three steps of the process: calculating the base-year, target integration and predicting future technology development. Calculating the base-year was identified as the most challenging step. The empirical findings helped build an understanding of the different dimensions that facilitate corporate sustainability management. This research has helped to contribute to the lack of empirical findings within the carbon management and carbon target area. Specifically, the sciencebased carbon target topic. / Många företag har idag uppmärksammat det globala hotet från de enorma utsläppen av koldioxid och dess drivande roll i framtidens klimatförändringar. Trots att många företag kontinuerligt arbetar mot att minska sina koldioxidutsläpp, saknar många de nödvändiga handlingsplanerna för att hämma deras negativa påverkan på miljön. Ett av verktygen företag globalt har för att arbeta med proaktivt och strategiskt i frågor som rör miljö, är att sätta upp koldioxidreduktionsmål. Men tyvärr har flertalet av företagen idag mål som inte ligger i linje med vad vetenskapen anser är nödvändigt för att undvika den framtida globala uppvärmningen.Vad ett företag bidrar med har visat sig ofta bygga på okunskap och är därför hamnar sällan målen i linje med vad naturen efterfrågar. För att utmana detta problem har några banbrytande företag använt sig av metoder som kallas "science-based". Dessa metoder är en samling ramverk för att skapa långsiktiga koldioxidreduktionsmål som bättre ligger i linje med vad forskningen tror är nödvändigt för att undvika den globala uppvärmningen. Denna kvalitativa studie undersöker hur ett tillverkningsföretag skapar långsiktiga koldioxidreduktionsmål genom att använda vetenskapligt baserade metoder. En explorativ fallstudie genomfördes hos en global ledare inom tillverkning av vitvaror och hushållsapparater och, som även är branschledare inom hållbarutveckling. Uppgifterna samlades in genom att använda halvstrukturerade intervjuer i kombination med observationer med fokus på att undersöka målsättningsprocessen i ett företags miljöer. De intervjuade kommer från två kategorier, representanter inom företaget och, externa företag som redan har använt dessa ramverk för att skapa vetenskapligt baserade koldioxidreduktionsmål. Resultaten visar att för tillverkningsföretag finns det tre utmanande steg: att beräkna basåret, målintegration och förutspå nödvändig framtida teknikutveckling. De empiriska fynden bidrar till att skapa en bättre förståelse kring hur företag idag arbetar med att sätta upp koldioxidreduktionsmål med fokus på att använda ”science-based” ramverken.
|
576 |
Caractérisation des spectres énergétiques d'une nouvelle source de curiethérapie par émetteurs alpha diffusant à l'aide d'un compteur à scintillation liquideFarokhimoghadam, Farideh 03 1900 (has links)
Les cellules cancéreuses se multiplient de manière incontrôlée, se propagent dans le corps et
constituent une menace significative à la santé publique, mettant en évidence la nécessité de
traitements universels. Parmi les modalités thérapeutiques complémentaires, la radiothérapie est
une des plus couramment utilisée pour éliminer ces cellules. L’introduction récente de la
Radiothérapie par Émetteurs Alpha Diffusants (Alpha DaRT), une thérapie innovante contre le
cancer, utilise des sources radioactives contenant des atomes de Ra-224 pour améliorer l'efficacité
du traitement en exploitant les propriétés radiobiologiques des particules alpha. L'objectif de cette
étude est de caractériser le spectre énergétique d’une source Alpha DaRT en distinguant les
particules alpha et bêta, et d'évaluer les activités du Ra-224 et de ses descendants à l’aide d’un
compteur à scintillation liquide moderne. Grâce à l'utilisation du compteur à scintillation liquide
Hidex 600 SLe, équipé de trois PMT, et de la séparation alpha/bêta 2D/3D, il est possible de
déterminer les activités absolues des radionucléides. La séparation alpha/bêta 2D/3D surmonte les
limitations des études précédentes et offre une représentation visuelle unique des spectres,
améliorant ainsi la caractérisation des sources Alpha DaRT. Le suivi sur plusieurs mois d’une
source Alpha DaRT, avec la décroissance progressive de son activité, et la mesure par scintillation
liquide de son facteur d’efficacité en excluant les traces de contamination au Th-228, supportent la
faisabilité d’utiliser cette méthode de mesure sur une longue période. Pour ce faire, le compte des
particules alpha et bêta a été séparés par le compteur et classifié en fonction de l’énergie émise des
particules. Un programme maison en Python a été développé pour extraire les activités de chaque
fille dans la chaîne de désintégration du Ra-224. Un résultat intéressant est qu’en raison de la
décroissance rapide (demi-vie de 0,3 μs) du Po-212 (une descendante du Ra-224), une partie de
l'activité alpha totale n’est pas mesurée par le compteur. Ce phénomène doit être pris en compte
lors de l'évaluation des efficacités de la scintillation liquide pour les mesures quantitatives des
sources Alpha DaRT. Les résultats ont ensuite été comparés à aux valeurs attendues de la littérature
et des calculs numériques. / Cancer cells multiply uncontrollably, spread throughout the body, and pose a significant public
health threat, requiring the need for universal treatments. Among the complementary therapeutic
modalities, radiotherapy is one of the most commonly used to eliminate these cells. The recent
introduction of Alpha DaRT (Diffusing Alpha-emitters Radiation Therapy), an innovative cancer
therapy, involves the use of radioactive sources containing Ra-224 atoms to enhance treatment
efficacy by exploiting the radiobiological properties of alpha particles. The aim of this study is to
characterize an Alpha DaRT source by distinguishing alpha and beta particles, and to evaluate the
activities of Ra-224 and its descendants using a modern liquid scintillation counter. With the use
of the Hidex 600 SLe liquid scintillation counter, equipped with three PMTs, and the 2D/3D
alpha/beta separation method, it is possible to determine the absolute activities of the
radionuclides. The 2D/3D alpha/beta separation method overcomes the limitations of previous
studies and provides a unique visual representation of spectra, thereby improving the
characterization of Alpha DaRT sources. Monitoring an Alpha DaRT source over several months,
with its progressively decaying activity, and measuring its efficiency excluding traces of Th-228
contamination, confirm the feasibility of using this method of measurement over a long period.
Counts from alpha and beta particles were separated by the counter and binned according to their
emitted energies. An in-house Python program was developed to extract the activities of each
daughter in the Ra-224 decay chain. An interesting finding is due to the fast (0.3 μs half-life)
decay of Po-212 (Ra-224 daughter), part of the alpha activity is missed by the counter. This
phenomenon should be considered when assessing the efficiency of liquid scintillation for
quantitative measurements of Alpha DaRT sources. These results were then compared to
expected values from literature and numerical calculations.
|
577 |
Answering Conjunctive Queries and FO+MOD Queries under UpdatesKeppeler, Jens 26 June 2020 (has links)
In dieser Arbeit wird das dynamische Auswertungsproblem über dynamische Datenbanken betrachtet, bei denen Tupel hinzugefügt oder gelöscht werden können. Die Aufgabe besteht darin einen dynamischen Algorithmus zu konstruieren, welcher unmittelbar nachdem die Datenbank aktualisiert wurde, die Datenstruktur, die das Resultat repräsentiert, aktualisiert.
Die Datenstruktur soll in konstanter Zeit aktualisiert werden und das Folgende unterstützen:
* Teste in konstanter Zeit ob ein Tupel zur Ausgabemenge gehört,
* gebe die Anzahl der Tupel in der Ausgabemenge in konstanter Zeit aus,
* zähle die Tupel aus der Ausgabemenge mit konstanter Taktung auf und
* zähle den Unterschied zwischen der neuen und der alten Ausgabemenge mit konstanter Taktung auf.
Im ersten Teil werden konjunktive Anfragen und Vereinigungen konjunktiver Anfragen auf relationalen Datenbanken betrachtet. Die Idee der q-hierarchischen Anfragen (und t-hierarchische Anfragen für das Testen) wird eingeführt und es wird gezeigt, dass das Resultat für jede q-hierarchische Anfrage auf dynamischen Datenbanken effizient in dem oben beschriebenen Szenario ausgewertet werden können. Konjunktive Anfragen mit Aggregaten werden weiterhin betrachtet. Es wird gezeigt, dass das Lernen von polynomiellen Regressionsfunktionen in konstanter Zeit vorbereitet werden kann, falls die Trainingsdaten aus dem Anfrageergebnis kommen.
Mit logarithmischer Update-Zeit kann folgende Routine unterstützt werden: Bei Eingabe einer Zahl j, gebe das j-te Tupel aus der Aufzählung aus.
Im zweiten Teil werden Anfragen, die Formeln der Logik erster Stufe (FO) und deren Erweiterung mit Modulo-Zähl Quantoren (FO+MOD) sind, betrachtet, und es wird gezeigt, dass diese effizient unter Aktualisierungen ausgewertet können, wobei die dynamische Datenbank die Gradschranke nicht überschreitet, und bei der Auswertung die Zähl-, Test-, Aufzähl- und die Unterschied-Routine unterstützt werden. / This thesis investigates the query evaluation problem for fixed queries over fully dynamic
databases, where tuples can be inserted or deleted.
The task is to design a dynamic algorithm that
immediately reports the new result of a fixed query after every database update.
In particular, the goal is to construct a data structure that allows to
support the following scenario.
After every database update, the data structure can be updated in
constant time such that afterwards we are able
* to test within constant time for a given tuple whether or not it belongs to the query result,
* to output the number of tuples in the query result,
* to enumerate all tuples in the new query result with constant delay and
* to enumerate the difference between the old and the new query result with constant delay.
In the first part, conjunctive queries and unions of conjunctive queries on arbitrary relational
databases are considered. The notion of q-hierarchical conjunctive queries (and t-hierarchical conjunctive queries for testing) is introduced and it is shown that the result of each such query on a dynamic database can be maintained efficiently in the sense described above. Moreover, this notion is extended to aggregate queries.
It is shown that the preparation of learning a polynomial regression function can be done
in constant time if the training data are taken (and maintained under updates) from the query result of
a q-hierarchical query.
With logarithmic update time the following
routine is supported: upon input of a natural number j, output the j-th tuple that will be enumerated.
In the second part, queries in first-order logic (FO) and its extension with modulo-counting quantifiers (FO+MOD) are considered, and it is shown that they can be efficiently evaluated under updates, provided that the dynamic database does not exceed a certain degree bound, and the counting, testing, enumeration and difference routines is supported.
|
578 |
Gewinnung sicherer Lastannahmen aus Simulation und Messung zur Festigkeitsauslegung von Straßen- und StadtbahnenZechel, Gero 21 February 2017 (has links) (PDF)
Die Nutzung historisch solider Lastannahmen, wie sie zum Beispiel die VDV Richtlinie 152 in der Fassung von 1992 festlegt, ist für die Festigkeitsauslegung neuartiger Straßen- und Stadtbahnfahrzeuge unzureichend, da die Annahmen und Methoden der Komplexität und insbesondere der Nichtlinearität moderner Fahrzeugkonzepte keine Rechnung tragen. Diese Arbeit zeigt auf, wie sich entstandene Lücken in den Lastannahmen durch Simulation und Messung von Fahrzeug und Gleis analysieren, verstehen und schließen lassen.
Den Kern bildet dabei der Einsatz detaillierterer Simulationsmodelle von Fahrzeug und Gleis, deren Eingangsdaten mit Hilfe von Messungen gewonnen und deren Ausgangsdaten mit ihnen verifiziert und ergänzt werden müssen. Hierfür werden Methoden und Werkzeuge entwickelt, die ein ein vielseitiges Baukastensystem für die Fahrzeuganalyse, Modellvalidierung und Datenbewertung bilden, und zu sicheren Lastannahmen für die Fahrzeugauslegung führen.
|
579 |
Beyond-mean-field corrections and effective interactions in the nuclear many-body problem / Des corrections au-delà de champ moyen et des interactions efficaces dans le problème à N corps nucléaireMoghrabi, Kassem 12 September 2013 (has links)
Les approches basées sur les modèles de champ moyen reproduisent avec succès certaines propriétés nucléaires comme les masses et les rayons, dans le cadre des théories de la fonctionnelle de la densité pour l'énergie (EDF). Cependant, plusieurs corrélations complexes sont absentes dans les théories de champ moyen et un certain nombre d'observables liées aux propriétés à une particule et collectives des systèmes nucléoniques ne peuvent pas être prédites avec précision. La nécessité de fournir une description précise des données disponibles ainsi que des prévisions fiables dans les régions exotiques de la carte nucléaire motive l'utilisation de modèles plus sophistiqués, qui vont au-delà du champ moyen. Des corrélations et des corrections d'ordre supérieur (au-delà du premier ordre, qui représente l'approximation de champ moyen) sont introduites dans ces modèles. Un aspect crucial dans ces calculs est le choix de l'interaction efficace qui doit être utilisée quand on va au-delà du premier ordre (les interactions efficaces existantes sont généralement ajustées avec des calculs de champ moyen). Dans la première partie de la thèse, nous traitons l'équation d'état de la matière nucléaire, évaluée jusqu'au deuxième ordre avec la force phénoménologique de Skyrme. Nous analysons la divergence ultraviolette qui est liée à la portée nulle de l'interaction et nous introduisons des interactions régularisées de type Skyrme qui peuvent être utilisées au deuxième ordre. Des procédures de régularisation avec un cutoff et des techniques de régularisation dimensionnelle sont analysées et appliquées. Dans le cas de la régularisation dimensionnelle, des connexions sont naturellement établies entre le cadre EDF et des techniques employées dans les théories de champ effectives. Dans la deuxième partie de la thèse, nous vérifions si les interactions régularisées introduites pour la matière nucléaire peuvent être utilisées également pour les noyaux finis. A titre d'illustration, cette analyse est effectuée dans le modèle de couplage particule vibration, qui représente un exemple de modèle qui va au-delà de l'approximation de champ moyen, où une divergence ultraviolette apparaît si des forces de portée nulle sont utilisées. Ces premières applications suggèrent plusieurs directions à explorer pour fournir à plus long terme des interactions régularisées qui sont bien adaptés pour les calculs au-delà du champ moyen pour les noyaux finis. Les conclusions et des perspectives sont illustrées à la fin du manuscrit. / Mean-field approaches successfully reproduce nuclear bulk properties like masses and radii within the Energy Density Functional (EDF) framework. However, complex correlations are missing in mean-field theories and several observables related to single-particle and collective nuclear properties cannot be predicted accurately. The necessity to provide a precise description of the available data as well as reliable predictions in the exotic regions of the nuclear chart motivates the use of more sophisticated beyond-mean-field models. Correlations and higher-order corrections (beyond the leading mean-field order) are introduced. A crucial aspect in these calculations is the choice of the effective interaction to be used when one goes beyond the leading order (available effective interactions are commonly adjusted at the mean-field level). In the first part, we deal with the equation of state of nuclear matter evaluated up to the second order with the phenomenological Skyrme force. We analyze the ultraviolet divergence that is related to the zero range of the interaction and we introduce Skyrme-type regularized interactions that can be used at second order for matter. Cutoff regularization and dimensional regularization techniques are explored and applied. In the latter case, connections are naturally established between the EDF framework and some techniques employed in Effective Field Theories. In the second part, we check whether the regularized interactions introduced for nuclear matter can be employed also for finite nuclei. As an illustration, this analysis is performed within the particle-vibration model that represents an example of beyond mean-field models where an ultraviolet divergence appears if zero-range forces are used. These first applications suggest several directions to be explored to finally provide regularized interactions that are specially tailored for beyond-mean-field calculations for finite nuclei. Conclusions and perspectives are finally illustrated.
|
580 |
Simulation of the human energy system / Cornelis Petrus BothaBotha, Cornelis Petrus January 2002 (has links)
Preface -
Biotechnology is generally accepted to be the next economical wave of the future. In order to attain
the many benefits associated with this growing industry simulation modelling techniques have to be
implemented successfully. One of the simulations that ne' ed to be performed is that of the human
energy system.
Pharmaceutical companies are currently pouring vast amounts of capital into research regarding
simulation of bodily processes. Their aim is to develop cures, treatments, medication, etc. for major
diseases. These diseases include epidemics like diabetes, cancer, cardiovascular diseases, obesity,
stress, hypertension, etc. One of the most important driving forces behind these diseases is poor
blood sugar control.
The blood glucose system is one of the major subsystems of the complete human energy system. In
this study a simulation model and procedure for simulating blood glucose response due to various
external influences on the human body is presented.
The study is presented in two parts. The first is the development of a novel concept for quantifying
glucose energy flow into, within and out of the human energy system. The new quantification unit
is called ets (equivalent teaspoons sugar). The second part of the study is the implementation of the
ets concept in order to develop the simulation model.
Development of the ets concept -
In the first part of the study the ets concept, used for predicting glycaemic response, is developed
and presented.
The two current methods for predicting glycaemic response due to ingestion of food are discussed,
namely carbohydrate counting and the glycaemic index. Furthermore, it is shown that it is currently
incorrectly assumed that 100% of the chemical energy contained in food is available to the human
energy system after consumption. The ets concept is derived to provide a better measure of
available energy from food.
In order to verify the ets concept, two links with ets are investigated. These are the links with
insulin response prediction as well as with endurance energy expenditure. It is shown that with both
these links linear relationships provide a good approximation of empirical data. It is also shown that
individualised characterisation of different people is only dependent on a single measurable variable
for each link.
Lastly, two novel applications of the ets concept are considered. The first is a new method to use the
ets values associated with food and energy expenditure in order to calculate both short-acting and
long-acting insulin dosages for Type 1 diabetics. The second application entails a new
quantification method for describing the effects of stress and illness in terms of ets.
Development of the blood glucose simulation model -
The second part of the study presents a literature study regarding human physiology, the
development for the blood glucose simulation model as well as a verification study of the
simulation model.
Firstly, a brief overview is given for the need and motivation behind simulation is given. A
discussion on the implementation of the techniques for construction of the model is also shown. The
procedure for solving the model is then outlined.
During the literature study regarding human physiology two detailed schematic layouts are
presented and discussed. The first layout involves the complex flow pathways of energy through the
human energy system. The second layout presents a detailed discussion on the control system
involved with the glucose energy pathway.
Following the literature review the model for predicting glycaemic response is proposed. The
design of the component models used for the simulations of the internal processes are developed in
detail as well as the control strategies implemented for the control system of the simulation model.
Lastly, the simulation model is applied for glycaemic response prediction of actual test subjects and
the quality of the predictions are evaluated. The verification of the model and the procedure is
performed by comparing simulated results to measured data. Two evaluations were considered,
namely long-term and short-term trials. The quality of both are determined according to certain
evaluation criteria and it is found that the model is more than 70% accurate for long-term
simulations and more than 80% accurate for short-term simulations.
Conclusion -
In conclusion, it is shown that simplified simulation of the human energy system is not only
possible but also relatively accurate. However, in order to accomplish the simulations a simple
quantification method is required and this is provided by the ets concept developed in the first part
of this study. Some recommendations are also made for future research regarding both the ets
concept and the simulation model.
Finally, as an initial endeavour the simulation model and the ets concept proposed in this study may
provide the necessary edge for groundbreaking biotechnological discoveries. / PhD (Mechanical Engineering) North-West University, Potchefstroom Campus, 2003
|
Page generated in 0.0691 seconds