Spelling suggestions: "subject:" set""
341 |
Three Variable Analogue of Boas and Buck Type Generating Functions and Its Generalizations to M-Variables / Three Variable Analogue of Boas and Buck Type Generating Functions and Its Generalizations to M-VariablesAhmad Khan, Mumtaz, Alidad, Bahman 25 September 2017 (has links)
The present papers deals with three variable analogue of Boas and Buck [14] type generating functions forpolynomials of two variables and then the same has been extended for m-variable analogue. The results obtained are extensions of those obtained by us in our earlier paper [14]. / El presente artículo trata el anólogo de tres variables de la función generatriz de Boas and Buck [14] para polinomios de dos variables y lo mismo se puede extender para el análogo de m variables. Los resultados obtenidos son extensiones de un artículo previo [14].
|
342 |
Hitting and Piercing Geometric Objects Induced by a Point SetRajgopal, Ninad January 2014 (has links) (PDF)
No description available.
|
343 |
Odhady počtu prázdných čtyřstěnů a ostatních simplexů / Bounds of number of empty tetrahedra and other simplicesReichel, Tomáš January 2020 (has links)
Let M be a finite set of random uniformly distributed points lying in a unit cube. Every four points from M make a tetrahedron and the tetrahedron can either contain some of the other points from M, or it can be empty. This diploma thesis brings an upper bound of the expected value of the number of empty tetrahedra with respect to size of M. We also show how precise is the upper bound in comparison to an approximation computed by a straightforward algorithm. In the last section we move from the three- dimensional case to a general dimension d. In the general d-dimensional case we have empty d-simplices in a d-hypercube instead of empty tetrahedra in a cube. Then we compare the upper bound for d-dimensional case to the results from another paper on this topic. 1
|
344 |
Anforderungsgetriebene Qualitätsmodellierung und -auswertung in kompositen Web-MashupsRümpel, Andreas 07 May 2019 (has links)
Komposite Web-Mashups stellen durch die intelligente Verknüpfung von User-Interface-Services und anderen Web-Ressourcen einen Mehrwert für Anwendungsszenarien in verschiedenen Situationen des privaten und geschäftlichen Lebens bereit. Obwohl die Verwendung solcher Mashups bereits viele Nutzerzielgruppen erreicht und Anwendungsdomänen erschlossen hat, ist die bedarfsgerechte Auswahl von Anwendungsbausteinen und deren intelligente Komposition immer noch eine große Herausforderung.
In dieser Arbeit werden deshalb Konzepte für die verbesserte Durchführung des Erstellungsprozesses und die Nutzung kompositer Web-Mashups entwickelt und vorgestellt. Kernidee ist dabei die Modellierung und Auswertung anpassbarer Qualitätsanforderungen. Erstmals wird es mit Hilfe eines speziell auf die Belange kompositer Web-Mashups zugeschnittenen Modells für Qualitätseigenschaften ermöglicht, solche Anforderungen passgenau für die Auswahl von Anwendungsbausteinen und die automatisierte Auswertung zu nutzen. Neben der Spezifikation von Bedingungen und Vergleichswerten für bestimmte Eigenschaften erlaubt es das ebenfalls hier vorgestellte Metamodell für Qualitätsanforderungen, die Rahmenbedingungen der Auswertung sowie zuzuordnende Aktionen festzulegen. Schwerpunkte der Arbeit sind außerdem der Prozess der qualitätsbewussten Komposition, die Nutzung der resultierenden Web-Mashups sowie die dazu gehörende Referenzarchitektur. Die betrachteten Anwendungsszenarien decken insbesondere die Teilprozesse der Auswahl von Kompositionsfragmenten, die Erweiterung in Betrieb befindlicher Anwendungen sowie die intelligente Adaption innerhalb der Laufzeitplattform ab. Neben Werkzeugen zur Modellierung und der automatisierten Auswertung von Qualitätsanforderungen setzt die Referenzarchitektur das kontextsensitive Monitoring von Qualitätseigenschaften um. Ein weiterer Fokus liegt auf der unscharfen Spezifikation anpassbarer Qualitätsanforderungen, da zur Zielgruppe insbesondere auch Menschen ohne Programmiererfahrung, jedoch mit guter Kenntnis in aktuellen Web-Technologien und in der jeweiligen fachlichen Domäne, zählen. Diese Ausrichtung wird sowohl bei der Modellierung mit Fuzzy-Mengen als auch in Form von Interaktionskonzepten berücksichtigt.
Anhand typischer Anwendungsfälle und unter Zuhilfenahme einer implementierten Infrastruktur und Anwendungslandschaft werden die vorgestellten Konzepte validiert und optimiert. Dabei fließen sowohl die Meinungen von Nutzern und Experten als auch die Betrachtungen zur Komplexität ressourcenintensiver Vorgänge sowie die Ergebnisse von Performance-Analysen ein. Durch das Verwenden der Modelle, Konzepte, Prozesse und Architekturen dieser Arbeit wird somit eine verbesserte Erstellung, Verfeinerung und Nutzung bedarfsgerechter, situativer Mashup-Anwendungen mit Hilfe anpassbarer Qualitätsanforderungen ermöglicht.:Kapitel 1 Motivation und Zielstellung
Abschnitt 1.1 Problemdefinition
Abschnitt 1.2 Forschungsthesen
Abschnitt 1.3 Forschungsziele
Abschnitt 1.4 Abgrenzung
Abschnitt 1.5 Aufbau der Arbeit
Kapitel 2 Grundlagen der Entwicklung und Nutzung kompositer Web-Mashups
Abschnitt 2.1 Charakteristika und Einordnung des Anwendungstyps
Abschnitt 2.2 Entwicklungsmethoden und Anwendungsszenarien
Abschnitt 2.3 Rollen im Entwicklungsprozess von Web-Mashups
Abschnitt 2.4 Qualitätseigenschaften und -anforderungen im Kontext von Web-Mashups
Kapitel 3 Stand der Forschung und Technik
Abschnitt 3.1 Normen und Standards für Qualitätsmodelle bei Softwareprodukten
Abschnitt 3.2 Strukturierung und Erstellung von Qualitätsmodellen
Abschnitt 3.3 Anforderungsmodellierung mit Aufgaben und Fuzzy-Mengen
Abschnitt 3.4 Bewertungskriterien und Übersicht der Cluster für existierende Arbeiten
Abschnitt 3.5 Qualität in Web-Mashups
Abschnitt 3.6 Qualitätsanforderungen im Web-Engineering
Abschnitt 3.7 Qualitätseigenschaften und -anforderungen bei der Auswahl und Komposition von Web-Services
Abschnitt 3.8 Qualitätsanforderungen in kompositen Softwaresystemen
Abschnitt 3.9 Fazit zum Stand der Forschung und Technik
Kapitel 4 Modellierung von Qualitätseigenschaften für Mashups
Abschnitt 4.1 Modellüberblick und Abhängigkeiten
Abschnitt 4.2 Anforderungen an das Eigenschaftsmodell
Abschnitt 4.3 Metamodell zur Strukturierung von Qualitätseigenschaften
Abschnitt 4.4 Unscharfe Eigenschaftswerte mit Fuzzy-Mengen
Abschnitt 4.5 Nutzung von Qualitätseigenschaften in der Mashup-Plattform
Abschnitt 4.6 Referenzmodell der für Mashups typischen Qualitätseigenschaften
Abschnitt 4.7 Zusammenfassung und Bewertung des Modells für Qualitätseigenschaften
Kapitel 5 Festlegen und Auswerten von Qualitätsanforderungen
Abschnitt 5.1 Herausforderungen im Umgang mit Anforderungen
Abschnitt 5.2 Qualitätsanforderungen in der Mashup-Architektur
Abschnitt 5.3 Aufbau von Qualitätsanforderungen
Abschnitt 5.4 Erzeugen und Bearbeiten von Qualitätsanforderungen
Abschnitt 5.5 Auswertung von Qualitätsanforderungen
Abschnitt 5.6 Zusammenfassung
Kapitel 6 Qualitätsbewusster Entwicklungs- und Nutzungsprozess
Abschnitt 6.1 Entwicklung und Nutzung von Web-Mashups mit Qualitätsanforderungen
Abschnitt 6.2 Aktionen im Kontext von Qualitätsanforderungen
Kapitel 7 Validierung und Implementierung
Abschnitt 7.1 Validierungsmethodik
Abschnitt 7.2 Überblick der implementierten Infrastruktur
Abschnitt 7.3 Implementierung von Kompositionsfragmenten
Abschnitt 7.4 Implementierung der Referenzarchitektur
Abschnitt 7.5 Implementierung der Werkzeuge
Abschnitt 7.6 Nutzerstudie zum Anforderungsassistenten
Abschnitt 7.7 Validierungsergebnisse zu Performance und Awareness-Indikatoren
Abschnitt 7.8 Diskussion zur Validierung und Implementierung
Kapitel 8 Zusammenfassung, Diskussion, Bewertung und Ausblick
Abschnitt 8.1 Zusammenfassung der Kapitel
Abschnitt 8.2 Diskussion und Bewertung der Forschungsergebnisse
Abschnitt 8.3 Ausblick auf aktuelle und künftige Arbeiten
Anhang A Metamodelle und Schemata
Anhang B Referenzmodelle
Anhang C Komponentenimplementierungen
Anhang D Werkzeuge
Anhang E Dienste, Verwaltung und Tests
|
345 |
The comparative effects of single and yoked learning channel sets under overlearning and fluency training conditions on the retention of paired associate informationPedego, Steven Elliott 01 January 1999 (has links) (PDF)
This study was undertaken in an attempt to determine the differential effects of single and double response channel sets learned to fluency (rates of 50–60 correct associations per minute) versus overlearning (90% correct or greater with 3-second latency between associative responses) on subjects' retention of paired associate information. An intrasubject multiple treatment design was used, exposing each subject to all training conditions: baseline and mastery-learning sequentially, followed by the repeated “multiple treatment” exposure to four conditions; 1 and 2 channel fluency, and 1 and 2 channel overlearning conditions. Retention was measured immediately after training, and at one, two, three, seven, and twelve week follow-up intervals. Additionally, the duration of time and number of learning trials required for subjects to meet mastery, fluency and overlearning criteria at both 1 and 2 channels was calculated to gather further information regarding whether or not the magnitude of differences is educationally significant. Moreover, subject satisfaction was measured in response to the mastery, fluency and overlearning conditions. The results indicated no significant differences in retention produced by any of the 4 instructional conditions, at any follow-up interval. Additionally, the results indicated that fluency goals require an “educationally significantly” greater number of learning trials and more time to attain than mastery-based accuracy goals. What's more, it appears that adding a second response channel during fluency building does not seem to accelerate fluency development, as compared to a 1-channel fluency condition. Furthermore, subjects appeared to prefer faster fluency based training over slower overlearning training. It is suggested that future research utilize longer term follow-up intervals and higher fluency rates.
|
346 |
Minimal Cantor sets / Minimala Cantor mängderNordin Gröning, Jacob January 2023 (has links)
A Cantor set is a topological space which admits a hierarchy of clopen covers. A minimal Cantor set is a Cantor set together with a map such that every orbit is dense in the Cantor set. In this thesis we us inverse limits to study minimal Cantor sets and their properties. In particular, under certain hypothesis we find an upper bound for the number of ergodic measures for minimal Cantor set. / En Cantor mängd är ett topologiskt rum med en hierarki av slöppna täcken. En minimal Cantor mängd är en Cantor mängd tillsammans med en avblidning så att varje omlppsbana är tät. I den här uppsatsen använder vi omvända gränser för att studera minimala Cantor mängder och deras egenskaper. Särskilt under vissa omständigheter hittar vi en övre begränsning på antalet ergodiska mått på minimala Cantor mängder.
|
347 |
Simultaneously lifting multiple sets in binary knapsack integer programsKubik, Lauren Ashley January 1900 (has links)
Master of Science / Department of Industrial & Manufacturing Systems
Engineering / Todd W. Easton / Integer programs (IPs) are mathematical models that can provide organizations with
the ability to optimally obtain their goals through appropriate utilization and allocation
of available resources. Unfortunately, IPs are NP-complete in the strong sense, and
many integer programs cannot be solved.
Introduced by Gomory, lifting is a technique that takes a valid inequality and strengthens
it. Lifting can result in facet defining inequalities, which are the theoretically
strongest inequalities; because of this, lifting techniques are commonly used in commercial
IP software to reduce the time required to solve an IP.
This thesis introduces two new algorithms for exact simultaneous up lifting multiple
sets into binary knapsack problems and introduces sequential simultaneous lifting.
The Dynamic Programming Multiple Lifting Set Algorithm (DPMLSA) is a pseudopolynomial
time algorithm bounded by O(nb) effort that can exactly uplift an arbitrary
number of sets. The Three Set Simultaneous Lifting Algorithm (TSSLA) is a polynomial
time algorithm bounded by O(n2) and can exact simultaneously up lift three sets.
The simultaneously lifted inequalities generated by the DPMLSA and the TSSLA can
be facet defining, and neither algorithm requires starting with a minimal cover.
A brief computational study shows that the DPMLSA is fast and required an average
of only 0.070 seconds. The computational study also shows these sequential simultaneously
lifted inequalities are useful, as the solution time decreased by an overall average
of 18.4%. Therefore, implementing the DPMLSA should be beneficial for large IPs.
|
348 |
On non-archimedean dynamical systemsJoyner, Sheldon T 12 1900 (has links)
Thesis (MSc) -- University of Stellenbosch, 2000. / ENGLISH ABSTRACT: A discrete dynamical system is a pair (X, cf;) comprising a non-empty set X and a map
cf; : X ---+ X. A study is made of the effect of repeated application of cf; on X, whereby points
and subsets of X are classified according to their behaviour under iteration. These subsets
include the JULIA and FATOU sets of the map and the sets of periodic and preperiodic
points, and many interesting questions arise in the study of their properties.
Such questions have been extensively studied in the case of complex dynamics, but much
recent work has focussed on non-archimedean dynamical systems, when X is projective
space over some field equipped with a non-archimedean metric. This work has uncovered
many parallels to complex dynamics alongside more striking differences.
In this thesis, various aspects of the theory of non-archimedean dynamics are presented,
with particular reference to JULIA and FATOU sets and the relationship between good
reduction of a map and the empty JULIA set. We also discuss questions of the finiteness
of the sets of periodic points in special contexts. / AFRIKAANSE OPSOMMING: 'n Paar (X, <jJ) bestaande uit 'n nie-leë versameling X tesame met 'n afbeelding <jJ: X -+ X
vorm 'n diskrete dinamiese sisteem. In die bestudering van so 'n sisteem lê die klem op
die uitwerking op elemente van X van herhaalde toepassing van <jJ op die versameling.
Elemente en subversamelings van X word geklasifiseer volgens dinamiese kriteria en op
hierdie wyse ontstaan die JULIA en FATOU versamelings van die afbeelding en die versamelings
van periodiese en preperiodiese punte. Interessante vrae oor die eienskappe van
hierdie versamelings kom na vore.
In die geval van komplekse dinamika is sulke vrae reeds deeglik bestudeer, maar onlangse
werk is op nie-archimediese dinamiese sisteme gedoen, waar X 'n projektiewe ruimte is
oor 'n liggaam wat met 'n nie-archimediese norm toegerus is. Hierdie werk het baie
ooreenkomste maar ook treffende verskille met die komplekse dinamika uitgewys.
In hierdie tesis word daar ondersoek oor verskeie aspekte van die teorie van nie-archimediese
dinamika ingestel, in besonder met betrekking tot die JULIA en FATOU versamelings en
die verband tussen goeie reduksie van 'n afbeelding en die leë JULIA versameling. Vrae
oor die eindigheid van versamelings van periodiese punte in spesiale kontekste word ook
aangebied.
|
349 |
Data cleaning techniques for software engineering data setsLiebchen, Gernot Armin January 2010 (has links)
Data quality is an important issue which has been addressed and recognised in research communities such as data warehousing, data mining and information systems. It has been agreed that poor data quality will impact the quality of results of analyses and that it will therefore impact on decisions made on the basis of these results. Empirical software engineering has neglected the issue of data quality to some extent. This fact poses the question of how researchers in empirical software engineering can trust their results without addressing the quality of the analysed data. One widely accepted definition for data quality describes it as `fitness for purpose', and the issue of poor data quality can be addressed by either introducing preventative measures or by applying means to cope with data quality issues. The research presented in this thesis addresses the latter with the special focus on noise handling. Three noise handling techniques, which utilise decision trees, are proposed for application to software engineering data sets. Each technique represents a noise handling approach: robust filtering, where training and test sets are the same; predictive filtering, where training and test sets are different; and filtering and polish, where noisy instances are corrected. The techniques were first evaluated in two different investigations by applying them to a large real world software engineering data set. In the first investigation the techniques' ability to improve predictive accuracy in differing noise levels was tested. All three techniques improved predictive accuracy in comparison to the do-nothing approach. The filtering and polish was the most successful technique in improving predictive accuracy. The second investigation utilising the large real world software engineering data set tested the techniques' ability to identify instances with implausible values. These instances were flagged for the purpose of evaluation before applying the three techniques. Robust filtering and predictive filtering decreased the number of instances with implausible values, but substantially decreased the size of the data set too. The filtering and polish technique actually increased the number of implausible values, but it did not reduce the size of the data set. Since the data set contained historical software project data, it was not possible to know the real extent of noise detected. This led to the production of simulated software engineering data sets, which were modelled on the real data set used in the previous evaluations to ensure domain specific characteristics. These simulated versions of the data set were then injected with noise, such that the real extent of the noise was known. After the noise injection the three noise handling techniques were applied to allow evaluation. This procedure of simulating software engineering data sets combined the incorporation of domain specific characteristics of the real world with the control over the simulated data. This is seen as a special strength of this evaluation approach. The results of the evaluation of the simulation showed that none of the techniques performed well. Robust filtering and filtering and polish performed very poorly, and based on the results of this evaluation they would not be recommended for the task of noise reduction. The predictive filtering technique was the best performing technique in this evaluation, but it did not perform significantly well either. An exhaustive systematic literature review has been carried out investigating to what extent the empirical software engineering community has considered data quality. The findings showed that the issue of data quality has been largely neglected by the empirical software engineering community. The work in this thesis highlights an important gap in empirical software engineering. It provided clarification and distinctions of the terms noise and outliers. Noise and outliers are overlapping, but they are fundamentally different. Since noise and outliers are often treated the same in noise handling techniques, a clarification of the two terms was necessary. To investigate the capabilities of noise handling techniques a single investigation was deemed as insufficient. The reasons for this are that the distinction between noise and outliers is not trivial, and that the investigated noise cleaning techniques are derived from traditional noise handling techniques where noise and outliers are combined. Therefore three investigations were undertaken to assess the effectiveness of the three presented noise handling techniques. Each investigation should be seen as a part of a multi-pronged approach. This thesis also highlights possible shortcomings of current automated noise handling techniques. The poor performance of the three techniques led to the conclusion that noise handling should be integrated into a data cleaning process where the input of domain knowledge and the replicability of the data cleaning process are ensured.
|
350 |
Έλεγχος κυβερνοφυσικών συστημάτων υποκείμενων σε ανταγωνιστικές ενέργειεςΚοντουράς, Ευστάθιος 13 October 2013 (has links)
Το αντικείμενο της παρούσας διπλωματικής εργασίας αφορά την ανάλυση και τον έλεγχο κυβερνοφυσικών δικτυωμένων δυναμικών συστημάτων. Ειδικότερα, μελετώνται γραμμικά χρονικά αμετάβλητα συστήματα μίας εισόδου με περιορισμούς τόσο στην είσοδο όσο και στο διάνυσμα καταστατικών μεταβλητών και προτείνονται στρατηγικές ανταγωνιστικού ελέγχου. Συγκεκριμένα, ένας βέλτιστος ελεγκτής εξασφαλίζει θετική αμεταβλητότητα ενός φραγμένου κυρτού πολυεδρικού συνόλου ως προς το σύστημα και ταυτόχρονα σύγκλιση της τροχιάς του διανύσματος κατάστασης στο μηδέν το συντομότερο δυνατό. Υποθέτουμε ότι ένας «ανταγωνιστής » ελεγκτής επιτυγχάνει κατά διαστήματα να αναλάβει τον έλεγχο του συστήματος και αποστέλλει μέσω του δικτύου εσφαλμένα σήματα εισόδου στοχεύοντας να οδηγήσει το διάνυσμα κατάστασης εκτός του πολυεδρικού συνόλου το συντομότερο δυνατό. Προσομοιώσεις καταδεικνύουν ότι το διακοπτικό φαινόμενο που ανακύπτει από τη διαδοχική εφαρμογή των δύο παραπάνω ελεγκτών προκαλεί μία περιοδική τροχιά του διανύσματος κατάστασης. Τα θεωρητικά εργαλεία που χρησιμοποιήθηκαν για την εξαγωγή των αποτελεσμάτων προέρχονται από τη θεωρία ευστάθειας Lyapunov και τη θεωρία αμετάβλητων συνόλων. / This thesis addresses the analysis and control of networked cyber-physical dynamical systems. We are mostly concerned with the study of linear, time-invariant systems with single input. The systems evolve in the discrete time and are subject to both state and input constraints and a certain number of adversary control strategies are proposed. A time-optimal control law guarantees positive invariance of a bounded convex polyhedral set with respect to the given system, while contracting the state space vector to the origin. At times, an adversary controller succeeds in gaining control of the system and sends false control commands attempting to lead the state vector outside the polyhedral set at the maximum admissible rate. Simulation studies highlight that consecutively applying the above control laws results in a periodic motion of the state vector. The theoretic tools used to obtain our conclusions associate with Lyapunov stability and set theory.
|
Page generated in 0.0507 seconds