• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 11
  • 11
  • 7
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Towards automatic grading of SQL queries

Venkatamuniyappa, Vijay Kumar January 1900 (has links)
Master of Science / Department of Computer Science / Doina Caragea / An Introduction to Databases course involves learning the concepts of data storage, manipulation, and retrieval. Relational databases provide an ideal learning path for understanding database concepts. The Structured Query Language (SQL) is a standard language for interacting with relational database. Each database vendor implements a variation of the SQL standard. Furthermore, a particular question that asks for some data can be written in many ways, using somewhat similar or structurally different SQL queries. Evaluation of SQL queries for correctness involves the verification of the SQL syntax and semantics, as well as verification of the output of queries and the usage of correct clauses. An evaluation tool should be independent of the specific database queried, and of the nature of the queries, and should allow multiple ways of providing input and retrieving the output. In this report, we have developed an evaluation tool for SQL queries, which checks for correctness of MySQL and PostgreSQL queries with the help of a parser that can identify SQL clauses. The tool developed will act as a portal for students to test and improve their queries, and finally to submit the queries for grading. The tool minimizes the manual effort required while grading, by taking advantage of the SQL parser to check queries for correctness, provide feedback, and allow submission.
2

SQL front-end for the JRelix relational-programming system

Khaya, Ibrahima. January 1900 (has links)
Thesis (M.Sc.). / Written for the School of Computer Science. Title from title page of PDF (viewed 2009/06/25). Includes bibliographical references.
3

A framework for aggregating, organizing, and searching RSS feeds /

Bathla, Samir. January 2006 (has links) (PDF)
Thesis (M.S.)--Pace University, 2006. / Includes bibliographical references.
4

An automated XPATH to SQL transformation methodology for XML data

Jandhyala, Sandeep. January 2006 (has links)
Thesis (M.S.)--Georgia State University, 2006. / Rajshekhar Sunderraman, committee chair; Sushil Prasad, Alex Zelikovsky, committee members. Electronic text (58 p.) : digital, PDF file. Description based on contents viewed Aug. 13, 2007. Includes bibliographical references (p. 58).
5

Data Build Tool (DBT) Jobs in Hopsworks

Chen, Zidi January 2022 (has links)
Feature engineering at scale is always critical and challenging in the machine learning pipeline. Modern data warehouses enable data analysts to do feature engineering by transforming, validating and aggregating data in Structured Query Language (SQL). To help data analysts do this work, Data Build Tool (DBT), an open-source tool, was proposed to build and orchestrate SQL pipelines. Hopsworks, an open-source scalable feature store, would like to add support for DBT so that data scientists can do feature engineering in Python, Spark, Flink, and SQL in a single platform. This project aims to create a concept about how to build this support and then implement it. The project checks the feasibility of the solution using a sample DBT project. According to measurements, this working solution needs around 800 MB of space in the server and it takes more time than executing DBT commands locally. However, it persistently stores the results of each execution in HopsFS, which are available to users. By adding this novel support for SQL using DBT, Hopsworks might be one of the completest platforms for feature engineering so far. / Att utveckla funktioner i stor skala är alltid kritiskt och utmanande i pipeline för maskininlärning. Moderna datalager gör det möjligt för dataanalytiker att göra feature engineering genom att omvandla, validera och aggregera data i Structured Query Language (SQL). För att hjälpa dataanalytiker att utföra detta arbete föreslogs Data Build Tool (DBT), ett verktyg med öppen källkod, för att bygga och organisera SQL-pipelines. Hopsworks, ett skalbart funktionslager med öppen källkod, vill lägga till stöd för DBT så att datavetare kan göra funktionsutveckling i Python, Spark, Flink och SQL på en enda plattform. Det här projektet syftar till att skapa ett koncept för hur man bygger detta stöd och sedan genomföra det. Projektet kontrollerar lösningens genomförbarhet med hjälp av ett exempel på DBT-projekt. Enligt mätningar behöver denna fungerande lösning cirka 800 MB utrymme på servern och det tar mer tid än att utföra DBT-kommandon lokalt. Den lagrar dock permanent resultaten av varje körning i HopsFS, vilka är tillgängliga för användarna. Genom att lägga till detta nya stöd för SQL med DBT kan Hopsworks vara en av de mest kompletta plattformarna för funktionsutveckling hittills.
6

Static MySQL Error Checking

Zarinkhail, Mohammad Shuaib January 2010 (has links)
Masters of Science / Coders of databases repeatedly face the problem of checking their Structured Query Language (SQL) code. Instructors face the difficulty of checking student projects and lab assignments in database courses. We collect and categorize common MySQL programming errors into three groups: data definition errors, data manipulation errors, and transaction control errors. We build these into a comprehensive list of MySQL errors, which novices are inclined make during database programming. We collected our list of common MySQL errors both from the technical literature and directly by noting errors made in assignments handed in by students. In the results section of this research, we check and summarize occurrences of these errors based on three characteristics as semantics, syntax, and logic. These data form the basis of a future static MySQL checker that will eventually assist database coders to correct their code automatically. These errors also form a useful checklist to guide students away from the mistakes that they are prone to make.
7

Informační systém pro podporu řízení skladu, obchodu a marketingu / Information System for Management of Store and Support of Business and Marketing Operations

Ferencz, Erik January 2007 (has links)
This term project is about analyses and design of information system for  administration and managing business firm.System is designed as module system with unlimithed count of modules that coact or  are connected with another modules. Each module has its own data tables in database, own  Classes which make the middle layer of aplication  and graphical interface, but modules are not independent (one module can not work as a system).Iner communication among modules is based on database servers.Part of the application is its own database. To accomplish this project I had to familiarize myself with a problemathic of programming in  programming language C# and with database language PostgreSQL
8

Derby/S: A DBMS for Sample-Based Query Answering

Klein, Anja, Gemulla, Rainer, Rösch, Philipp, Lehner, Wolfgang 10 November 2022 (has links)
Although approximate query processing is a prominent way to cope with the requirements of data analysis applications, current database systems do not provide integrated and comprehensive support for these techniques. To improve this situation, we propose an SQL extension---called SQL/S---for approximate query answering using random samples, and present a prototypical implementation within the engine of the open-source database system Derby---called Derby/S. Our approach significantly reduces the required expert knowledge by enabling the definition of samples in a declarative way; the choice of the specific sampling scheme and its parametrization is left to the system. SQL/S introduces new DDL commands to easily define and administrate random samples subject to a given set of optimization criteria. Derby/S automatically takes care of sample maintenance if the underlying dataset changes. Finally, samples are transparently used during query processing, and error bounds are provided. Our extensions do not affect traditional queries and provide the means to integrate sampling as a first-class citizen into a DBMS.
9

Ανάπτυξη βάσης περιβαλλοντικής πληροφορίας για την αειφορική διαχείριση υδρολογικών λεκανών : περίπτωση Αλφειού ποταμού

Πασαπόρτη, Χρηστίνα 14 October 2013 (has links)
Έχει διαπιστωθεί ότι η διαχείριση και η προστασία των υδατικών πόρων στον ελληνικό χώρο βρίσκεται σε αρκετά πρώιμο στάδιο. Αν και η Ευρωπαϊκή Ένωση έχει εκδώσει Κοινοτικές Οδηγίες που καλύπτουν την ανάγκες ενός πλαισίου διαχείρισης αυτών από το 2000, η ένταξή τους στην ελληνική πραγματικότητα δεν έχει επιτευχθεί πλήρως μέχρι σήμερα. Ειδικότερα όσον αφορά τους υδατικούς πόρους που κατανέμονται μεταξύ δύο ή και περισσότερων διοικητικών ενοτήτων, η αειφορική διαχείριση και προστασία τους γίνεται ακόμα δυσκολότερη, καθώς στις περισσότερες των περιπτώσεων δεν είναι δυνατή η σύσταση ενιαίου φορέα διαχείρισής τους. Κρίνεται, λοιπόν, αναγκαία η συλλογή και καταγραφή των δραστηριοτήτων που φαίνεται να επηρεάζουν αρνητικά την ποιότητα των υδάτων και του γύρω περιβάλλοντος της περιοχής. Ακόμη, ιδιαίτερα βοηθητική θεωρείται η καταχώρηση αυτών σε ηλεκτρονικές βάσεις δεδομένων, ώστε να είναι ευκολότερη η συλλογική εύρεση και επεξεργασία τους. Σημαντικό μέρος των δεδομένων αυτών (π.χ. πηγές ρύπανσης) διαθέτει και χωρική πληροφορία, με συνέπεια οι βάσεις δεδομένων που θα αναπτυχθούν να ενισχύονται υποχρεωτικά με χωρικές λειτουργίες. Αυτό είναι εφικτό με τη δημιουργία χωρικών βάσεων δεδομένων, οι οποίες μπορούν να αποθηκεύουν, να διαχειρίζονται και να ανακτούν με αποτελεσματικότητα μεγάλο όγκο χωρικής πληροφορίας. Αντικείμενο της παρούσας μεταπτυχιακής εργασίας αποτελεί ο σχεδιασμός και η υλοποίηση ενός συστήματος χωρικής βάσης δεδομένων για τη λεκάνη απορροής του Αλφειού ποταμού, καθώς η συλλογή στοιχείων για τις δραστηριότητες που αναπτύσσονται γύρω από τον ποταμό ανέδειξε σημαντικά προβλήματα ρύπανσης και υποβάθμισης της ποιότητας των υδάτων της περιοχής. Επιδιώκεται η συγκέντρωση, ανάλυση και επεξεργασία όλων των χαρακτηριστικών της περιοχής που επηρεάζουν αρνητικά τους υδατικούς πόρους και το περιβάλλον αυτής, με στόχο τον υπολογισμό των ρυπαντικών φορτίων που καταλήγουν στον Αλφειό. Στα πρώτα κεφάλαια της εργασίας παρουσιάζεται το νομοθετικό πλαίσιο σχετικά με τη διαχείριση των υδατικών πόρων σε ευρωπαϊκό και εθνικό επίπεδο, καθώς και τα βασικά χαρακτηριστικά της υφιστάμενης κατάστασης της λεκάνης απορροής, τα οποία επηρεάζουν άμεσα ή έμμεσα τους υδατικούς πόρους, καθώς και ποιοι είναι αυτοί. Στη συνέχεια, πραγματοποιείται ο καθορισμός των απαιτήσεων των χρηστών και ο σχεδιασμός της βάσης δεδομένων, όπου παρατίθενται τα δεδομένα που πρόκειται να εισαχθούν στη βάση. Ακολούθως, αναλύονται οι τεχνολογίες το λογισμικό ελεύθερου και ανοιχτού κώδικα και που επιλέχθηκε για τη σύσταση της βάσης. Σε τελικό στάδιο περιγράφεται η διαδικασία υλοποίησης της βάσης και πραγματοποιείται ο υπολογισμός των ρυπαντικών φορτίων αζώτου (Ν), φωσφόρου (Ρ) και οργανικών ενώσεων μέσω της εκτέλεσης πολύπλοκων και σύνθετων ερωτημάτων επί των δεδομένων με χρήση της Γλώσσας Δομικής Αναζήτησης (SQL). / It has been established that the management and protection of water resources in Greece is at a very early stage. Even though the European Union issued EU Directives that cover the needs of such a management framework since 2000, the integration into the Greek reality has not been fully achieved so far. In particular regarding water resources allocated between two or more administrative units, the sustainable management and protection becomes even more difficult, since in most cases a single management structure is unable to be established. Therefore, the collection and recording of activities that seem to adversely affect the quality of the water and the surrounding environment of the region is necessary. Still, particularly auxiliary is the inclusion on electronic databases, so it is easier to find collective and edit them. An important part of such data (e.g. pollution sources) has spatial information, so the databases will be developed in order to be assisted with spatial functions required. This is possible by creating spatial databases that can store, manage and retrieve efficiently large volumes of spatial information. The purpose of this thesis is the design and implementation of a system of a spatial database for the catchment area of the River Alfeios (Alpheus). As the collection of data on the activities developed around the river showed, there are significant problems of pollution and degradation of water quality in the region. It is pursued the collection, analysis and processing of all the features of the area negatively affecting water resources and the environment, in order to estimate pollutant loads, resulting in Alfeios. In the first chapters of the thesis are presented the legislative framework for the management of water resources at European and national level and the basic characteristics of the existing situation in the catchment area, which directly or indirectly affect water resources and what they are. Then, take place the setting of user requirements and the design of the database, in which the data are going to be imported. Next, analyzes the technologies, as well as the free and open source software chosen for the establishment of the base. At the final stage, the implementation process of the base is described and the calculation of pollutant loads of nitrogen (n), phosphorus (p) and organic compounds through the execution of complex and compound queries on data using Structural Query Language (SQL).
10

Vers un environnement logiciel générique et ouvert pour le développement d'applications NFC sécurisées / Towards a generic and open software environment for the development of Secure NFC applications

Lesas, Anne-Marie 14 September 2017 (has links)
Dans le domaine des transactions et du paiement électronique avec une carte à puce, le standard de communication en champ proche « Near Field Communication » (NFC) s’est imposé comme la technologie des transactions sans contact mobiles sécurisées pour le paiement, le contrôle d’accès, ou l’authentification. Les services sans contact mobiles sécurisés sont basés sur le mode émulation de carte du standard NFC qui implique une composante matérielle à accès restreint de type carte à puce appelée « Secure Element » (SE) dans laquelle sont stockées les données confidentielles et les fonctions sensibles. Malgré les efforts de standardisation de l'écosystème, les modèles proposés pour la mise en œuvre du SE sont complexes et souffrent du manque de généricité, à la fois pour offrir des mécanismes d’abstraction, pour le développement d’applications de haut niveau, et pour la mise en œuvre et la vérification des contraintes de sécurité des applications.L’objectif de la thèse est de concevoir et réaliser un environnement logiciel basé sur un modèle générique compatible avec les standards établis et peu sensible aux évolutions technologiques. Cet environnement devrait permettre à des non-experts de développer des applications multiplateformes, multimodes, multi-facteurs de forme, qui s’interfacent avec le SE dans un smartphone NFC. / In the field of electronic transactions and payment with a smart card, the Near Field Communication (NFC) standard has stood out against other candidate technologies for secure mobile contactless transactions for payment, access control, or authentication. Secure mobile contactless services are based on the card emulation mode of the NFC standard which involves a smart card type component with restricted access called "Secure Element" (SE) in which sensitive data and sensitive functions are securely stored and run. Despite considerable standardization efforts around the SE ecosystem, the proposed models for the implementation of SE are complex and suffer from the lack of genericity, both to offer abstraction mechanisms, for the development of high-level applications, and for the implementation and verification of applications security constraints.The objective of the thesis is to design and realize a software environment based on a generic model that complies with established standards and which is not very sensitive to technological evolutions. This environment should enable non-experts to develop multi-platform, multi-mode, multi-factor SE-based applications running into the NFC smartphone.

Page generated in 0.355 seconds