• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 165
  • 108
  • 55
  • 13
  • 13
  • 13
  • 8
  • 6
  • 5
  • 3
  • 1
  • Tagged with
  • 397
  • 213
  • 111
  • 90
  • 78
  • 75
  • 73
  • 64
  • 63
  • 60
  • 58
  • 57
  • 56
  • 52
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Implementace čárového kódu do výrobního procesu malé firmy / Bar Code Implemamtation to Production Process of Small Factory

Tihon, Karel January 2009 (has links)
Target of my diploma thesis is barcode study and implementation to SMT assembly processes. This thesis contains two main parts. The first one is devoted to basic types of barcodes, reading technologies and industrial process mapping in PCB assembly. The second part is devoted to theoretical proposal and physical realization of system for materials flow monitoring. Barcode is contained in this system. Practical part of this thesis is tested in a company realizing contract manufacturing in PCB assembly - SMT and THT.
132

IS pro podporu zákazníků / IS for CMR

Doležal, Tomáš January 2010 (has links)
This dissertation is concerned with design and elaboration of MySQL database using PHP5 programming language. Goal of this work is customer support IS. To achieve it's goal uses Symfony PHP framework. E-R diagrams, dataflow diagrams as well as processes for each role are presented for this information system. Dissertation is also concerned with entities life cycles. Whole work results in the working information system, which contains administration and user frontend.
133

Demotisch, hieratisch und SQL: ein Beispiel für die Anwendung von DH in der Ägyptologie

Waß, Christopher January 2016 (has links)
Im Fokus des vorgestellten Projektes steht die Untersuchung der Verwendung von zwei ägyptischen Kursivschriften in einem homogenen Textkorpus. Hierbei handelt es sich zum einen um Hieratisch, einer Kursivschrift, die etwa zeitgleich mit den Hieroglyphen im 3. Jtd. v. Chr. entstand und für Texte auf Papyrus verwendet wurde. Mit beiden Schriftarten wurde in der Regel dieselbe Phase der ägyptischen Sprache geschrieben. Zum anderen um Demotisch, einer um 650 v. Chr. entwickelten Kursivschrift, die ebenfalls für Texte auf Papyrus verwendet wurde, und eine historisch jüngere Sprachstufe beschreibt. Beide Schriftsysteme erscheinen nebeneinander in den vier magischen Papyri der sog. „Theban Magical Library“ aus dem 3. Jhd. n. Chr., die sich heute in London, Leiden und Paris befinden. Das zu untersuchende Textkorpus umfasst etwa 157 Einzeltexte, die sich auf mehr als 1700 Zeilen Text verteilen. Ein Großteil der Texte ist in demotischer Schrift und Grammatik geschrieben. Daneben finden sich einige Passagen in hieratischer, griechischer und in einer Zauberschrift. Auch sprachliche sind die Texte keineswegs homogen. Kürzere Passagen weisen häufig eine ältere Sprachstufe als das Demotische auf. Auch die Schriftart kann innerhalb eines Satzes, in einigen Fällen sogar innerhalb eines Wortes, wechseln. Die Gründe für die Verwendung von demotischer und hieratischer Schrift sind bisher nicht untersucht worden. Da die einzelnen Sprüche auf unterschiedliche Vorlagen aus verschiedenen Kulturkreisen zurückgehen, liegt der Schwerpunkt des Vorhabens auf der Untersuchung der Beziehung von Schriftart, Sprache oder Sprachstufe und Inhalt. Bisher wird in der Forschung davon ausgegangen, dass hieratische Schrift zur Schreibung von Götterbezeichnungen oder bestimmter Termini, bevorzugt also bei Passagen mit religiösem Inhalt Verwendung fand. Jüngere Überlegungen konnten jedoch zeigen, dass hieratische Schrift in einigen Fällen mit sprachlich altertümlichen Merkmalen einhergeht, wobei es sich wohl um die Reste eines Vorläufers handelt, der nicht vollständig in demotische Schrift und Sprache übertragenen wurde. Um das Quellenmaterial adäquat zu untersuchen, ist eine genaue Analyse von Schrift, Sprache und Inhalt der Einzeltexte nötig. In einem ersten Schritt wird jeder Papyrus unabhängig von den anderen untersucht. Hierfür wird der Text in eine Excel-Tabelle aufgenommen. Jeder Eintrag wird mit verschiedenen Merkmalen versehen, die für die spätere Auswertung von Bedeutung sind. Die Texte werden in Hinblick auf die verwendete Schriftart, Sprachstufe, der zeitlichen Bezeugung eines Wortes oder grammatikalischen Konstruktion, Wortart, Herkunft (ägyptisch, griechisch, jüdisch etc.), Kontext (Vorkommen in Titeln, direkter Rede u. ä.) und, falls vorhanden, Anmerkungen des Schreibers analysiert. In einem ersten Schritt werden die Texte in ägyptologischer Umschrift in eine Exceltabelle eingetragen. Hierbei erhält jedes Wort einen Eintrag und wird mit den für die Analyse benötigten Merkmale versehen. Im Anschluss wird die Tabelle in eine mySQL Datenbank eingelesen. Diese wurde in Zusammenarbeit mit Dr. C. Riepl von der IT-Group Geisteswissenschaften der LMU München erstellt. Anhand dieser Datenbank erfolgt die Analyse der Texte.
134

A Performance Comparison of an Event-Driven Node.js Web Server and Multi-Threaded Web Servers / En prestandajämförelse mellan en händelsestyrd Node.js-webbserver och flertrådiga webbservrar

Vilhelmsson, Isak January 2021 (has links)
The goal of this study is to conduct a performance comparison betweenNode.js, Apache, Internet Information Services (IIS) and Go web servers in terms of throughput and memory consumption in both Input/Output (I/O)-intensive and computation-intensive situations. The computation-intensive tests consisted of calculating Fibonacci numbers, while the I/O-intensive tests consisted of querying a database. JMeter was used to send the requests and collect client- side data while Windows Performance Monitor was used to collect data on the resource use of the web servers on the server-side computer. The results showed that Go web server had the highest throughput and lowest memory consumption in all of the tests, with an average increase in throughput of 26% and an average decrease in memory consumption by 66% compared to the web servers placing second in the tests. IIS web server was the server that most often placed second behind Go. Contrary to previous studies Node.js performed worse than Apache in the I/O-intensive tests. The results also showed that Apache web server performed poorly in computation-intensive situations in terms of throughput. The conclusion is that the results indicate that Go web server performs better than Apache, IIS and Node.js web servers in both I/O- intensive and computation-intensive situations in terms of both throughput and memory consumption. / Denna studies mål är att genomföra en prestandajämförelse mellan Node.js, Apache, IIS och Go-webbservrar mätt i genomströmning och minnesallokering i både I/O-intensiva och beräkningsintensiva situationer. De beräkningsintensiva testerna bestod av att beräkna Fibonaccital medan de I/O-intensiva bestod av att be en databas om data. Programmet JMeter användes till att genomföra klientdatorns begäran till serverdatorn och till att samla data om begäran. Windows-programmet Performance Monitor användes till att samla data om webbservrarnas resursanvändning på serverdatorn. Resultaten visade att Go-webbservern hade högst genomströmmning och minst minnesallokering i alla tester med en genomströmmning som i genomsnitt var 26% högre och minnesallokering som var i genomsnitt 66% lägre än webbservrarna som presterade näst bäst i testerna. Webbservern som oftast presterade näst bäst var IIS. I motsats till resultaten i tidigare studier presterade Node.js sämre än Apache i de I/O-intensiva testerna. Apache visade sig prestera dåligt de beräkningsintensiva testerna. Studiens slutsats är att resultaten indikerar att Go-webbserver presterar bättre än Node.js, Apache och IIS-webbservrar i både I/O-intensiva och beräkningsintensiva situationer sett till genomströmning och minnesallokering.
135

Kvalitetsregister för epikutantestning / Patch register

Jakobsson, David, König, Bettina January 2010 (has links)
<p><strong>Inledning: </strong>Epikutantester används för utredning av kontaktallergier. Det görs ca 3000 tester varje år i Sverige som överförs till ett kvalitetsregister. <strong> </strong>Målet med projektet var att utveckla en webbapplikation och en underliggande databas för hantering och lagring av ett nationellt kvalitetsregister för epikutantester (The Swedish Patch Register). Databasen skall lagras på en central server lokaliserad på Universitetssjukhuset, Örebro.</p><p><strong>Metoder:</strong> Lösningen blev en applikation för webbläsare programmerad i språket C# med hjälp av Microsoft Visual Studio 2008 och ramverket ASP.NET 3.5. MySQL .NET connector tool 6.2.2 möjliggjorde anslutningen mellan ASP.NET och databasen. Databasen skapades på MySQL Server 5.1, en databasserver med öppen källkod. Driftsättning av webbapplikationen testades med IIS 7.</p><p><strong>Resultat: </strong>En webbapplikation, med en design liknande Örebro Läns Landsting webbplats och med följande funktionalitet skapades: Säker inloggning (https, SSL-certifikat), registrera testresultat, hantera användarkonton och behörigheter, skapa standardtester och lägga till nya ämnen för allergitestning, och en hjälpsida. Inmatningen av data standardiserades genom användning av kalenderkomponenten och DropDownLists med förvalda svar för testreaktioner, bedömning, relevans och ett fördefinierat standardtestsystem, för att minska antalet möjliga felkällor. Databasen inkluderar åtta tabeller och informationen har företrädesvis lagrats som heltalsvärden för att förenkla framtida statistiska beräkningar.</p><p><strong>Diskussion: </strong>I brist på licens för Microsoft SQL Server 2008 utvecklades projektet med hjälp av en lösning med öppen källkod som fungerar bra i utvecklingsmiljön. En lösning kopplad till en Microsoft SQL Server 2008 kräver en viss anpassning av källkoden.</p> / <p><strong>Introduction: </strong>Epicutaneous patch testing is used to evaluate contact allergies. Every year approximately<strong> </strong>3000 tests are performed in Sweden and the results are entered in a quality registry. The<strong> </strong>aim of the project was to develop a web application and a corresponding database for managing and storage of a national dermatologic quality registry (The Swedish Patch Test Register). The database will be located on a central server at the University hospital, Örebro.</p><p><strong>Methods:</strong> The solution required programming of an application for web browsers in the language C# with the help of Microsoft Visual Studio 2008 and the web framework ASP.NET 3.5. The .NET connector tool 6.2.2 enabled the connection between ASP.NET and the database created on the open source database server MySQL Server 5.1. Web server hosting was tested with IIS 7.</p><p><strong>Results: </strong>A web application in a design equivalent to the Örebro Läns Landsting web site and with the following functionalities was created: Secure Login (https, SSL-certificate), recording of test results, managing of user accounts and eligibility, creating test series and adding new substances for allergic skin testing respectively, and a help page. The input of data was standardised by means of the calendar component and DropDownLists with pre-selected answers for test reactions, evaluation, relevance of test results and a predefined standard test system in order to reduce possible handling errors. The database includes eight tables and information is preferably stored as integer values to facilitate future statistical calculation.'</p><p><strong>Discussion: </strong>Due to a lack of license for Microsoft SQL server 2008, the project was accomplished by means of an open source solution, and has full functionality in the corresponding environment. A solution in a Microsoft SQL server 2008 environment requires certain adapting of the source code.</p>
136

Att välja hårdvaruplattform för Internet of Things projekt : En jämförelse mellan Raspberry Pi och Arduino

Jonsson, Marcus January 2017 (has links)
The work described in this thesis is aimed at comparing Raspberry Pi model 3 B and Arduino Uno with an ESP8266 wifi module to see which one is most suitable to use in a Internet of Things project where data collecting from an sensor, processed and then presented. The method for this comparison is to divide the work. First, price and power consumption will be evaluated. Then, the stability of communication over wifi will be tested. Finally, the time it takes to design a program on the platforms will be measured. The result from the comparison show that the Raspberry Pi is the best choice for this type of Internet of Things projet. However, which platform to choose depends on the specific goals of the project since the platforms are good at different things. A server written in Python communicates with the Raspberry Pi by using socket to socket communication, the Raspberry Pi collects the data from the sensor and then sends it to the server. The server then saves the data in a database by the unit identification number. Then a webpage was designed that presented the data to the user. A usabiity test was done on the webpage and the result from the usability test showed that the test users was satisfied with the usability with the page, exept the choice of colors, which was fiexd. / Arbetet beskrivet i detta examensarbete går ut på att jämföra vilken av plattformarna Arduino Uno med en ESP8266 wifi-modul och Raspberry Pi 3 modell B som är mest lämplig att använda i ett Internet of Things projekt där inhämtning av data, bearbetning av data och presentation av datan. Metoden för arbetet är att dela upp det i olika moment, först undersökt faktorerna pris och strömförbrukning därefter testas kommunikationen över wifi för de olika plattformarna och därefter hur lång tid det tar att skapa ett test för kommunikationen på varje plattform. Resultatet av jämförelsen är att Raspberry Pi är mest lämplig för detta projekt, men att avgöra vilken plattform som ska användas i Internet of Things beror till störst del på vilka krav som finns, eftersom bägge plattformarna har sina egna fördelar mot varandra. En server skriven i python hämtar datan från sensorn via Raspberry Pi med hjälp av socketmeddelanden, därefter sparas datan i en databas där ett identifieringsnummer för plattformen styr sparandet av datan. För att kunna presentera datan från sensorn så skapades en webbplats som hämtar datan från databasen beroende på om användaren skickar en begäran från webbplatsen. Ett användartest har genomförts på webbplatsen för att undersöka användbarheten. Användartestet visade att webbplatsen hade de funktioner som användarna ansåg behövdes, enda åtgärdspunkten var färgsättning på webbplatsen som åtgärdades.
137

Effektiv och underhållssäker lagring av medicinsk data

Ekberg, Albin, Holm, Jacob January 2014 (has links)
Creating a database to manage medical data is not the easiest. We create a database to be used for a presentation tool that presents medical data about patients that is stored in the database. We examine which of the three databases, MySQL with relational design, MySQL with EAV design and MongoDB that are best suited for storing medical data. The analysis i performed in two steps. The first step handles the database that is most effective to retriev data. The second step examines how easy it is to change the structure of the various databases. The results show that depending on whether efficiency or maintenance is most important, different databases are the best choise. MySQL with relational design proves to be most effective while MongoDB is the easiest to maintain.
138

Optimalizace strukturovaných dotazů nad rozsáhlými databázemi / Optimization of Structured Queries on Large Databases

Janeček, Jiří January 2012 (has links)
This master's thesis deals with optimization of structured queries on large databases. Principles of these optimizations are used during creation of application, which allows finding over one specific large database. At the same time this thesis compares efficiency between the new designed SQL constructions and the not optimized SQL constructions.
139

Komunikační software pro terminálové klienty linuxového serveru / Communiacation software for terminal clients of a Linux server

Hanák, Karel January 2009 (has links)
The thesis contains a proposal and implementation of an environment convenient for operation of network client applications which use common terminals. It also consists of implemented examples where the way of their usage is presented. The centralized way of communication is the basis. The approach is used also for the possibility of their joining with managing subsystems, i.e. unlimited ways of regulation of systems for real estate management, access to devices, user authority access to access data points to the devices. The environment is based on operation system Linux and database MySQL. Their realization is supposed on a server, in the network environment. This relates also to the overall security policy and this work also focused on social treatment of clients possibilities.
140

Nástroj pro analýzu uživatelských dat získaných z instalací AVG Admin Konzole / Tool for Analysis of User Data Gathered from AVG Admin Console Installations

Heroutová, Tereza January 2012 (has links)
This document describes the design and implementation of a tool which allows for evaluation and visualisation of statistical data gathered from users of the AVG Admin Console application. The document describes collected statistical data including their localization and storing all the data in the database is discussed. The application was tested on real statistical data and possible improvements based on the results are proposed.

Page generated in 0.0167 seconds