• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 117
  • 67
  • 20
  • 15
  • 10
  • 9
  • 8
  • 5
  • 4
  • 4
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 402
  • 127
  • 119
  • 116
  • 112
  • 92
  • 66
  • 59
  • 58
  • 57
  • 49
  • 44
  • 41
  • 41
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

RelAndXML a system to manage XML-based course material with object-relational databases /

Schnädelbach, Astrid. January 1900 (has links) (PDF)
University, Diss., 2004--Mainz.
172

An introduction to computer programming for complete beginners using HTML, JavaScript, and C♯

Parker, Rembert N. January 2008 (has links)
Thesis (D. Ed.)--Ball State University, 2008. / Title from PDF t.p. (viewed on Nov. 09, 2009). Includes bibliographical references (p. 116-118).
173

Σχεδιασμός και υλοποίηση συστήματος για ηλεκτρονικές προμήθειες

Λιβιάκης, Κωνσταντίνος 09 January 2012 (has links)
Η παρούσα διπλωματική εργασία πραγματεύεται τον σχεδιασμό και την υλοποίηση συστήματος για ηλεκτρονικές προμήθειες. Ως ηλεκτρονική προμήθεια ορίζεται η διαδικασία με την οποία ένας φορέας προμηθεύεται τις υπηρεσίες και τα αγαθά που τον ενδιαφέρουν με την χρήση σύγχρονων διαδικτυακών και υπολογιστικών υπηρεσιών. Ο φορέας που μελετάται εδώ είναι ένα νοσοκομείο. Οι ηλεκτρονικές προμήθειες είναι ένα είδος ηλεκτρονικού εμπορίου, συνεπώς πρώτα γίνεται μία θεωρητική ανάλυση του ηλεκτρονικού εμπορίου και έπειτα των ηλεκτρονικών προμηθειών. Εν συνεχεία παρατίθεται η υλοποίηση ενός συστήματος ηλεκτρονικών προμηθειών, δηλαδή η σύσταση ενός ιστότοπου, ο οποίος περιέχει όλες τις απαραίτητες λειτουργίες για τη δημιουργία και διεξαγωγή ηλεκτρονικών διαγωνισμών. Στο σύστημα αυτό που δημιουργήθηκε υπάρχουν δύο κύρια είδη χρηστών, οι απλοί χρήστες και οι διαχειριστές. Οι απλοί χρήστες μπορούν να δουν τους ενεργούς διαγωνισμούς και να υποβάλουν προσφορά σε όσους διαγωνισμούς τους ενδιαφέρουν. Οι διαχειριστές διευθύνουν τον ιστότοπο και είναι υπεύθυνοι για την προκήρυξη και διεξαγωγή των διαγωνισμών. Επίσης, ευθύνη των διαχειριστών είναι η αξιολόγηση των προσφορών που έχουν γίνει στους διαγωνισμούς και με βάση κριτήρια όπως το ποσό προσφοράς και η ημερομηνία παράδοσης των προϊόντων συνυπολογίζεται η προτιμότερη προσφορά. Για την δημιουργία του ιστότοπου χρησιμοποιήθηκαν μόνο Open Source εργαλεία. Συγκεκριμένα για τη δημιουργία δυναμικών ιστοσελίδων χρησιμοποιήθηκαν οι γλώσσες HTML, PHP και JavaScript, για την δημιουργία και διαχείριση της βάσης δεδομένων η γλώσσα MySQL και για το στήσιμο ενός εικονικού διακομιστή στον οποίο θα τρέχει ο ιστότοπος χρησιμοποιήθηκε ο εξυπηρετητής παγκόσμιου ιστού Apache. / This thesis discusses the design and implementation of an e-procurement system. E-procurement is defined as the process by which an entity procures services and goods that are of interest by using modern computing and internet services. The organization studied here is a hospital. Electronic procurement is a type of electronic commerce, thus a theoretical analysis of e-commerce and e-procurement is made. The implementation of an electronic procurement system is then presented specifically about the establishment of a website that contains all the necessary functions for creating and conducting electronic contests. The created system has mainly two kinds of users, ordinary users and administrators. Ordinary users can see the active contests and bid to those who are interested in. Administrators manage the site and are responsible for creating and conducting contests. Also, they have the responsibility of evaluating the offers made, and based on criteria such as the bid amount and the delivery date of products they conclude to the preferred bid. To create the site only Open Source tools were used. Specifically for creating dynamic web pages, HTML, PHP and JavaScript languages were used. In order to create and manage the database, MySQL language was used and setting up a virtual server that will run the site was implemented by the web server Apache.
174

Geração de regras de extração de dados em páginas HTML

Caldas, Paracelso de Oliveira January 2003 (has links)
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
175

Tackling genre classification

Hendges, Graciela Rabuske January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão. Programa de Pós-Graduação em Letras/Inglês e Literatura Correspondente / Made available in DSpace on 2012-10-23T10:39:26Z (GMT). No. of bitstreams: 1 249271.pdf: 3171345 bytes, checksum: 00f207cece278de30d1f5b7fd246c496 (MD5) / Pesquisas recentes sobre comunicação científica têm revelado que desde o final dos anos de 1990 o uso de periódicos acadêmicos passou da mídia impressa para o mídia eletrônica (Tenopir, 2002, 2003; Tenopir & King, 2001, 2002) e, conseqüentemente, há previsões de que por volta de 2010 cerca de 80% dos periódicos terão apenas versões online (Harnad, 1998). Todavia, essas pesquisas mostram também que nem todas as disciplinas estão migrando para a Internet com a mesma velocidade. Enquanto que áreas como as Ciências da Informação, Arquivologia, Web design e Medicina têm mostrado interesse e preocupação em entnder e explicar esse fenômeno, em Lingüística Aplicada, particularmente em Análise de Gênero, os estudos ainda são escassos. Neste trabalho, portanto, procuro investigar em que medida o meio eletrônico (Internet) afeta o gênero artigo acadêmico no seu processo de mudança da mídia impressa para a mídia eletrônica. Mais especificamente, examino artigos acadêmicos em HTML nas áreas de Lingüística e Medicina com vistas a verificar se esse hypertexto é um gênero novo ou não. A abordagem metodológica adotada nesta pesquisa deriva da proposta de Askehave e Swales (2001) e de Swales (2004), na qual o critéro predominante para a classificação de um gênero é o propósito comunicativo, o qual só pode ser definido com base em uma análise textual tanto quanto em uma análise contextual. Dessa forma, neste estudo foram coletados e analisados dados textuais e contextuais e os resultados de ambas análises revelam que o artigo acadêmico em HTML é um gênero novo, cujo propósito comunicativo é realizado por hiperlinks e portanto, esse gênero é profundamente dependente da mídia eletrônica.
176

Kooperativní práce na dokumentech v aplikaci TeXonWeb

Telenský, Václav January 2015 (has links)
The diploma thesis deals with design and implementation of cooperative work on documents in the application TEXonWeb. The diploma theses includes the analysis of competitive solutions and key technologies for implementation. The cooperative work on documents is a functionality which allows users to cooperate simply on one document in real-time. Text of the thesis describes the process of implementation using the technology which is described in the initial analysis. The diploma theses also includes some ideas for next possible development.
177

Business Intelligence systém pre asistované finančné riadenie malých a stredných podnikov

Gastnerová, Dominika January 2016 (has links)
Diploma thesis deals with design and further implementation of web application which is designed as a subject for financial management and also for planning of the small and medium companies with the assist of the financial manager. The aim of the thesis was to create the system, where the historical data aggregates from the online accounting system iDoklad.cz and further data needed are put into system manually and furthermore there is a possibility to visualise them with the help of graphs. Visualisation is possible with prediction of future values related to the historical data. There is also possibility to modelate of basic user financial scenarios, videlicet various types of investitions and loans.
178

Informační systém pro podporu drobné rostlinné výroby

Dohnálek, Lukáš January 2016 (has links)
This thesis focuses on design and implementation of an ERP system, dedicated to support small farmers and their enterprises in crops production in the Czech republic. ERP system is divided into three bases. First of them aims on working with land blocks, the other one focuses on stock operations and the third one focuses on economical operations of small farmers. Based on the processed data, ERP system provides control of costs and yields of single land blocks. Furthermore, the ERP is dedicated for creation of crop rotation plans and a compliance of which it helps to keep track of. The system also provides desired data for management of farming control. The ERP system was being developed in cooperation with an entrepreneur Karel Procházka, further refered to as an authority, who was testing the final application. The ERP system was developed as an web application.
179

Objektová tvorba softwaru / Object-oriented software development

Maier, Stanislav January 2016 (has links)
The goal of my thesis was to develop an application in the selected object environment as firmware for single-chip computer. I created prototype of monitoring unit for greenhouses, with two controlled outputs, that would be accessible over the local network. Prototype was based on Arduino platform and from freely available components. Theoretical part of thesis describes the Arduino platform, Wiring language and environment and other used programing languages and communication standards. Practical part of thesis describes prototype of the monitoring unit with it's program code and client side web interface. At the end of thesis is the economic comparison of the developed prototype and existing equivalents on the market.
180

Geração de regras de extração de dados em páginas HTML

Caldas, Paracelso de Oliveira January 2003 (has links)
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Page generated in 0.0431 seconds