• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 188
  • 27
  • 27
  • 21
  • 20
  • 9
  • 7
  • 6
  • 5
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 333
  • 146
  • 123
  • 108
  • 81
  • 67
  • 63
  • 56
  • 54
  • 51
  • 49
  • 46
  • 37
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Estudo de alternativa de valorização de resíduos de serviços de saúde advindos de processo de desinfecção por desativação eletrotérmica (ETD) / Study of energy recovery the alternative from healthcare waste from disinfection process by electrothermal deactivation (ETD).

Martini, Adriana Amaral 14 December 2016 (has links)
Introdução. Os Resíduos de Serviços de Saúde (RSS) correspondem à pequena parcela dos Resíduos Sólidos Urbanos (RSU) de uma comunidade. No entanto, sua composição e a periculosidade requerem tratamento e destinação adequados, em especial dos resíduos dos grupos A (infectantes), B (químicos), C (radioativos) e E (perfurocortantes). No município de São Paulo, os resíduos infectantes (A e E) são desinfetados por meio da tecnologia de desativação eletrotérmica, na Unidade de Tratamento de Resíduos (UTR), resultando em resíduos similares aos comuns (classe IIA). Essa unidade trata 100 toneladas/dia de resíduos infectantes e os encaminha para disposição no solo em aterro sanitário, a um custo de R$ 198.000,00/mês, incidindo além do custo em impactos ambientais do transporte e da disposição final e não atendendo aos requisitos de valorização de resíduos trazidos pela Política Nacional de Resíduos Sólidos (PNRS). Objetivos. A pesquisa objetivou estudar as alternativas de valorização energética dos resíduos pós-tratados, com foco na composição e no teor energético desses resíduos, considerando as exigências legais e as tecnologias disponíveis. Método. Foi desenvolvido um método de coleta de amostras, integrando resíduos das 2 linhas operacionais de tratamento, e realizadas análises dos parâmetros de poder calorífico e composição gravimétrica. Os resultados foram comparados aos parâmetros correspondentes aos RSU, considerando que o tratamento confere aos resíduos póstratados esta similaridade. Resultados. A composição gravimétrica identificou a presença de materiais de alto poder energético. O valor médio do poder calorífico inferior (PCI) resultou em 5.872,5 Kcal/Kg, representando 3,5 vezes o correspondente aos RSU. Conclusão. A caracterização física realizada por meio de análise gravimétrica e de poder calorífico comprovou a similaridade dos resíduos pós-tratados com os RSU, validando sua indicação à valorização energética por meio das tecnologias de coprocessamento, incineração, plasma, pirólise e gaseificação. No caso, a valorização energética apresenta ganhos: a) diretos: economia de R$ 198.000,00/mês com transporte e disposição em aterro sanitário; e a produção de CDR que poderá ser comercializado; e b) indiretos: aumento da vida útil do aterro sanitário; minimização de possíveis impactos ambientais; a não emissão de gases de efeito estufa decorrentes do transporte; minimização de passivos ambientais; e o atendimento à hierarquia de resíduos da PNRS, fechando o ciclo de vida dos produtos dentro do conceito de economia circular. / Introduction. The Healthcare Waste (HCW) corresponds to the small share of Municipal Solid Waste (MSW) of a community. However, their composition and hazardous require adequate treatment and disposal, especially the (infectious), B (chemical), C (radioactive) and E (sharp). In São Paulo, infectious wastes (A and E) are disinfected through the electrothermal deactivation technology, in the Waste Treatment Unit (WTU), resulting in a waste similar to the common ones (class IIA). This unit treats 100 tons / day of infectious waste and forwards them to landfill for disposal with a cost of R$ 198,000.00 / month, with transport and final disposal environmental impact, and not meeting the National Solid Waste Policy (NSWP) requirements for waste recovery. Objectives. The aim of this research was study the alternatives for energy recovery of post-treated waste, focusing on the composition and energy content of these wastes, considering the legal requirements and the available technologies. Methods. Was developed a method for sample collection, integrating residues from the 2 operational lines of treatment, and analyzes parameters of calorific value and gravimetric composition. The results were compared to with parameters corresponding to the MSW, considering the treatment confers the post-treated residues this similarity. Results. The gravimetric composition identified the presence of high energy materials. The mean value of the lower calorific value (LCV) resulted in 5,872.5 Kcal / kg, representing 3.5 times that the RSU. Conclusions. The physical characterization carried out means of gravimetric and calorific analysis proved the similarity of residues posttreated with MSW, validating their indication for the energy recovery through coprocessing, incineration, plasma, pyrolysis and gasification technologies. In this case, the energy valorization presents winnings: a) direct: savings R $ 198,000.00 / month with transportation and disposition in landfill; and the RDF production can be commercialized; and b) indirect: increase the useful life of landfill; minimization of possible environmental impacts; the non-emission of greenhouse gases from transport; minimization of environmental liabilities; and compliance the waste hierarchy in the PNRS, closing the products life cycle within the concept of circular economy.
302

Wickrpedia : Integrering av sociala tjänster

Ekström, Johan January 2006 (has links)
<p>The web has evolved much through the years. From being a place where author and reader were clearly distinguished, it now invites everyone to take part in the development of both content and technology. Social services are central in what is called Web 2.0. Wikis, blogs and folksonomies are all examples of how the users and their communities are key to the development of services. Collaborative writing, tags and API:s are central. Social services are given an extra dimension through integration. The purpose of this study was to investigate whether it was possible to integrate an encyclopedia with a photosharing service. The issue was whether it was possible to find relevant images to the article they were connected to. The method for examining the issue was to create a service which functions was investigated through user tests. Wickrpedia was created, which is an integration of Wikipedia and Flickr. Wikipedia is an encyclopedia in the shape of a wiki, while Flickr is used to store, organize and share photos. The result shows that the images added someting to the encyclopedia; it became more entertaining and pleasant and the users’ knowledge was increased. The relevance of the images was good. The service can and should be improved. The conclusion is still that the service worked well and was seen as an improvement by the users.</p> / <p>Webben har förändrats mycket de senaste åren. Från att tidigare haft en tydlig uppdelning mellan läsare och författare inbjuds nu alla att delta i utvecklingen av både innehåll och teknik. Sociala tjänster är det centrala i det som benämns Web 2.0. Wikis, bloggar och folksonomies är alla exempel på hur användarna och deras gemenskap är nyckeln till utveckling av tjänster. Kollaborativt skrivande, taggar och API:er är centrala. Sociala tjänster får en ytterligare dimension genom integrering. Denna studies syfte var att utreda hur det gick att integrera ett uppslagsverk med en fotodelningstjänst. Frågan är om det gick att göra på ett sådant sätt att bilderna hade relevans för de artiklar de kopplades till. Metoden för att utreda frågan var att skapa en tjänst vars funktion undersöktes med hjälp av användartester. Wickrpedia skapades, vilket är en intregrering av Wikipedia och Flickr. Wikipedia är en encyklopedi i form av en wiki, medan Flickr används för att förvara, organisera och dela med sig av bilder. Resultatet visar att bilderna tillförde något till uppslagsverket; det blev roligare och trevligare och användarna fick en ökad kunskap. Relevansen hos bilderna var god. Tjänsten har brister, och den går att vidareutveckla. Slutsatsen var ändå att tjänsten fungerade och var en förbättring för användarna.</p>
303

Research Ontology Data Models for Data and Metadata Exchange Repository

Kamenieva, Iryna January 2009 (has links)
<p>For researches in the field of the data mining and machine learning the necessary condition is an availability of various input data set. Now researchers create the databases of such sets. Examples of the following systems are: The UCI Machine Learning Repository, Data Envelopment Analysis Dataset Repository, XMLData Repository, Frequent Itemset Mining Dataset Repository. Along with above specified statistical repositories, the whole pleiad from simple filestores to specialized repositories can be used by researchers during solution of applied tasks, researches of own algorithms and scientific problems. It would seem, a single complexity for the user will be search and direct understanding of structure of so separated storages of the information. However detailed research of such repositories leads us to comprehension of deeper problems existing in usage of data. In particular a complete mismatch and rigidity of data files structure with SDMX - Statistical Data and Metadata Exchange - standard and structure used by many European organizations, impossibility of preliminary data origination to the concrete applied task, lack of data usage history for those or other scientific and applied tasks.</p><p>Now there are lots of methods of data miming, as well as quantities of data stored in various repositories. In repositories there are no methods of DM (data miming) and moreover, methods are not linked to application areas. An essential problem is subject domain link (problem domain), methods of DM and datasets for an appropriate method. Therefore in this work we consider the building problem of ontological models of DM methods, interaction description of methods of data corresponding to them from repositories and intelligent agents allowing the statistical repository user to choose the appropriate method and data corresponding to the solved task. In this work the system structure is offered, the intelligent search agent on ontological model of DM methods considering the personal inquiries of the user is realized.</p><p>For implementation of an intelligent data and metadata exchange repository the agent oriented approach has been selected. The model uses the service oriented architecture. Here is used the cross platform programming language Java, multi-agent platform Jadex, database server Oracle Spatial 10g, and also the development environment for ontological models - Protégé Version 3.4.</p>
304

SemProj: Ein Semantic Web – basiertes System zur Unterstützung von Workflow- und Projektmanagement

Langer, André 26 March 2008 (has links) (PDF)
Mit mehr als 120 Millionen registrierten Internetadressen (Stand: März 2007) symbolisiert das Internet heutzutage das größte Informationsmedium unserer Zeit. Täglich wächst das Internet um eine unüberschaubare Menge an Informationen. Diese Informationen sind häufig in Dokumenten hinterlegt, welche zur Auszeichnung die Hypertext Markup Language verwenden. Seit Beginn der Neunziger Jahre hat sich dieses System bewährt, da dadurch der einzelne Nutzer in die Lage versetzt wird, auf einfache und effiziente Weise Dokumentinhalte mit Darstellungsanweisungen zu versehen und diese eigenständig im Internet zu veröffentlichen. Diese Layoutinformationen können bei Abruf der entsprechenden Ressource durch ein Computerprogramm leicht ausgewertet und zur Darstellung der Inhalte genutzt werden. Obwohl sowohl die Layoutinformationen als auch die eigentlichen Dokumentinhalte in einem textuellen Format vorliegen, konnten die Nutzertextinhalte durch eine Maschine bisher nur sehr eingeschränkt verarbeitet werden. Während es menschlichen Nutzern keinerlei Probleme bereitet, die Bedeutung einzelner Texte auf einer Webseite zu identifizieren, stellen diese für einen Rechner prinzipiell nur eine Aneinanderreihung von ASCII-Zeichen dar. Sobald es möglich werden würde, die Bedeutung von Informationen durch ein Computerprogramm effizient zu erfassen und weiterzuverarbeiten, wären völlig neue Anwendungen mit qualitativ hochwertigeren Ergebnissen im weltweiten Datennetz möglich. Nutzer könnten Anfragen an spezielle Agenten stellen, welche sich selbstständig auf die Suche nach passenden Resultaten begeben; Informationen verschiedener Informationsquellen könnten nicht nur auf semantischer Ebene verknüpft, sondern daraus sogar neue, nicht explizit enthaltene Informationen abgeleitet werden. Ansätze dazu, wie Dokumente mit semantischen Metadaten versehen werden können, gibt es bereits seit einiger Zeit. Lange umfasste dies jedoch die redundante Bereitstellung der Informationen in einem eigenen Dokumentenformat, weswegen sich keines der Konzepte bis in den Privatbereich durchsetzen konnte und als Endkonsequenz in den vergangenen Monaten besonderes Forschungsinteresse darin aufkam, Möglichkeiten zu finden, wie semantische Informationen ohne großen Zusatzaufwand direkt in bestehende HTML-Dokumente eingebettet werden können. Die vorliegende Diplomarbeit möchte diese neuen Möglichkeiten im Bereich des kollaborativen Arbeitens näher untersuchen. Ziel ist es dazu, eine Webapplikation zur Abwicklung typischer Projektmanagement-Aufgaben zu entwickeln, welche jegliche Informationen unter einem semantischen Gesichtspunkt analysieren, aufbereiten und weiterverarbeiten kann und unabhängig von der konkreten Anwendungsdomain und Plattform systemübergreifend eingesetzt werden kann. Die Konzepte Microformats und RDFa werden dabei besonders herausgestellt und nach Schwächen und zukünftigen Potentialen hin untersucht. / The World Wide Web supposably symbolizes with currently more than 120 million registered internet domains (March 2007) the most comprehensive information reference of all times. The amount of information available increases by a storming bulk of data ever day. Those information is often embedded in documents which utilize the Hypertext Markup Language. This enables the user to mark out certain layout properties of a text in an easy and efficient fashion and to publish the final document containing both layout and data information. A computer application is then able to extract style information from the document resource and to use it in order to render the resulting website. Although layout information and data are both equally represented in a textual manner, a machine was hardly capable of processing user content so far. Whereas human consumers have no problem to identify and understand the sense of several paragraphs on a website, they basically represent only a concatenation of ASCII characters for a machine. If it were possible to efficiently disclose the sense of a word or phrase to a computer program in order to process it, new astounding applications with output results of high quality would be possible. Users could create queries for specialized agents which autonomously start to search the web for adequate result matches. Moreover, the data of multiple information sources could be linked and processed together on a semantic level so that above all new, not explicitly stated information could be inferred. Approaches already exist, how documents could be enhanced with semantic metadata, however, many of these involve the redundant provision of those information in a specialized document format. As a consequence none of these concepts succeeded in becoming a widely used method and research started again to find possibilities how to embed semantic annotations without huge additional efforts in an ordinary HTML document. The present thesis focuses on an analysis of these new concepts and possibilities in the area of collaborative work. The objective is to develop the prototype of a web application with which it is possible to manage typical challenges in the realm of project and workflow management. Any information available should be processable under a semantic viewpoint which includes analysis, conditioning and reuse independently from a specific application domain and a certain system platform. Microformats and RDFa are two of those relatively new concepts which enable an application to extract semantic information from a document resource and are therefore particularly exposed and compared with respect to advantages and disadvantages in the context of a “Semantic Web”.
305

PROTOCOLE DE DECOUVERTE SENSIBLE AU CONTEXTE POUR LES SERVICES WEB SEMANTIQUES

Roxin, Ana 30 November 2009 (has links) (PDF)
Le Web d'aujourd'hui représente un espace où les utilisateurs recherchent, découvrent et partagent des informations. Dans ce cadre, les processus de découverte de services Web jouent un rôle fondamental. Un tel processus permet de faire le lien entre des informations publiées par des fournisseurs de services et des requêtes créées par les internautes. Généralement, un tel processus repose sur une recherche " textuelle " ou à base de " mots-clés ". Or, ce type de recherche ne parvient pas à toujours identifier les services les plus pertinents. Notre idée est de concevoir un système plus " intelligent ", permettant d'utiliser, lors du processus de découverte, une base de connaissances associées aux informations, comme c'est le cas pour le Web sémantique. Cette thèse présente un prototype pour la découverte de services Web sémantiques, utilisant des caractéristiques non-fonctionnelles (descriptives) des services. Notre approche emploie le langage OWL-S (Web Ontology Language for Services) pour définir un modèle de description des paramètres non-fonctionnels des services. Ce modèle a pour but de faciliter la découverte de services Web sémantiques. Ce modèle représente le centre de notre contribution, étant utilisé pour la conception des interfaces et des requêtes. Deux interfaces sont développées, l'une s'adressant aux fournisseurs de services, alors que la deuxième interface est conçue pour l'utilisateur final. L'algorithme de recherche présenté dans cette thèse a pour but d'améliorer la précision et la complétude du processus de découverte de services.
306

Analyse Statique de Requête pour le Web Sémantique

Chekol, Melisachew Wudage 19 December 2012 (has links) (PDF)
L'inclusion de requête est un problème bien étudié durant plusieurs décen- nies de recherche. En règle générale, il est défini comme le problème de déterminer si le résultat d'une requête est inclus dans le résultat d'une autre requête pour tout ensem- ble de données. Elle a des applications importantes dans l'optimisation des requêtes et la vérification de bases de connaissances. L'objectif principal de cette thèse est de fournir des procédures correctes et complètes pour déterminer l'inclusion des requêtes SPARQL en vertu d'axiomes exprimés en logiques de description. De plus, nous met- tons en œuvre ces procédures à l'appui des résultats théoriques par l'expérimentation. À ce jour, l'inclusion de requête a été testée à l'aide de différentes techniques: ho- momorphisme de graphes, bases de données canoniques, les techniques de la théorie des automates et réduction au problème de la validité d'une logique. Dans cette thèse, nous utilisons la derniere technique pour tester l'inclusion des requêtes SPARQL utilisant une logique expressive appelée le μ-calcul. Pour ce faire, les graphes RDF sont codés comme des systèmes de transitions, et les requêtes et les axiomes du schéma sont codés comme des formules de μ-calcul. Ainsi, l'inclusion de requêtes peut être réduite au test de la validité d'une formule logique. Dans cette thèse j'identifier les divers fragments de SPARQL (et PSPARQL) et les langages de description logique de schéma pour lequelle l'inculsion est décidable. En outre, afin de fournir théoriquement et expérimentalement des procédures éprouvées pour vérifier l'inclusion de ces fragments décidables. Enfin, cette thèse propose un point de repère pour les solveurs d'inclusion. Ce benchmark est utilisé pour tester et comparer l'état actuel des solveurs d'inclusion.
307

Αξιοποίηση τεχνολογιών ανοικτού κώδικα για την ανάπτυξη εφαρμογών σημασιολογικού ιστού

Κασσέ, Παρασκευή 14 February 2012 (has links)
Τα τελευταία χρόνια υπάρχει εκθετική αύξηση του όγκου της πληροφορίας που δημοσιεύεται στο Διαδίκτυο. Καθώς όμως η πληροφορία αυτή δε συνδέεται με τη σημασιολογία της παρατηρείται δυσκολία στη διαχείρισή της και στην πρόσβαση σε αυτήν. Ο Σημασιολογικός Ιστός, λοιπόν, είναι μια ομάδα μεθόδων και τεχνολογιών που σκοπεύουν να δώσουν τη δυνατότητα στις μηχανές να κατανοήσουν τη “σημασιολογία” των πληροφοριών σχετικά με τον Παγκόσμιο Ιστό. Ο Σημασιολογικός Ιστός (Semantic Web) αποτελεί επέκταση του Παγκοσμίου Ιστού. Στο Σημασιολογικό Ιστό οι πληροφορίες εμπλουτίζονται με μεταδεδομένα, τα οποία υπακουούν σε κοινά πρότυπα και επιτρέπουν την εξαγωγή γνώσεως από την ήδη υπάρχουσα, καθώς επίσης και το συνδυασμό της υπάρχουσας πληροφορίας με στόχο την εξαγωγή συμπερασμάτων. Απώτερος στόχος του Σημασιολογικού Ιστού είναι η βελτιωμένη αναζήτηση, η εκτέλεση σύνθετων διεργασιών και η εξατομίκευση της πληροφορίας σύμφωνα με τις ανάγκες του κάθε χρήστη. Στην παρούσα διπλωματική εργασία μελετήθηκε η χρήση των τεχνολογιών του Σημασιολογικού Ιστού για τη βελτίωση της πρόσβασης σε πολιτισμικά δεδομένα. Συγκεκριμένα αρχικά έγινε εμβάθυνση στις τεχνολογίες και στις θεμελιώδεις έννοιες του Σημασιολογικού Ιστού. Παρουσιάστηκαν αναλυτικά οι βασικές γλώσσες σήμανσης: XML που επιτρέπει τη δημιουργία δομημένων εγγράφων με λεξιλόγιο καθορισμένο από το χρήστη, RDF που προσφέρει ένα μοντέλο δεδομένων για την περιγραφή πληροφοριών με τέτοιο τρόπο ώστε να είναι δυνατή η ανάγνωση και η κατανόησή τους από μηχανές. Αναφέρθηκαν, ακόμη, οι διάφοροι τρόποι σύνταξης της γλώσσας RDF καθώς και πως γίνεται αναζήτηση σε γράφους RDF με το πρωτόκολλο SPARQL. Στη συνέχεια ακολουθεί η περιγραφή της RDFS, που πρόκειται για γλώσσα περιγραφής του RDF λεξιλογίου. Έχοντας παρουσιαστεί σε προηγούμενο κεφάλαιο η έννοια της οντολογίας, γίνεται αναφορά στη σημασιολογική γλώσσα σήμανσης OWL, που χρησιμοποιείται για την έκδοση και διανομή οντολογιών στο Διαδίκτυο. Έπειτα ακολουθεί μια ανασκόπηση από επιλεγμένα έργα, ελληνικά, ευρωπαϊκά και διεθνή, των τελευταίων ετών που χρησιμοποιούν τις τεχνολογίες του Σημασιολογικού Ιστού στο τομέα του πολιτισμού και της πολιτισμικής κληρονομιάς. Τέλος στο έβδομο κεφάλαιο παρουσιάζεται μία εφαρμογή διαχείρισης αρχαιολογικών χώρων-μνημείων και μελετώνται σε βάθος οι τεχνολογίες και τα εργαλεία που χρησιμοποιήθηκαν για την υλοποίησή της. / Over the past few years there has been exponential increase of the volume of information published on the Internet. Since information is not connected to its semantics, it is difficult to manipulate and access it. Therefore, the Semantic Web consists of methods and technologies that aim to enable machines to understand information’s semantics. The Semantic Web is an extension of the World Wide Web (WWW). Specifically, information is enriched with metadata, which are subject to common standards and permit knowledge extraction from the existing one and the combination of existing information in order to infer implicit knowledge, as well. Future goals of the Semantic Web are enhanced searching, complicated processes’ execution and information personalization according to each user’s needs. This post-graduate diploma thesis researches the usage of Semantic Web technologies for the enhancement of the access to cultural data. More specifically, Semantic Web technologies and essential concepts were studied. Basic markup languages were presented analytically: XML that allows structured documents’ creation with user defined vocabulary, RDF that offers a data model for such information description that it is readable and understandable by machines. Also, various RDF syntaxes and how to search RDF graphs using SPARQL protocol were referred. Below RDFS description follows, that is a description language of RDF vocabulary. After having introduced the concept of ontology in previous chapter, the semantic markup language OWL is presented, that is used for ontology publishing and distribution on the Internet. A review of selected projects of the last years, Greek, European and international, which are characterized by the application of technologies of the Semantic Web in the sector of Culture and Cultural heritage, is presented. In the last chapter, an application that manages archaeological places- sites is presented and it is studied technologies and tools that were used for it.
308

Σχεδιασμός και υλοποίηση δημοσιογραφικού RDF portal με μηχανή αναζήτησης άρθρων

Χάιδος, Γεώργιος 11 June 2013 (has links)
Το Resource Description Framework (RDF) αποτελεί ένα πλαίσιο περιγραφής πόρων ως μεταδεδομένα για το σημασιολογικό ιστό. Ο σκοπός του σημασιολογικού ιστού είναι η εξέλιξη και επέκταση του υπάρχοντος παγκόσμιου ιστού, έτσι ώστε οι χρήστες του να μπορούν ευκολότερα να αντλούν συνδυασμένη την παρεχόμενη πληροφορία. Ο σημερινός ιστός είναι προσανατολισμένος στον άνθρωπο. Για τη διευκόλυνση σύνθετων αναζητήσεων και σύνθεσης επιμέρους πληροφοριών, ο ιστός αλλάζει προσανατολισμό, έτσι ώστε να μπορεί να ερμηνεύεται από μηχανές και να απαλλάσσει το χρήστη από τον επιπλέον φόρτο. Η πιο φιλόδοξη μορφή ενσωμάτωσης κατάλληλων μεταδεδομένων στον παγκόσμιο ιστό είναι με την περιγραφή των δεδομένων με RDF triples αποθηκευμένων ως XML. Το πλαίσιο RDF περιγράφει πόρους, ορισμένους με Uniform Resource Identifiers (URI’s) ή literals με τη μορφή υποκείμενου-κατηγορήματος-αντικειμένου. Για την ορθή περιγραφή των πόρων ενθαρρύνεται από το W3C η χρήση υπαρχόντων λεξιλογίων και σχημάτων , που περιγράφουν κλάσεις και ιδιότητες. Στην παρούσα εργασία γίνεται υλοποίηση ενός δημοσιογραφικού RDF portal. Για τη δημιουργία RDF/XML, έχουν χρησιμοποιηθεί τα λεξιλόγια και σχήματα που συνιστούνται από το W3C καθώς και των DCMI και PRISM. Επίσης χρησιμοποιείται για την περιγραφή typed literals to XML σχήμα του W3C και ένα σχήμα του portal. Η δημιουργία των μεταδεδομένων γίνεται αυτόματα από το portal με τη χρήση των στοιχείων που συμπληρώνονται στις φόρμες δημοσίευσης άρθρων και δημιουργίας λογαριασμών. Για τον περιορισμό του χώρου αποθήκευσης τα μεταδεδομένα δεν αποθηκεύονται αλλά δημιουργούνται όταν ζητηθούν. Στην υλοποίηση έχει δοθεί έμφαση στην ασφάλεια κατά τη δημιουργία λογαριασμών χρήστη με captcha και κωδικό ενεργοποίησης με hashing. Για τη διευκόλυνση του έργου του αρθρογράφου, έχει εισαχθεί και επεκταθεί ο TinyMCE Rich Text Editor, o οποίος επιτρέπει τη μορφοποίηση του κειμένου αλλά και την εισαγωγή εικόνων και media. Ο editor παράγει αυτόματα HTML κώδικα από το εμπλουτισμένο κείμενο. Οι δυνατότητες του editor επεκτάθηκαν κυρίως με τη δυνατότητα για upload εικόνων και media και με την αλλαγή κωδικοποίησης για συμβατότητα με τα πρότυπα της HTML5. Για επιπλέον συμβατότητα με την HTML5 εισάγονται από το portal στα άρθρα ετικέτες σημασιολογικής δομής. Εκτός από τα άρθρα που δημιουργούνται με τη χρήση του Editor, δημοσιοποιούνται και άρθρα από εξωτερικές πηγές. Στη διαδικασία που είναι αυτόματη και επαναλαμβανόμενη, γίνεται επεξεργασία και αποθήκευση μέρους των δεδομένων των εξωτερικών άρθρων. Στον αναγνώστη του portal παρουσιάζεται ένα πρωτοσέλιδο και σελίδες ανά κατηγορία με τα πρόσφατα άρθρα. Στο portal υπάρχει ενσωματωμένη μηχανή αναζήτησης των άρθρων, με πεδία για φιλτράρισμα χρονικά, κατηγορίας, αρθρογράφου-πηγής αλλά και λέξεων κλειδιών. Οι λέξεις κλειδιά προκύπτουν από την περιγραφή του άρθρου στη φόρμα δημιουργίας ή αυτόματα. Όταν τα άρθρα προέρχονται από εξωτερικές πηγές, η διαδικασία είναι υποχρεωτικά αυτόματη. Για την αυτόματη ανεύρεση των λέξεων κλειδιών από ένα άρθρο χρησιμοποιείται η συχνότητα της λέξης στο άρθρο, με τη βαρύτητα που δίνεται από την HTML για τη λέξη (τίτλος, έντονη γραφή), κανονικοποιημένη για το μέγεθος του άρθρου και η συχνότητα του λήμματος της λέξης σε ένα σύνολο άρθρων που ανανεώνεται. Για την ανάκτηση των άρθρων χρησιμοποιείται η τεχνική των inverted files για όλες τις λέξεις κλειδιά. Για τη μείωση του όγκου των δεδομένων και την επιτάχυνση απάντησης ερωτημάτων, αφαιρούνται από την περιγραφή λέξεις που παρουσιάζουν μεγάλη συχνότητα και μικρή αξία ανάκτησης πληροφορίας “stop words”. Η επιλογή μιας αντιπροσωπευτικής λίστας με stop words πραγματοποιήθηκε με τη χρήση ενός σώματος κειμένων από άρθρα εφημερίδων, τη μέτρηση της συχνότητας των λέξεων και τη σύγκριση τους με τη λίστα stop words της Google. Επίσης για τον περιορισμό του όγκου των δεδομένων αλλά και την ορθότερη απάντηση των ερωτημάτων, το portal κάνει stemming στις λέξεις κλειδιά, παράγοντας όρους που μοιάζουν με τα λήμματα των λέξεων. Για to stemming έγινε χρήση της διατριβής του Γεώργιου Νταή του Πανεπιστημίου της Στοκχόλμης που βασίζεται στη Γραμματική της Νεοελληνικής Γραμματικής του Μανώλη Τριανταφυλλίδη. Η επιστροφή των άρθρων στα ερωτήματα που περιλαμβάνουν λέξεις κλειδιά γίνεται με κατάταξη εγγύτητας των λέξεων κλειδιών του άρθρου με εκείνο του ερωτήματος. Γίνεται χρήση της συχνότητας των λέξεων κλειδιών και της συχνότητας που έχουν οι ίδιες λέξεις σε ένα σύνολο άρθρων που ανανεώνεται. Για την αναζήτηση γίνεται χρήση θησαυρού συνώνυμων λέξεων. / The Resource Description Framework (RDF) is an appropriate framework for describing resources as metadata in the Semantic Web. The aim of semantic web is the development and expansion of the existing web, so users can acquire more integrated the supplied information. Today's Web is human oriented. In order to facilitate complex queries and the combination of the acquired data, web is changing orientation. To relieve the user from the extra burden the semantic web shall be interpreted by machines. The most ambitious form incorporating appropriate metadata on the web is by the description of data with RDF triples stored as XML. The RDF framework describes resources, with the use of Uniform Resource Identifiers (URI's) or literals as subject-predicate-object. The use of existing RDF vocabularies to describe classes and properties is encouraged by the W3C. In this work an information-news RDF portal has been developed. The RDF / XML, is created using vocabularies and schemas recommended by W3C and the well known DCMI and PRISM. The metadata is created automatically with the use of data supplied when a new articles is published. To facilitate the journalist job, a Rich Text Editor, which enables formatting text and inserting images and media has been used and expanded. The editor automatically generates HTML code from text in a graphic environment. The capabilities of the editor were extended in order to support images and media uploading and media encoding changes for better compatibility with the standards of HTML5. Apart from uploading articles with the use of the editor the portal integrates articles published by external sources. The process is totally automatic and repetitive. The user of the portal is presented a front page and articles categorized by theme. The portal includes a search engine, with fields for filtering time, category, journalist-source and keywords. The keywords can be supplied by the publisher or selected automatically. When the articles are integrated from external sources, the process is necessarily automatic. For the automatic selection of the keywords the frequency of each word in the article is used. Extra weight is given by the HTML for the words stressed (e.g. title, bold, underlined), normalized for the size of the article and stem frequency of the word in a set of articles that were already uploaded. For the retrieval of articles by the search engine the portal is using an index as inverted files for all keywords. To reduce the data volume and accelerate the query processing words that have high frequency and low value information retrieval "stop words" are removed. The choice of a representative list of stop words is performed by using a corpus of newspaper articles, measuring the frequency of words and comparing them with the list of stop words of Google. To further reduce the volume of data and increase the recall to questions, the portal stems the keywords. For the stemming the rule based algorithm presented in the thesis of George Ntais in the University of Stockholm -based Grammar was used. The returned articles to the keywords queried by the search engine are ranked by the proximity of the keywords the article is indexed. To enhance the search engine synonymous words are also included by the portal.
309

Estudo de alternativa de valorização de resíduos de serviços de saúde advindos de processo de desinfecção por desativação eletrotérmica (ETD) / Study of energy recovery the alternative from healthcare waste from disinfection process by electrothermal deactivation (ETD).

Adriana Amaral Martini 14 December 2016 (has links)
Introdução. Os Resíduos de Serviços de Saúde (RSS) correspondem à pequena parcela dos Resíduos Sólidos Urbanos (RSU) de uma comunidade. No entanto, sua composição e a periculosidade requerem tratamento e destinação adequados, em especial dos resíduos dos grupos A (infectantes), B (químicos), C (radioativos) e E (perfurocortantes). No município de São Paulo, os resíduos infectantes (A e E) são desinfetados por meio da tecnologia de desativação eletrotérmica, na Unidade de Tratamento de Resíduos (UTR), resultando em resíduos similares aos comuns (classe IIA). Essa unidade trata 100 toneladas/dia de resíduos infectantes e os encaminha para disposição no solo em aterro sanitário, a um custo de R$ 198.000,00/mês, incidindo além do custo em impactos ambientais do transporte e da disposição final e não atendendo aos requisitos de valorização de resíduos trazidos pela Política Nacional de Resíduos Sólidos (PNRS). Objetivos. A pesquisa objetivou estudar as alternativas de valorização energética dos resíduos pós-tratados, com foco na composição e no teor energético desses resíduos, considerando as exigências legais e as tecnologias disponíveis. Método. Foi desenvolvido um método de coleta de amostras, integrando resíduos das 2 linhas operacionais de tratamento, e realizadas análises dos parâmetros de poder calorífico e composição gravimétrica. Os resultados foram comparados aos parâmetros correspondentes aos RSU, considerando que o tratamento confere aos resíduos póstratados esta similaridade. Resultados. A composição gravimétrica identificou a presença de materiais de alto poder energético. O valor médio do poder calorífico inferior (PCI) resultou em 5.872,5 Kcal/Kg, representando 3,5 vezes o correspondente aos RSU. Conclusão. A caracterização física realizada por meio de análise gravimétrica e de poder calorífico comprovou a similaridade dos resíduos pós-tratados com os RSU, validando sua indicação à valorização energética por meio das tecnologias de coprocessamento, incineração, plasma, pirólise e gaseificação. No caso, a valorização energética apresenta ganhos: a) diretos: economia de R$ 198.000,00/mês com transporte e disposição em aterro sanitário; e a produção de CDR que poderá ser comercializado; e b) indiretos: aumento da vida útil do aterro sanitário; minimização de possíveis impactos ambientais; a não emissão de gases de efeito estufa decorrentes do transporte; minimização de passivos ambientais; e o atendimento à hierarquia de resíduos da PNRS, fechando o ciclo de vida dos produtos dentro do conceito de economia circular. / Introduction. The Healthcare Waste (HCW) corresponds to the small share of Municipal Solid Waste (MSW) of a community. However, their composition and hazardous require adequate treatment and disposal, especially the (infectious), B (chemical), C (radioactive) and E (sharp). In São Paulo, infectious wastes (A and E) are disinfected through the electrothermal deactivation technology, in the Waste Treatment Unit (WTU), resulting in a waste similar to the common ones (class IIA). This unit treats 100 tons / day of infectious waste and forwards them to landfill for disposal with a cost of R$ 198,000.00 / month, with transport and final disposal environmental impact, and not meeting the National Solid Waste Policy (NSWP) requirements for waste recovery. Objectives. The aim of this research was study the alternatives for energy recovery of post-treated waste, focusing on the composition and energy content of these wastes, considering the legal requirements and the available technologies. Methods. Was developed a method for sample collection, integrating residues from the 2 operational lines of treatment, and analyzes parameters of calorific value and gravimetric composition. The results were compared to with parameters corresponding to the MSW, considering the treatment confers the post-treated residues this similarity. Results. The gravimetric composition identified the presence of high energy materials. The mean value of the lower calorific value (LCV) resulted in 5,872.5 Kcal / kg, representing 3.5 times that the RSU. Conclusions. The physical characterization carried out means of gravimetric and calorific analysis proved the similarity of residues posttreated with MSW, validating their indication for the energy recovery through coprocessing, incineration, plasma, pyrolysis and gasification technologies. In this case, the energy valorization presents winnings: a) direct: savings R $ 198,000.00 / month with transportation and disposition in landfill; and the RDF production can be commercialized; and b) indirect: increase the useful life of landfill; minimization of possible environmental impacts; the non-emission of greenhouse gases from transport; minimization of environmental liabilities; and compliance the waste hierarchy in the PNRS, closing the products life cycle within the concept of circular economy.
310

Investigation of an OSLC-domain targeting ISO 26262 : Focus on the left side of the Software V-model

Castellanos Ardila, Julieth Patricia January 2016 (has links)
Industries have adopted a standardized set of practices for developing their products. In the automotive domain, the provision of safety-compliant systems is guided by ISO 26262, a standard that specifies a set of requirements and recommendations for developing automotive safety-critical systems. For being in compliance with ISO 26262, the safety lifecycle proposed by the standard must be included in the development process of a vehicle. Besides, a safety case that shows that the system is acceptably safe has to be provided. The provision of a safety case implies the execution of a precise documentation process. This process makes sure that the work products are available and traceable. Further, the documentation management is defined in the standard as a mandatory activity and guidelines are proposed/imposed for its elaboration. It would be appropriate to point out that a well-documented safety lifecycle will provide the necessary inputs for the generation of an ISO 26262-compliant safety case. The OSLC (Open Services for Lifecycle Collaboration) standard and the maturing stack of semantic web technologies represent a promising integration platform for enabling semantic interoperability between the tools involved in the safety lifecycle. Tools for requirements, architecture, development management, among others, are expected to interact and shared data with the help of domains specifications created in OSLC.This thesis proposes the creation of an OSLC tool-chain infrastructure for sharing safety-related information, where fragments of safety information can be generated. The steps carried out during the elaboration of this master thesis consist in the identification, representation, and shaping of the RDF resources needed for the creation of a safety case. The focus of the thesis is limited to a tiny portion of the ISO 26262 left-hand side of the V-model, more exactly part 6 clause 8 of the standard:  Software unit design and implementation. Regardless of the use of a restricted portion of the standard during the execution of this thesis, the findings can be extended to other parts, and the conclusions can be generalize.This master thesis is considered one of the first steps towards the provision of an OSLC-based and ISO 26262-compliant methodological approach for representing and shaping the work products resulting from the execution of the safety lifecycle, documentation required in the conformation of an ISO-compliant safety case. / Espresso 2 / Gen&ReuseSafetyCases

Page generated in 0.0367 seconds