• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 128
  • 30
  • 14
  • 12
  • 12
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 224
  • 224
  • 106
  • 91
  • 52
  • 45
  • 38
  • 35
  • 31
  • 31
  • 30
  • 30
  • 28
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Le Web de données et le Web sémantique à Bibliothèque et Archives nationales du Québec : constats et recommandations fondés sur l'initiative de la Bibliothèque nationale de France

St-Germain, Marielle 05 1900 (has links)
Ce mémoire traite des concepts et de l'implantation du Web sémantique et du Web de données au sein d'institutions documentaires. Une analyse et une définition des technologies caractérisant ces concepts sont d'abord présentés dans l'objectif de les clarifier et d'assurer une bonne compréhension des différents enjeux qui en découlent pour les acteurs du domaine. Ensuite, les éléments démontrant la pertinence et les défis pour les professionnels de l'information sont décrits. Puis, l'objectif est d'analyser le processus de mise sur pied d'un projet de Web de données au sein de la Bibliothèque nationale de France pour proposer une transposition possible au contexte de Bibliothèque et Archives nationales du Québec, en vue d'une application. La liste des treize étapes pour l'implantation d'un projet de Web de données en bibliothèque ainsi que la proposition de l'application d'une méthodologie de développement de logiciel à ces pratiques sont ensuite présentées. Suite à cette analyse, des recommandations quant aux différentes étapes d'implantation sont proposées. / This dissertation discusses the concepts and implementation of Semantic Web and Linked Data within libraries. Analysis and definition of technologies characterizing these concepts are first presented with the objective to clarify and ensure a good understanding of the various issues arising for actors in the field. Then, the elements demonstrating the relevance and challenges for information professionals are described. The objective is to analyze the implementation process of a Linked Data project with the Bibliothèque nationale de France to propose a possible transposition to the context of Bibliothèque et Archives nationales du Québec, for an application within the latter. A list of thirteen steps for the implementation of a library Linked Data project and the proposal for applying a software development process on these practices are presented. Following this analysis, recommendations regarding these various stages of implementation are proposed.
162

Publikování bibliografických informací v souladu s principy linked data / Publishing of bibliographic information according to the Linked Data principles

Hladká, Jitka January 2010 (has links)
Bibliographic data provide well established means of the information resource description. Nowadays, there is obvious need to make this data more web-friendly and web-compatible, while web is mostly seen as the only place where people are seeking information. The proposed solution is to change the traditional bibliographic data representation format. Semantic Web initiative presents enhancement of the current web with machine processable data semantics (meaning). The main goal is to manage more effective information processing by web applications that brings up many benefits for web users. Linked data are seen as practical means to reach the semantic web vision. This initiative promotes best practices of publishing, connecting and sharing structural data on the web. This thesis reports the transformation of bibliographic records' format in case of Database of publishing activities at University of Economics, Prague (PCVSE). Benefits of linked data publishing model are demonstrated on the realized projects. The main part describes practical experiences gained during the implementation of RDF framework in phases of data modelling, interlinking and exposing the dataset. The linked data publishing model is seen there as an optimal web-compatible bibliographic data representation format.
163

La recommandation des jeux de données basée sur le profilage pour le liage des données RDF / Profile-based Datas and Recommendation for RDF Data Linking

Ben Ellefi, Mohamed 01 December 2016 (has links)
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées. / With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community.
164

Topological stability and textual differentiation in human interaction networks: statistical analysis, visualization and linked data / Estabilidade topológica e diferenciação textual em redes de interação humana: análise estatística, visualização e dados ligados

Fabbri, Renato 08 May 2017 (has links)
This work reports on stable (or invariant) topological properties and textual differentiation in human interaction networks, with benchmarks derived from public email lists. Activity along time and topology were observed in snapshots in a timeline, and at different scales. Our analysis shows that activity is practically the same for all networks across timescales ranging from seconds to months. The principal components of the participants in the topological metrics space remain practically unchanged as different sets of messages are considered. The activity of participants follows the expected scale-free outline, thus yielding the hub, intermediary and peripheral classes of vertices by comparison against the Erdös-Rényi model. The relative sizes of these three sectors are essentially the same for all email lists and the same along time. Typically, 3-12% of the vertices are hubs, 15-45% are intermediary and 44-81% are peripheral vertices. Texts from each of such sectors are shown to be very different through direct measurements and through an adaptation of the Kolmogorov-Smirnov test. These properties are consistent with the literature and may be general for human interaction networks, which has important implications for establishing a typology of participants based on quantitative criteria. For guiding and supporting this research, we also developed a visualization method of dynamic networks through animations. To facilitate verification and further steps in the analyses, we supply a linked data representation of data related to our results. / Este trabalho relata propriedades topológicas estáveis (ou invariantes) e diferenciação textual em redes de interação humana, com referências derivadas de listas públicas de e-mail. A atividade ao longo do tempo e a topologia foram observadas em instantâneos ao longo de uma linha do tempo e em diferentes escalas. A análise mostra que a atividade é praticamente a mesma para todas as redes em escalas temporais de segundos a meses. As componentes principais dos participantes no espaço das métricas topológicas mantêm-se praticamente inalteradas quando diferentes conjuntos de mensagens são considerados. A atividade dos participantes segue o esperado perfil livre de escala, produzindo, assim, as classes de vértices dos hubs, dos intermediários e dos periféricos em comparação com o modelo Erdös-Rényi. Os tamanhos relativos destes três setores são essencialmente os mesmos para todas as listas de e-mail e ao longo do tempo. Normalmente, 3-12% dos vértices são hubs, 15-45% são intermediários e 44-81% são vértices periféricos. Os textos de cada um destes setores são considerados muito diferentes através de uma adaptação dos testes de Kolmogorov-Smirnov. Estas propriedades são consistentes com a literatura e podem ser gerais para redes de interação humana, o que tem implicações importantes para o estabelecimento de uma tipologia dos participantes com base em critérios quantitativos. De modo a guiar e apoiar esta pesquisa, também desenvolvemos um método de visualização para redes dinâmicas através de animações. Para facilitar a verificação e passos seguintes nas análises, fornecemos uma representação em dados ligados dos dados relacionados aos nossos resultados.
165

Uma proposta de publicação de dados do orçamento público na Web / A proposal for public budget data publishing in the Web

Santana, Marcelo Tavares de 04 December 2013 (has links)
Este trabalho apresenta uma proposta de publicação de dados de execução do orçamento público em acordo com a legislação brasileira. A partir das leis e da revisão da literatura foram levantados requisitos que devem ser considerados numa publicação de dados que seja processável por máquina. São apresentadas dimensões de dados como qualidade de dados, metadados e taxonomia, além das abordagens Dados Governamentais Abertos e Linked Data. A proposta de publicação resultante além de alinhada com os requisitos estudados prevê processamento por máquina em três níveis: tratamento de dados, validação de dados e colecionamento de conjuntos de dados. Com as tecnologias selecionadas, como XBRL e XSLT, alcançou-se um modelo que atendeu cartorze requisitos levantados, abrindo caminho para estudos como a de uma rede de conjuntos de dados baseada nesta proposta. / This paper presents a proposal for publishing public budget data in accordance with Brazilian law. From the laws have raised requirements that must be considered in the publication data format that is machine-processable. From the literature review were also raised requirements that are part of the proposed publication of this work, such as controlled vocabularies, metadata and taxonomy. Two approaches of open data were also considered in the preparation of the publication format: Open Government Data and Linked Data. The proposed publication resulting from this work, that use technologies like XBRL and XSLT, is aligned with the raised requirements provides three levels of machine-processing: data processing, data validation and collecting datasets.
166

Towards the French Biomedical Ontology Enrichment / Vers l'enrichissement d'ontologies biomédicales françaises

Lossio-Ventura, Juan Antonio 09 November 2015 (has links)
En biomedicine, le domaine du « Big Data » (l'infobésité) pose le problème de l'analyse de gros volumes de données hétérogènes (i.e. vidéo, audio, texte, image). Les ontologies biomédicales, modèle conceptuel de la réalité, peuvent jouer un rôle important afin d'automatiser le traitement des données, les requêtes et la mise en correspondance des données hétérogènes. Il existe plusieurs ressources en anglais mais elles sont moins riches pour le français. Le manque d'outils et de services connexes pour les exploiter accentue ces lacunes. Dans un premier temps, les ontologies ont été construites manuellement. Au cours de ces dernières années, quelques méthodes semi-automatiques ont été proposées. Ces techniques semi-automatiques de construction/enrichissement d'ontologies sont principalement induites à partir de textes en utilisant des techniques du traitement du langage naturel (TALN). Les méthodes de TALN permettent de prendre en compte la complexité lexicale et sémantique des données biomédicales : (1) lexicale pour faire référence aux syntagmes biomédicaux complexes à considérer et (2) sémantique pour traiter l'induction du concept et du contexte de la terminologie. Dans cette thèse, afin de relever les défis mentionnés précédemment, nous proposons des méthodologies pour l'enrichissement/la construction d'ontologies biomédicales fondées sur deux principales contributions.La première contribution est liée à l'extraction automatique de termes biomédicaux spécialisés (complexité lexicale) à partir de corpus. De nouvelles mesures d'extraction et de classement de termes composés d'un ou plusieurs mots ont été proposées et évaluées. L'application BioTex implémente les mesures définies.La seconde contribution concerne l'extraction de concepts et le lien sémantique de la terminologie extraite (complexité sémantique). Ce travail vise à induire des concepts pour les nouveaux termes candidats et de déterminer leurs liens sémantiques, c'est-à-dire les positions les plus pertinentes au sein d'une ontologie biomédicale existante. Nous avons ainsi proposé une approche d'extraction de concepts qui intègre de nouveaux termes dans l'ontologie MeSH. Les évaluations, quantitatives et qualitatives, menées par des experts et non experts, sur des données réelles soulignent l'intérêt de ces contributions. / Big Data for biomedicine domain deals with a major issue, the analyze of large volume of heterogeneous data (e.g. video, audio, text, image). Ontology, conceptual models of the reality, can play a crucial role in biomedical to automate data processing, querying, and matching heterogeneous data. Various English resources exist but there are considerably less available in French and there is a strong lack of related tools and services to exploit them. Initially, ontologies were built manually. In recent years, few semi-automatic methodologies have been proposed. The semi-automatic construction/enrichment of ontologies are mostly induced from texts by using natural language processing (NLP) techniques. NLP methods have to take into account lexical and semantic complexity of biomedical data : (1) lexical refers to complex phrases to take into account, (2) semantic refers to sense and context induction of the terminology.In this thesis, we propose methodologies for enrichment/construction of biomedical ontologies based on two main contributions, in order to tackle the previously mentioned challenges. The first contribution is about the automatic extraction of specialized biomedical terms (lexical complexity) from corpora. New ranking measures for single- and multi-word term extraction methods have been proposed and evaluated. In addition, we present BioTex software that implements the proposed measures. The second contribution concerns the concept extraction and semantic linkage of the extracted terminology (semantic complexity). This work seeks to induce semantic concepts of new candidate terms, and to find the semantic links, i.e. relevant location of new candidate terms, in an existing biomedical ontology. We proposed a methodology that extracts new terms in MeSH ontology. The experiments conducted on real data highlight the relevance of the contributions.
167

Uma proposta de publicação de dados do orçamento público na Web / A proposal for public budget data publishing in the Web

Marcelo Tavares de Santana 04 December 2013 (has links)
Este trabalho apresenta uma proposta de publicação de dados de execução do orçamento público em acordo com a legislação brasileira. A partir das leis e da revisão da literatura foram levantados requisitos que devem ser considerados numa publicação de dados que seja processável por máquina. São apresentadas dimensões de dados como qualidade de dados, metadados e taxonomia, além das abordagens Dados Governamentais Abertos e Linked Data. A proposta de publicação resultante além de alinhada com os requisitos estudados prevê processamento por máquina em três níveis: tratamento de dados, validação de dados e colecionamento de conjuntos de dados. Com as tecnologias selecionadas, como XBRL e XSLT, alcançou-se um modelo que atendeu cartorze requisitos levantados, abrindo caminho para estudos como a de uma rede de conjuntos de dados baseada nesta proposta. / This paper presents a proposal for publishing public budget data in accordance with Brazilian law. From the laws have raised requirements that must be considered in the publication data format that is machine-processable. From the literature review were also raised requirements that are part of the proposed publication of this work, such as controlled vocabularies, metadata and taxonomy. Two approaches of open data were also considered in the preparation of the publication format: Open Government Data and Linked Data. The proposed publication resulting from this work, that use technologies like XBRL and XSLT, is aligned with the raised requirements provides three levels of machine-processing: data processing, data validation and collecting datasets.
168

Identification automatique d'entités pour l'enrichissement de contenus textuels

Stern, Rosa 28 June 2013 (has links) (PDF)
Cette thèse propose une méthode et un système d'identification d'entités (personnes, lieux, organisations) mentionnées au sein des contenus textuels produits par l'Agence France Presse dans la perspective de l'enrichissement automatique de ces contenus. Les différents domaines concernés par cette tâche ainsi que par l'objectif poursuivi par les acteurs de la publication numérique de contenus textuels sont abordés et mis en relation : Web Sémantique, Extraction d'Information et en particulier Reconnaissance d'Entités Nommées (\ren), Annotation Sémantique, Liage d'Entités. À l'issue de cette étude, le besoin industriel formulé par l'Agence France Presse fait l'objet des spécifications utiles au développement d'une réponse reposant sur des outils de Traitement Automatique du Langage. L'approche adoptée pour l'identification des entités visées est ensuite décrite : nous proposons la conception d'un système prenant en charge l'étape de \ren à l'aide de n'importe quel module existant, dont les résultats, éventuellement combinés à ceux d'autres modules, sont évalués par un module de Liage capable à la fois (i) d'aligner une mention donnée sur l'entité qu'elle dénote parmi un inventaire constitué au préalable, (ii) de repérer une dénotation ne présentant pas d'alignement dans cet inventaire et (iii) de remettre en cause la lecture dénotationnelle d'une mention (repérage des faux positifs). Le système \nomos est développé à cette fin pour le traitement de données en français. Sa conception donne également lieu à la construction et à l'utilisation de ressources ancrées dans le réseau des \ld ainsi que d'une base de connaissances riche sur les entités concernées.
169

Techniques d'optimisation pour des données semi-structurées du web sémantique

Leblay, Julien 27 September 2013 (has links) (PDF)
RDF et SPARQL se sont imposés comme modèle de données et langage de requêtes standard pour décrire et interroger les données sur la Toile. D'importantes quantités de données RDF sont désormais disponibles, sous forme de jeux de données ou de méta-données pour des documents semi-structurés, en particulier XML. La coexistence et l'interdépendance grandissantes entre RDF et XML rendent de plus en plus pressant le besoin de représenter et interroger ces données conjointement. Bien que de nombreux travaux couvrent la production et la publication, manuelles ou automatiques, d'annotations pour données semi-structurées, peu de recherches ont été consacrées à l'exploitation de telles données. Cette thèse pose les bases de la gestion de données hybrides XML-RDF. Nous présentons XR, un modèle de données accommodant l'aspect structurel d'XML et la sémantique de RDF. Le modèle est suffisamment général pour représenter des données indépendantes ou interconnectées, pour lesquelles chaque nœud XML est potentiellement une ressource RDF. Nous introduisons le langage XRQ, qui combine les principales caractéristiques des langages XQuery et SPARQL. Le langage permet d'interroger la structure des documents ainsi que la sémantique de leurs annotations, mais aussi de produire des données semi-structurées annotées. Nous introduisons le problème de composition de requêtes dans le langage XRQ et étudions de manière exhaustive les techniques d'évaluation de requêtes possibles. Nous avons développé la plateforme XRP, implantant les algorithmes d'évaluation de requêtes dont nous comparons les performances expérimentalement. Nous présentons une application reposant sur cette plateforme pour l'annotation automatique et manuelle de pages trouvées sur la Toile. Enfin, nous présentons une technique pour l'inférence RDFS dans les systèmes de gestion de données RDF (et par extension XR).
170

The epidemiology of respiratory infections diagnosed in Western Australian hospital emergency departments 2000 to 2003

Ingarfield, Sharyn Lee January 2007 (has links)
[Truncated abstract] Background Emergency department (ED) presentations of respiratory infections are not well described. Baseline ED data are needed to monitor trends, and to help evaluate the impact of health interventions, and assess changes in clinical practice for these conditions. Aims: To describe the epidemiology of respiratory infections diagnosed in Western Australian hospital EDs from 2000 to 2003; to determine the extent and usefulness of bacterial cultures ordered in hospital, and to describe and evaluate the antibiotic prescribing pattern in the ED setting. Methods: The cohort consisted of patients diagnosed with a respiratory infection at the ED of Perth's major metropolitan teaching hospitals from 1 July 2000 to 30 June 2003. The analysis was based on a linked data set containing patient data from the Emergency Department Information System, the Hospital Morbidity Data Set, the death registry, and the Ultra Laboratory Information System. Further, a sample of patient medical records from 1 adult hospital was examined to assess antibiotic prescribing practice. Results: Overall, there were 37,455 presentations (28,885 patients) given an ED diagnosis of a respiratory infection. Of these, 14,884 (39.7%, 95% CI: 39.2 to 40.2) were admitted and 715 (1.9%, 95% CI: 1.8 to 2.0) died in hospital. The infections included; 48.1% acute upper respiratory infections (URI), 18.5% pneumonia, 23.5% other acute lower respiratory infections (LRI), 7.4% chronic obstructive pulmonary disease with lower respiratory infection (COPD+), 1.3% influenza or viral pneumonia and 1.2% other URI. Children accounted for 80.7% of acute URI diagnoses, COPD+ mainly affected the elderly, just over 40% of pneumonia diagnoses were in patients 65 years or older and 30.7% in patients younger than 15 years. ... The most common pathogen isolated from blood was Streptococcus pneumoniae and 10.4% (95% CI: 4.8 to 16.0) had reduced susceptibility to penicillin. For those diagnosed with pneumonia, Strep. pneumoniae accounted for over 90% of pathogens isolated from the blood of young children and isolation of Enterobacteriaceae from blood increased with age. Around 30% of patients had positive sputum cultures and from these Haemophilus influenzae, Strep. pneumoniae and Pseudomonas aeruginosa were the most common organisms grown. Of those diagnosed with pneumonia, acute LRI or COPD+, 34.7% (95% CI: 26.1 to 43.3) of S. aureus isolated from sputum and 16.4% (95% CI: 7.1 to 25.7) from blood were methicillin resistant. Of 366 adult patient medical records reviewed, 56.8% (95% CI: 51.7 to 61.9) noted that an antibiotic was prescribed in the ED and amoxycillin was the most frequently prescribed. For those with pneumonia, concordance between prescribing guidelines and practice was low. Conclusions The administrative data sets used in the present study are useful for monitoring outcomes for respiratory infections diagnosed in the ED. Pneumonia continues to place a burden on the hospital system. Routine blood and sputum cultures have limited value. However, an appropriately designed surveillance program is needed to monitor potential Abstract v respiratory pathogens and assist in monitoring the appropriateness of current empiric antimicrobial therapy.

Page generated in 0.0467 seconds