• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 12
  • 9
  • 1
  • Tagged with
  • 110
  • 23
  • 22
  • 12
  • 11
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Organisational awareness : mapping human capital for enhancing collaboration in organisations / La sensibilisation organisationnelle : la cartographie du capital humain pour le renforcement de la collaboration dans les organisations

Garbash, Dor Avraham 13 October 2016 (has links)
Comment peut-on devenir plus conscients des sources de connaissance au sein des organisations des humains? Les changements économiques et technologiques rapides forcent les organisations à devenir plus souples, agiles et interdisciplinaires. Pour cela, les organisations cherchent des alternatives pour les structures de communication hiérarchiques traditionnelles qui entravent les pratiques de collaboration ascendantes. Pour que les méthodes ascendantes soient efficaces, il est nécessaire d'offrir aux membres l'accès à l'information et à l'expertise dont ils ont besoin pour prendre des décisions qualifiées. Ceci est un défi complexe qui implique la culture organisationnelle, l'informatique et les pratiques de travail. Un défaut au niveau de l'application de ce système peut aborder des points critiques qui peuvent ralentir les processus de travail, d'entraver l'innovation et qui conduisent souvent au travail suboptimal et redondant. Par exemple, une enquête 2014 de 152 dirigeants de Campus IT aux Etats-Unis, estime que 19% des systèmes informatiques du campus sont redondants, ce qui coûte les universités des Etats-Unis 3.8B$ par an. Dans l'ensemble, les travailleurs intellectuels trouvent l'information dont ils ont besoin seulement 56% du temps. Avec un quart du temps total des travailleurs intellectuels consacré à la recherche et l'analyse des informations. Ce gaspillage de temps coûte 7K$ pour chaque employé par an. Un autre exemple du gaspillage est celui des nouveaux arrivants et des employés promus qui peuvent prendre jusqu'à 2 ans pour s'intégrer pleinement au sein de leur département. En outre et selon des enquêtes étendues, seulement 28% des apprenants estiment que leurs organisations actuelles «utilisent pleinement» les compétences qu'ils ont actuellement capable d'offrir et 66% prévoient quitter leur organisation en 2020. Réussir la résolution de ce défi est capable de motiver les membres de l'organisation, ainsi que d'y améliorer l'innovation et l'apprentissage. L'objectif de cette thèse est de mieux comprendre ce problème en explorant les défis rencontrés par le service d'informatique dans une université et un centre de recherche interdisciplinaire. Deuxièmement, co-développer et mettre en œuvre une solution avec ces institutions, je décris leur utilisation des logiciels que nous avons développés, les résultats et la valeur obtenus avec ces pilotes. Troisièmement, tester l'efficacité de la solution, et explorer de nouvelles applications et le potentiel d'un tel système similaire pour être utilisé dans une plus grande échelle. Pour mieux comprendre le problème je me suis engagé dans une discussion avec les membres et les dirigeants des deux organisations. Une conclusion importante des discussions est que les membres de ces organisations souffrent souvent d'un manque de sensibilisation à propos de leurs connaissances-compétences au niveau d'organisation du capital, et la connaissance des processus et des relations sociales avec leurs collègues dans l'organisation. Grâce à cette exposition, les idées novatrices, les opportunités et les intérêts communs des pairs sont sévèrement limités. Cela provoque des retards inutiles dans les projets inter-équipes, des goulots d'étranglement, et un manque de sensibilisation sur les possibilités de stages. Aussi, j'ai craqué le problème et je l’avais défini comme l'une des informations de fragmentation: Différentes informations sont stockées dans des bases de données disparates ou dans la tête des gens, exigeant un effort et de savoir-faire pour l'obtenir. (...) / How can we become more aware of the sources of insight within human organisations? Rapid economical and technological changes force organisations to become more adaptive, agile and interdisciplinary. In light of this, organisations are seeking alternatives for traditional hierarchical communication structures that hinder bottom-up collaboration practices. Effective bottom-up methods require empowering members with access to the information and expertise they need to take qualified decisions. This is a complex challenge that involves organisational culture, IT and work practices. Failing to address it creates bottlenecks that can slow down business processes, hinder innovation and often lead to suboptimal and redundant work. For example, a 2014 survey of 152 Campus IT leaders in the US, estimated that 19% of the campus IT systems are redundant, costing US universities 3.8B$ per year. In aggregate, knowledge workers find the information they need only 56% of the time. With a quarter of knowledge workers total work time spent in finding and analyzing information. This time waste alone costs 7K$ per employee annually. Another example of the waste created is that newcomers and remote employees may take up to 2 years to fully integrate within their department. Furthermore according to extended surveys, only 28% of millennials feel that their current organizations are making ‘full use’ of the skills they currently have to offer and 66% expect to leave their organisation by 2020. Successfully resolving this challenge holds the potential to motivate organisation members, as well as enhance innovation and learning within it. The focus of this thesis is to better understand this problem by exploring the challenges faced by a university IT department and an interdisciplinary research center. Second, co-develop and implement a solution with these institutions, I describe their usage of the software tool we developed, outcomes and value obtained in these pilots. Third, test the effectiveness of the solution, and explore further applications and potential for a similar system to be used in a wider scale. To better understand the problem I engaged in discussion with members and leaders of both organisations. An important conclusion from the discussions is that members of these organizations often suffer from lack of awareness about their organisation’s knowledge capital—the competencies, knowledge of processes and social connections of their colleagues. Due to this exposure to innovative ideas, opportunities and common interests of peers is severely limited. This causes unnecessary delays in inter-team projects, bottlenecks, and lack of awareness about internship opportunities. I further broke down the problem, and defined it as one of information fragmentation: Different information is stored in disparate databases or inside people’s heads, requiring effort and know-how in order to obtain it. Following the conclusions of this analysis and state-of-the-art review, we have set together the goal to create a collaborative visual database to map the people, projects, skills and institutions for the IT department of Descartes University, and in addition, people, interests and internship opportunities within the CRI, an interdisciplinary research and education center. We have also conducted interviews, surveys and quizzes that ascertain that people had difficulties identifying experts outside their core teams. During the course of this thesis, I progressively addressed this challenge by developing two collaborative web applications called Rhizi and Knownodes. Knownodes is a collaborative knowledge graph which utilized information-rich edges to describe relationships between resources. Rhizi is a real-time and collaborative knowledge capital mapping interface. A prominent unique feature of Rhizi is that it provides a UI that turns text-based assertions made by users into a visual knowledge graph. (...)
102

The collection, organisation and use of information by voluntary information providers

Louw, Anna 06 1900 (has links)
This is the first study undertaken into the way in which voluntary workers, untrained in information skills and working in community information services, collect, organise and use the information they provide to assist clients needing it for their day-to-day survival. The study is placed in perspective through a survey of the literature relating to community information services. This is supplemented by a study of documents relating to the Pretoria Citizens' Advice Bureau. Data was collected by means of participant observation at the Pretoria Citizens' Advice Bureau and interviews with voluntary workers in the Bureau. Analysis of the data was carried out according to the grounded theory approach. It was found that untrained volunteers creating information storage and retrieval tools for use by their fellow volunteers, work without a knowledge of information storage and retrieval theory. They tend to make ad hoc decisions and create tools that are not as user-friendly as they could be with some background in the theory of information science. On the other hand, volunteers searching for information make the same kind of demands of the information storage and retrieval system they use as do professional and scientific information users, in that they want direct access to as much relevant information as possible in one place. They want the information repackaged in a manner to suit their purpose. When under pressure, they are reluctant to consult multiple information storage and retrieval tools not within easy reach. The study culminates in a number of recommendations for the improvement of the service of the Pretoria Citizens' Advice Bureau in particular. Recommendations are also put forward for a centralised computerised database providing processed information to community information services in South Africa. Some suggestions are made concerning education and training of volunteers and professional information workers with a view to providing a better understanding of community information services. / Information Science / D. Lit. et Phil.
103

Rapprochement de données pour la reconnaissance d'entités dans les documents océrisés / Data matching for entity recognition in ocred documents

Kooli, Nihel 13 September 2016 (has links)
Cette thèse traite de la reconnaissance d'entités dans les documents océrisés guidée par une base de données. Une entité peut être, par exemple, une entreprise décrite par son nom, son adresse, son numéro de téléphone, son numéro TVA, etc. ou des méta-données d'un article scientifique tels que son titre, ses auteurs et leurs affiliations, le nom de son journal, etc. Disposant d'un ensemble d'entités structurées sous forme d'enregistrements dans une base de données et d'un document contenant une ou plusieurs de ces entités, nous cherchons à identifier les entités contenues dans le document en utilisant la base de données. Ce travail est motivé par une application industrielle qui vise l'automatisation du traitement des images de documents administratifs arrivant en flux continu. Nous avons abordé ce problème comme un problème de rapprochement entre le contenu du document et celui de la base de données. Les difficultés de cette tâche sont dues à la variabilité de la représentation d'attributs d'entités dans la base et le document et à la présence d'attributs similaires dans des entités différentes. À cela s'ajoutent les redondances d'enregistrements et les erreurs de saisie dans la base de données et l'altération de la structure et du contenu du document, causée par l'OCR. Devant ces problèmes, nous avons opté pour une démarche en deux étapes : la résolution d'entités et la reconnaissance d'entités. La première étape consiste à coupler les enregistrements se référant à une même entité et à les synthétiser dans un modèle entité. Pour ce faire, nous avons proposé une approche supervisée basée sur la combinaison de plusieurs mesures de similarité entre attributs. Ces mesures permettent de tolérer quelques erreurs sur les caractères et de tenir compte des permutations entre termes. La deuxième étape vise à rapprocher les entités mentionnées dans un document avec le modèle entité obtenu. Nous avons procédé par deux manières différentes, l'une utilise le rapprochement par le contenu et l'autre intègre le rapprochement par la structure. Pour le rapprochement par le contenu, nous avons proposé deux méthodes : M-EROCS et ERBL. M-EROCS, une amélioration/adaptation d'une méthode de l'état de l'art, consiste à faire correspondre les blocs de l'OCR avec le modèle entité en se basant sur un score qui tolère les erreurs d'OCR et les variabilités d'attributs. ERBL consiste à étiqueter le document par les attributs d'entités et à regrouper ces labels en entités. Pour le rapprochement par les structures, il s'agit d'exploiter les relations structurelles entre les labels d'une entité pour corriger les erreurs d'étiquetage. La méthode proposée, nommée G-ELSE, consiste à utiliser le rapprochement inexact de graphes attribués modélisant des structures locales, avec un modèle structurel appris pour cet objectif. Cette thèse étant effectuée en collaboration avec la société ITESOFT-Yooz, nous avons expérimenté toutes les étapes proposées sur deux corpus administratifs et un troisième corpus extrait du Web / This thesis focuses on entity recognition in documents recognized by OCR, driven by a database. An entity is a homogeneous group of attributes such as an enterprise in a business form described by the name, the address, the contact numbers, etc. or meta-data of a scientific paper representing the title, the authors and their affiliation, etc. Given a database which describes entities by its records and a document which contains one or more entities from this database, we are looking to identify entities in the document using the database. This work is motivated by an industrial application which aims to automate the image document processing, arriving in a continuous stream. We addressed this problem as a matching issue between the document and the database contents. The difficulties of this task are due to the variability of the entity attributes representation in the database and in the document and to the presence of similar attributes in different entities. Added to this are the record redundancy and typing errors in the database, and the alteration of the structure and the content of the document, caused by OCR. To deal with these problems, we opted for a two-step approach: entity resolution and entity recognition. The first step is to link the records referring to the same entity and to synthesize them in an entity model. For this purpose, we proposed a supervised approach based on a combination of several similarity measures between attributes. These measures tolerate character mistakes and take into account the word permutation. The second step aims to match the entities mentioned in documents with the resulting entity model. We proceeded by two different ways, one uses the content matching and the other integrates the structure matching. For the content matching, we proposed two methods: M-EROCS and ERBL. M-EROCS, an improvement / adaptation of a state of the art method, is to match OCR blocks with the entity model based on a score that tolerates the OCR errors and the attribute variability. ERBL is to label the document with the entity attributes and to group these labels into entities. The structure matching is to exploit the structural relationships between the entity labels to correct the mislabeling. The proposed method, called G-ELSE, is based on local structure graph matching with a structural model which is learned for this purpose. This thesis being carried out in collaboration with the ITESOFT-Yooz society, we have experimented all the proposed steps on two administrative corpuses and a third one extracted from the web
104

Αποδοτικοί αλγόριθμοι και προσαρμοστικές τεχνικές διαχείρισης δικτυακών πληροφοριακών συστημάτων και εφαρμογών παγκόσμιου ιστού / Efficient algorithms and adaptive techniques for net-centric information systems and web applications management

Σακκόπουλος, Ευάγγελος 25 June 2007 (has links)
Στα πλαίσια της διδακτορικής μας διατριβής ασχοληθήκαμε με προβλήματα διαχείρισης δικτυακών πληροφοριακών συστημάτων που βασίζονται σε τεχνολογίες παγκόσμιου ιστού (network-centric information systems, netcentric information systems, web information systems). Η έννοια της δικτυο-κεντρικής προσέγγισης (netcentric) προσπαθεί να αποδώσει την τάση να χρησιμοποιείται η δικτυακή υποδομή και τεχνολογία όλο και περισσότερο στα πληροφοριακά συστήματα και τις εφαρμογές παγκόσμιου ιστού για να παρέχουν, να δημοσιοποιούν, να διαμοιράζουν και να επικοινωνούν online υπηρεσίες και πληροφορίες. Κύριος στόχος της διατριβής είναι α) η διασφάλιση της ποιότητας κατά την εξυπηρέτηση, β) η μείωση του χρόνου εντοπισμού και γ) η εξατομίκευση υπηρεσιών και πληροφοριών σε δικτυακά πληροφοριακά περιβάλλοντα και εφαρμογές που βασίζονται σε τεχνολογίες μηχανικής Παγκόσμιου Ιστού. Σε πρώτο επίπεδο, οι αποδοτικοί αλγόριθμοι που αναπτύξαμε αφορούν τις υπηρεσίες Web Services που έχουν σχεδιαστεί να υποστηρίζουν διαλειτουργική αλληλεπίδραση μεταξύ μηχανών με χρήση δικτυακής υποδομής. Πρόκειται ένα τεχνολογικό πλαίσιο το οποίο προτυποποιήθηκε από το W3 Consortium (http://www.w3.org) και γνωρίζει την ευρεία υποστήριξη τόσο της επιστημονικής κοινότητας τεχνολογιών πληροφορικής και επικοινωνιών όσο και των επαγγελματιών μηχανικών Η/Υ και της βιομηχανίας πληροφορικής παγκοσμίως. Αναλυτικότερα στο πρώτο μέρος της διατριβής δίνουμε αρχικά μία νέα κατηγοριοποίηση και συγκριτική παρουσίαση των λύσεων και προβλημάτων που αφορούν αποδοτικές λύσεις αλγορίθμων διαχείρισης και αναζήτησης υπηρεσιών. Στη συνέχεια, εισάγουμε μια σειρά από νέους αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών που διασφαλίζουν την ποιότητα της παρεχόμενης υπηρεσίας και βελτιώνουν την πολυπλοκότητα στο χρόνο εντοπισμού μιας υπηρεσίας. Συνολικά στο πρώτο μέρος παρουσιάζουμε: - Αποδοτικούς αλγορίθμους δυναμικής επιλογής Web Service που λαμβάνουν υπόψη μη λειτουργικές προδιαγραφές για ποιότητα και απόδοση κατά την προσπάθεια χρήσης (consumption) του Web Service (QoWS enabled WS discovery). - Αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών δικτυο-κεντρικών πληροφοριακών συστημάτων οι οποίοι βασίζονται σε αποκεντρικοποιημένες δικτυακές λύσεις ειδικά σχεδιασμένες για WS καταλογογράφηση (decentralized WS discovery). Σε δεύτερο επίπεδο, δίνουμε αποδοτικές προσαρμοστικές μεθόδους για την εξατομίκευση των αποτελεσμάτων αναζήτησης πληροφοριών στον Παγκόσμιο Ιστό. Με τον τρόπο αυτό επιτυγχάνουμε βελτίωση της απόδοσης τόσο για τις εσωτερικές λειτουργίες διαχείρισης και αναζήτησης των δικτυακών πληροφοριακών συστημάτων όσο και του τελικού αποτελέσματος, της πληροφορίας δηλαδή, που παρουσιάζουν τα συστήματα αυτά στον τελικό χρήστη. Συγκεκριμένα, στο δεύτερο μέρος της διατριβής εισάγουμε μια σειρά από τρεις αλγορίθμους εξατομίκευση των αποτελεσμάτων αναζήτησης, οι οποίοι βασίζονται σε τεχνικές μετρικών συνδέσμων (link metrics). Το κύριο πλεονέκτημα των τεχνικών που προτείνουμε είναι ότι επιτρέπουν, με τη χρήση μιας αρκετά απλής μεθοδολογίας, την εξατομίκευση των αποτελεσμάτων αναζήτησης, χωρίς να επιβαρύνονται οι χρήστες σε όγκο αποθήκευσης ή με καθυστερήσεις λόγου χρόνου εκτέλεσής τους. Επιτυγχάνουμε εξατομικευμένη αναζήτηση εφαρμόζοντας τεχνικές ανάλυσης και επεξεργασίας συνδέσμων όχι στο γράφο ιστού αλλά για πρώτη φορά σε αρκετά μικρότερους εξατομικευμένους γράφους που σχηματίζονται από διαθέσιμες σημασιολογικές ταξονομίες. Συνοψίζοντας τα ερευνητικά αποτελέσματα του δεύτερου μέρους παρουσιάζουμε τα ακόλουθα: - Αποδοτικοί αλγόριθμοι για εξατομικευμένη αναζήτηση πληροφορίας (personalized searching) στον Παγκόσμιο Ιστό. - Μηχανισμός προσαρμοστικής παρουσίασης αποτελεσμάτων αναζήτησης με χρήση πολλαπλών επιπέδων κατηγοριοποίησης. - Επέκταση των αλγορίθμων για μηχανισμούς στοχευμένης συλλογής σελίδων (focused web crawlers) που αποτελούν εναλλακτική της εξατομικευμένης αναζήτησης πληροφοριών. Τέλος στο τρίτο και τελευταίο μέρος της διατριβής παρουσιάζουμε μια σειρά από εφαρμογές, αρχιτεκτονικές και λειτουργικά πλαίσια τα οποία αφορούν δικτυακά πληροφοριακά περιβάλλοντα στα οποία εφαρμόζουμε τεχνικές διαχείρισης υπηρεσιών και μηχανισμούς εξατομίκευσης πληροφοριών. O κύριος στόχος της παρουσίασης των λύσεων αυτών είναι να επιδειχθεί ότι οι προτεινόμενοι αποδοτικοί αλγόριθμοι, που παρουσιάστηκαν στα προηγούμενα κεφάλαια, έχουν εφαρμογή σε πολλαπλά προβλήματα διαφορετικών επιστημονικών και τεχνολογικών πεδίων που χρησιμοποιούν δικτυακά πληροφοριακά συστήματα και εφαρμογές παγκόσμιου ιστού. / In our PhD dissertation we dealt with performance issues in network - centric information systems, netcentric information systems and web information systems. Netcentric approach attempts to depict the augmenting tendency to use the network communication in information systems and web applications in order to provide, to publish, to distribute and to communicate online services and information. The key aim of our doctoral thesis is a) the quality at the service provision, v) the reduction of discovery time and c) the personalization of services and information in network information systems and applications that are based on web engineering technologies. Initially, we studied, designed and implemented efficient algorithms concerning Web Services technologies that have been designed to facilitate interoperable service integration using network infrastructure. Web Services Architecture has been standardized by W3 Consortium (http://www.w3.org) as the technological framework and it has received the wide support of the information technology scientific community as well as the information technology (IT) professionals and industry worldwide. In the first section we introduce a new categorization and comparative presentation of the available algorithmic solutions for service management and discovery. Then, we introduce a series of new efficient algorithms that ensure quality of service provision and improve time complexity in service discovery. Overall in the first part of the thesis we present: - Efficient algorithms for dynamic Web Service selection taking into account non-functional specifications (Quality of Web Service – QoWS) and performance issues during Web Service (WS) consumption attempt (i.e. QoWS enabled WS discovery). - Efficient algorithms for service management and discovery in network centric information systems that are based on decentralized network approaches specifically designed for WS discovery. In the sequel, we propose efficient adaptive methods for personalized web searching. In this way we provide performance improvement both for the internal management and discovery functionality of web based net-centric information systems as well as for the systems’ output that is the end-user information. In particular, in the second section, we introduce a series of three new algorithms for personalized searching. The proposed algorithms are mainly based on link metrics techniques. Their main advantage is that they allow, with the use of a simple methodology, search results personalization, with minimum overhead in terms of storage volume and computation time. We achieve personalized search using link analysis in a personalized graph much smaller one than the whole web graph. The personalized graph is shaped taking advantage of semantic taxonomies. Summarizing the novel research results of this second section are the following: - Efficient algorithms for personalized web information searching. - Adaptive presentation mechanisms of search results with the use of multiple levels of novel categorization. - Extension that allows the adoption of the algorithms for the case of focused web crawling mechanisms, which constitute an alternative personalized searching approach. Finally in the third and last section of our thesis, we present a series of applications, architectures and frameworks of different web based net-centric information environments cases, in which we apply our techniques for service management and personalized information discovery. The main objective of this presentation is to show that the efficient algorithms presented in the previous sections, have multiple potentials of application in problems of different research and technological areas using web based net-centric informative systems and web applications. Cases presented include network management information systems, e-learning approaches, semantic mining and multimedia retrieval systems, web content and structure maintenance solutions and agricultural information systems.
105

The collection, organisation and use of information by voluntary information providers

Louw, Anna 06 1900 (has links)
This is the first study undertaken into the way in which voluntary workers, untrained in information skills and working in community information services, collect, organise and use the information they provide to assist clients needing it for their day-to-day survival. The study is placed in perspective through a survey of the literature relating to community information services. This is supplemented by a study of documents relating to the Pretoria Citizens' Advice Bureau. Data was collected by means of participant observation at the Pretoria Citizens' Advice Bureau and interviews with voluntary workers in the Bureau. Analysis of the data was carried out according to the grounded theory approach. It was found that untrained volunteers creating information storage and retrieval tools for use by their fellow volunteers, work without a knowledge of information storage and retrieval theory. They tend to make ad hoc decisions and create tools that are not as user-friendly as they could be with some background in the theory of information science. On the other hand, volunteers searching for information make the same kind of demands of the information storage and retrieval system they use as do professional and scientific information users, in that they want direct access to as much relevant information as possible in one place. They want the information repackaged in a manner to suit their purpose. When under pressure, they are reluctant to consult multiple information storage and retrieval tools not within easy reach. The study culminates in a number of recommendations for the improvement of the service of the Pretoria Citizens' Advice Bureau in particular. Recommendations are also put forward for a centralised computerised database providing processed information to community information services in South Africa. Some suggestions are made concerning education and training of volunteers and professional information workers with a view to providing a better understanding of community information services. / Information Science / D. Lit. et Phil.
106

Open data locale : acteurs, pratiques et dispositifs / Local open data : stakeholders, practices and tools

Rahme, Patricia 16 September 2016 (has links)
Cette étude sur les projets open data dans les collectivités locales vise à associer, dans une approche globale, les modes de production et de collecte de données, les méthodes de diffusion et les dispositifs utilisés, et enfin les modèles d’usage des données publiques numériques. Partant de l’hypothèse que l’open data donne lieu à une nouvelle distribution des rôles des acteurs impliqués tout au long du processus d’ouverture, nous avons distingué un positionnement dynamique des acteurs qui ne se limite pas à une étape du processus d’ouverture des données - que ce soit de réflexion, production, de diffusion, de promotion ou d’usage - ce qui crée un système mixte d’open data. L’étude du système d’offre des collectivités nous a amené à considérer son adéquation avec les besoins des utilisateurs. Nous avons montré que malgré les efforts de créer un système multi-acteur, la mise en oeuvre de l’identification et de la collecte des données est éclectique et instable et ne construit pas un processus solide de l’Open data. Malgré l’urgence suggérée par le contexte politique et sociétal, l’ouverture et le choix des données sont généralement déterminés par des considérations pragmatiques qui imposent une ouverture lente mais progressive sans prétendre à l’exhaustivité.Il s’agit aussi d’examiner les plateformes open data considérées comme des « dispositifs socio-techniques » émergeants du web social dans leurs aspects de médiations, partage, collaboration et de coproduction de données. Dans ce cadre, nos observations nous permettent de mettre en exergue, de questionner et d’analyser les plateformes open data dont leur architecture principale nous amènent à les qualifier «dispositifs socio-techniques ». Ils sont des outils sociaux car ils donnent lieu à des formes d’action. Autour d’un catalogue de jeux de données, il subsiste des espaces virtuels, des blogs, des forums d’interactions entre les producteurs et les réutilisateurs des données ouvertes. / The main purpose of this survey is to explore the process of implementation of open data projects at the local level. The main challenge in realization of any open data project is the engagement of different stakeholders. In this respect, we distinguish a dynamic positioning of stakeholders not limited to one stage of the process - whether during the first phase of reflections before launching the project, the data production, dissemination, promotion or use - creating a mixed system of open data. The study of data offer on open data platforms led us to consider its appropriateness to the needs of users. We have shown that despite the efforts to create a multi-player system, the implementation, identification and data collection is eclectic and unstable and not building a solid process of Open Data. Despite the urgency suggested by the political and societal context, openness and choice of data are generally determined by pragmatic considerations that impose a slow but gradual opening without claiming to be exhaustive. By analyzing open data platforms, this leads us to qualify them as "socio-technical tools" emerging from the social web in their aspects of mediation, sharing, collaboration and co-production data. They are social tools because they give rise to forms of action. Around a catalog of data sets, there are still virtual spaces, blogs, forums of interaction between producers and re-users of open data.
107

Dissémination et communication des résultats de la recherche clinique dans les médias / Dissemination and communication of clinical research in mass media

Haneef, Romana 18 October 2017 (has links)
Les médias et les réseaux sociaux constituent une source importante de diffusion et de communication des résultats de la recherche clinique. Le terme « spin » est utilisé lorsque la présentation et l’interprétation des résultats d’une étude sont déformées par les auteurs que ce soit intentionnellement ou involontairement. Les spins exagèrent les effets bénéfiques des interventions et sous-estiment les effets indésirables. Les principaux objectifs de ce travail étaient :1) d’évaluer la prévalence des « spins » dans les articles de presse, d’identifier les différentes stratégies de spin et de développer une classification de spin ; 2) d’identifier les facteurs associés à une diffusion des résultats via les réseaux sociaux et 3) d’étudier comment les articles scientifiques rapportés avec des spins diffusent via les réseaux sociaux, à partir de l’exemple de l’essai DAPT 2014. Dans un premier temps, nous avons réalisé une revue systématique des articles de presse décrivant les résultats d’études évaluant une intervention et indexés dans la rubrique santé de Google. Nous avons développé une classification des stratégies de spin pour les articles de presse et montré que la prévalence des spins est élevée. Dans un deuxième temps, nous avons réalisé une étude de cohorte d’articles évaluant les traitements contre le cancer pour identifier les facteurs associés à une attention médiatique élevée. Le critère de jugement principal était l’attention portée par les médias et les réseaux sociaux mesuré par le « score Altmetric ». Nos résultats ont montré l’importance de l’accès libre et des communiqués de presse. Enfin, nous avons effectué une analyse systématique de l’attention portée par les médias et les réseaux sociaux autour de l'étude DAPT qui était rapporté avec des spins sous estimant les effets indésirable de l’intervention. Nous avons montré que l’interprétation des résultats par les auteurs sont rarement contredits. Ces travaux ont permis de mettre en évidence l’importance des spins dans les médias et de développer des outils (classification de spin) pour améliorer la diffusion des résultats de la recherche. / Mass media and social networks are important sources of disseminating and communicating clinical research. The term “spin” is used when the presentation and interpretation of the results of a study is distorted by the authors intentionally or unintentionally. Spins exaggerate the beneficial effects of interventions and underestimate adverse effects. The main objectives of this PhD were (I) to assess the prevalence of spin in health news, as well as identify and classify different strategies of spin; (II) to identify factors associated with dissemination of research results through online media, and (III) to explore how results of a trial reported with spin were disseminated to the scientific community and online media, using the 2014 DAPT trial as a case study. For the first aim, we performed a cross-sectional study of health news and described the distortion of research results of studies evaluating an intervention in Google health news. We developed a classification of spin for health news and showed a high prevalence of spin. For the second aim, we performed a cohort study of articles evaluating cancer treatments and identify factors associated with high online media attention. The primary outcome was the attention received by media and social networks measured by Altmetric score. Our results highlighted the importance of open access and press releases. Finally, we performed a systematic review of attention received by media and social networks surrounding the DAPT study which were reported with spin and undermine the adverse effects of the treatment. We showed that the interpretation of results by authors was rarely criticized. These results highlighted the importance of spin in mass media and provided a tool (classification of spin) to improve the dissemination of research results.
108

Ανάπτυξη συστημάτων δημοσιεύσεων/συνδρομών σε δομημένα δίκτυα ομοτίμων εταίρων / Content-based publish/subscribe systems over DHT-based Peer-to-Peer Networks

Αικατερινίδης, Ιωάννης 18 April 2008 (has links)
Τα τελευταία χρόνια οι εφαρμογές συνεχούς μετάδοσης ροών πληροφορίας στο διαδίκτυο έχουν γίνει ιδιαίτερα δημοφιλείς. Με τον συνεχώς αυξανόμενο ρυθμό εισόδου νέων αντικειμένων πληροφορίας, γίνεται ολοένα και πιο επιτακτική η ανάγκη για την ανάπτυξη πληροφορικών συστημάτων που να μπορούν να προσφέρουν στους χρήστες τους μόνο εκείνες τις πληροφορίες που τους ενδιαφέρουν, φιλτράροντας τεράστιους όγκους από άσχετες για τον κάθε χρήστη, πληροφορίες. Ένα μοντέλο διάδοσης πληροφορίας ικανό να ενσωματώσει τέτοιου είδους ιδιότητες, είναι το μοντέλο δημοσιεύσεων/συνδρομών βασισμένο στο περιεχόμενο ( content-based publish/subscribe) Βασική συνεισφορά μας στο χώρο είναι η εφαρμογή του μοντέλου δημοσιεύσεων/συνδρομών βασισμένου στο περιεχόμενο (content-based publish/subscribe) πάνω στα δίκτυα ομοτίμων ώστε να μπορέσουμε να προσφέρουμε στους χρήστες υψηλή εκφραστικότητα κατά την δήλωση των ενδιαφερόντων τους, λειτουργώντας σε ένα πλήρως κατανεμημένο και κλιμακώσιμο περιβάλλον. Ο κορμός των προτεινόμενων λύσεων σε αυτή τη διατριβή είναι: (α) η ανάπτυξη αλγορίθμων για την αποθήκευση των κλειδιών των δημοσιεύσεων σε κατάλληλους κόμβους του δικτύου με βάση τις συνθήκες στο περιεχόμενο που έχουν δηλωθεί και (β) αλγορίθμων δρομολόγησης δημοσιεύσεων στο διαδίκτυο έτσι ώστε να ((συναντούν)) αυτούς τους κόμβους οι οποίοι περιέχουν συνδρομές που ικανοποιούνται από την πληροφορία της δημοσίευσης. Οι προτεινόμενοι αλγόριθμοι υλοποιήθηκαν και εξετάσθηκαν ενδελεχώς με προσομοίωση μελετώντας την απόδοσή τους με βάση μετρικές όπως: η δίκαιη κατανομή του φόρτου στους κόμβους του δικτύου από τη διακίνηση μηνυμάτων κατά την επεξεργασία των συνδρομών/δημοσιεύσεων, ο συνολικός αριθμός μηνυμάτων που διακινούνται, ο συνολικός όγκος επιπλέον πληροφορίας που απαιτούν οι αλγόριθμοι να εισέλθει στο δίκτυο (network bandwidth), και ο χρόνος που απαιτείται για την ανεύρεση των συνδρομών που συζευγνύουν με κάθε δημοσίευση. / In the past few years the continuous data streams applications have become particularly popular. With the continuously increasing rate of entry of new information, it becomes imperative the need for developing appropriate infrastructures that will offer only the information that users are interested for, filtering out large volumes of irrelevant for each user, information. The content-based publish/subscribe model, is capable of handling large volumes of data traffic in a distributed, fully decentralized manner. Our basic contribution in this research area is the coupling of the content-based publish/subscribe model with the structured (DHT-based) peer-to-peer networks, offering high expressiveness to users on stating their interests. The proposed infrastructure operated in a distributed and scalable environment. The proposed solutions in this thesis are related to the development and testing: (a) of a number of algorithms for subscription processing in the network and (b) of a number of algorithms for processing the publication events. The proposed algorithms were developed and thoroughly tested with a detailed simulation-based experimentation. The performance metrics are: the fair distribution of load in the nodes of network from the distribution of messages while processing subscriptions and publication events, the total number of messages that are generated, the total volume of additional information that is required from the algorithms to operate, and the time that is required for matching publication events to subscriptions.
109

Cloud computing and innovation: its viability, benefits, challenges and records management capabilities

Bassett, Cameron January 2015 (has links)
This research investigated the potential benefits, risks and challenges, innovation properties and viability of cloud computing for records management on an Australian organisation within the mining software development sector. This research involved the use of a case study results analysis as well as a literature analysis. The literature analysis identified the ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. It further identified aspects, which needed to be addressed when adopting cloud computing in order to promote innovation within an organisation. The case study analysis was compared against a literature review of ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. This was done in order to determine cloud computing’s viability for records management for Company X (The company in the case study). Cloud computing was found to be viable for Company X. However, there were certain aspects, which need to be discussed and clarified with the cloud service provider beforehand in order to mitigate possible risks and compliance issues. It is also recommended that a cloud service provider who complies with international standards, such as ISO 15489, be selected. The viability of cloud computing for organisations similar to Company X (mining software development) followed a related path. These organisations need to ensure that the service provider is compliant with laws in their local jurisdiction, such as Electronic Transactions Act 1999 (Australia, 2011:14-15), as well as laws where their data (in the cloud) may be hosted. The benefits, risks and challenges of records management and cloud computing are applicable to these similar organisations. However, mitigation of these risks needs to be discussed with a cloud service provider beforehand. From an innovation perspective, cloud computing is able to promote innovation within an organisation, if certain antecedents are dealt with. Furthermore, if cloud computing is successfully adopted then it should promote innovation within organisations. / Information Science / M. Inf.
110

Cloud computing and innovation: its viability, benefits, challenges and records management capabilities

Bassett, Cameron January 2015 (has links)
This research investigated the potential benefits, risks and challenges, innovation properties and viability of cloud computing for records management on an Australian organisation within the mining software development sector. This research involved the use of a case study results analysis as well as a literature analysis. The literature analysis identified the ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. It further identified aspects, which needed to be addressed when adopting cloud computing in order to promote innovation within an organisation. The case study analysis was compared against a literature review of ten potential benefits of cloud computing, as well as the ten risks and challenges associated with cloud computing. This was done in order to determine cloud computing’s viability for records management for Company X (The company in the case study). Cloud computing was found to be viable for Company X. However, there were certain aspects, which need to be discussed and clarified with the cloud service provider beforehand in order to mitigate possible risks and compliance issues. It is also recommended that a cloud service provider who complies with international standards, such as ISO 15489, be selected. The viability of cloud computing for organisations similar to Company X (mining software development) followed a related path. These organisations need to ensure that the service provider is compliant with laws in their local jurisdiction, such as Electronic Transactions Act 1999 (Australia, 2011:14-15), as well as laws where their data (in the cloud) may be hosted. The benefits, risks and challenges of records management and cloud computing are applicable to these similar organisations. However, mitigation of these risks needs to be discussed with a cloud service provider beforehand. From an innovation perspective, cloud computing is able to promote innovation within an organisation, if certain antecedents are dealt with. Furthermore, if cloud computing is successfully adopted then it should promote innovation within organisations. / Information Science / M. Inf.

Page generated in 0.4297 seconds