• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 35
  • 27
  • 9
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 318
  • 318
  • 171
  • 130
  • 78
  • 71
  • 52
  • 50
  • 48
  • 48
  • 44
  • 41
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Barriers to successful application of information technology in Botswana

Mogotlhwane, T. M. January 2008 (has links)
This research looked at barriers to successful applications of information and communication technology (ICT) in Botswana. Botswana has high investments in ICT infrastructure development in the public service. However, there is still concern about service delivery not being satisfactory. Many departmental functions are still performed manually despite the availability of computers and people capable of using them. The research question addressed is why there is lack of exploitation of ICT in the Botswana public sector. Two government departments based in the capital city were selected as case studies and investigated using questionnaires and semi structured interviews to determine the status of employee relations and ICT use. Questionnaires were used to solicit satisfaction perception of the general public about public service using a sample of capital city population. This research revealed a digital divide within Botswana. Within the public sector, computer penetration as well as internet access is very high as there is 1 computer for every 2 employees. For the general public, computer ownership is low as about 28% of the population have computers at home. Despite availability of computers in the public service, members of the public experience delay when they seek service. Motivation and payment are biggest problem regarding employee relations. ICT support is satisfactory though this might be due to low level of ICT use. Fear of change is the main limiting factor to ICT exploitation in Botswana. It was found that maintenance cost of ICT infrastructure is in the order of 8 times the national average salary. A framework is proposed to help policy makers on how best to exploit existing ICT infrastructure. Botswana has remained at the first level of ICT exploitation for over 10 years. Suggestions are made as to how the next level could be reached and future research is also discussed.
232

An investigation of the relationship between value chain activities and generic strategies in small and medium-sized enterprises in UK manufacturing

Michail, Antonios January 2011 (has links)
In this study an in depth investigation of successful competitive strategies for small to medium-sized enterprises (SMEs) is undertaken. The overall aim of this study is to analyse the strategic orientation of UK Manufacturing SMEs. In the process, it will test Porter’s (1980, 1985) theoretical framework of generic strategies and thus evaluate firms’ preferred strategic synthesis. It will, therefore, test the efficacy of the value chain and develop any specific pattern that relates to a combination strategy. The investigation of the above objectives is undertaken utilising a mixed research methodology with the purpose of examining the applicability of existing competitive strategy frameworks (phase 1) and testing a new theoretical framework that incorporates additional dimensions of strategy (phase 2). During phase 1, Porter’s framework is employed to investigate SMEs’ strategic orientation as a means to achieve sustainable competitive advantage. A semi-structured questionnaire is employed and the analysis is carried out by means of factor and cluster analysis to identify strategic variables currently employed by SMEs. During phase 2, the theoretical framework is operationalised to bridge the gap within the literature and existing empirical research. Its purpose is to identify forms of successful competitive strategies of UK MSMEs as they are formulated and implemented in firms’ value chain activities. The data was collected through a number of semi-structured interviews and the analysis was based on data categorisation. The findings indicate that Porter’s (1980) single generic strategies are not the best option for UK MSMEs for gaining competitive advantage and that the
233

From cultural heritage to cultural heritage informatics : critically investigating institutions, processes and artefacts

Innocenti, Perla January 2013 (has links)
Background and rationale: Collecting is a basic human activity, a cultural phenomenon establishing cultural values, defining authenticity and creating new identities for collected objects and collectors. For more than a decade, I have studied cultural heritage collections from three key interwoven perspectives. These approaches are evident in the six publications selected for this submission: • Architectural and organisational perspective: at the Vatican Gallery (Innocenti 2001a), Uffizi (Innocenti 2003a) and Biblioteca Laurenziana (Innocenti 2002a) I investigated institutional collector and key stakeholder strategies for designing collection space and displays. I then applied this analysis to‘knowledge architecture’ for industrial design artefacts and processes (Innocenti 2004c). • Procedural and functional perspective: from Palladio drawings (Innocenti 2005a) to industrial design knowledge bases (Innocenti 2004a), I investigated how to digitize, archive, render and make accessible cultural heritage as an accurate iconic representation, interwoven with documentary and cultural contexts. The work further led me to study the authenticity of born-digital artworks (Innocenti 2012c). • Artefact perspective: I explored how artists and institutional collectors address the preservation of artworks, from the Renaissance desks of the Biblioteca Laurenziana (Innocenti 2002a) to digital artworks (Innocenti 2012c), and the historical and theoretical implications of their choices. In each of these areas, I contextualized the interrelations between cultural heritage discourse and the history of collecting cultural artefacts within given historical, social and cultural periods. My work began in Italy, where cultural heritage is deeply rooted and widespread, and moved on to encompass Europe and North America in tracing the evolution of cultural heritage collectors’ strategies. I adopted an interdisciplinary approach, engaging perspectives, methods and theoretical frameworks from art history, art theory, museography, museology, library and information science, information technology, social anthropology and engineering. Starting from this multi-focal vantage point my research has resulted in contributions to knowledge, methods and theory. These publications on one hand demonstrate the continuum of key issues in cultural heritage creation, preservation and access as manifested in the strategies of institutional collectors and artists. On the other hand, they highlight the new paradigms and transformations introduced by digital and communication technologies, the shaping of cultural heritage informatics to address these transformations and the theoretical and methodological implications underlying them. Through my scholarly research, I contributed to progressing the canonical historicisation of cultural heritage, museography and museology, and to exploring the new paradigms and transformations introduced by digital and communication technologies to the disruptive and exciting world of cultural heritage informatics. The portfolio: The portfolio is a selection from Perla Innocenti’s more than forty publications of research carried out since 2001 on cultural heritage and informatics with the Universitá degli Studi di Roma ‘La Sapienza’, Scuola Normale Superiore di Pisa, Istituto Nazionale di Archeologia e Storia dell’Arte in Rome, Pinacoteca Nazionale di Bologna, Italian Ministry of Cultural Heritage and Fondazione Andrea Palladio, Politecnico di Milano and EU-funded projects SHAMAN and MeLa. Six scientific publications are presented: two journal articles, a scholarly treatise, a published conference paper, key chapters from a monograph and one book chapter from an edited volume. The works have two key themes relevant to the critical analysis and understanding of heritage institutions’ evolution up to the digital age. The themes illustrate the contribution each publication has made to the literature and explain the relationship between the works submitted, including developments which have occurred between one piece and another. Theme I: Evolution of museography, museology and heritage studies Three publications are presented under this theme, each of these presenting the critical analysis of cultural heritage institutions and their artefacts within the historical evolution of museums and libraries. Publication I presents the critical analysis of the museographic principles applied by Luca Beltrami to the design of the Vatican Gallery, investigated and contextualised within its museographical and cultural history (Innocenti 2001a). Publication II presents the critical analysis and findings of the museological and museographical principles applied by Corrado Ricci to the Uffizi Gallery in the 19th Century, compared with the contemporary principles in the Uffizi applied by the former Superintendent and Italian Ministry Antonio Paolucci (Innocenti 2003a). Publication III presents the analysis and original findings of Michelangelo’s ergonomic design of the Biblioteca Laurenziana fittings, within the historical evolution of libraries (Innocenti 2002a). Theme II: Creating, managing, disseminating and preserving digital cultural heritage The publications presented in this theme relate to methodologies and processes characterising diverse typologies of analogue and digital cultural heritage and the emerging field of cultural informatics. Publication IV presents the novel methodological approach defined and applied within a relevant digitization project of Andrea Palladio manuscripts and maps (Innocenti 2005a). Publication V presents the outcomes of my investigation defining and implementing an online knowledge-based system supporting research and teaching of industrial design, which is formally considered part of Italian cultural heritage (Innocenti 2004a). Publication VI discusses the repositioning of traditional conservation concepts of historicity, authenticity and versioning in relation to born-digital artworks, based on findings from my research on preservation of computer-based artefacts by public collectors (Innocenti 2012a).
234

Reliable and energy efficient scheduling protocols for Wireless Body Area Networks (WBAN)

Salayma, Marwa January 2018 (has links)
Wireless Body Area Network (WBAN) facilitates efficient and cost-effective e-health care and well-being applications. The WBAN has unique challenges and features compared to other Wireless Sensor Networks (WSN). In addition to battery power consumption, the vulnerability and the unpredicted channel behavior of the Medium Access Control (MAC) layer make channel access a serious problem. MAC protocols based on Time Division Multiple Access (TDMA) can improve the reliability and efficiency of WBAN. However, conventional static TDMA techniques adopted by IEEE 802.15.4 and IEEE 802.15.6 do not sufficiently consider the channel status or the buffer requirements of the nodes within heterogeneous contexts. Although there are some solutions that have been proposed to alleviate the effect of the deep fade in WBAN channel by adopting dynamic slot allocation, these solutions still suffer from some reliability and energy efficiency issues and they do not avoid channel deep fading. This thesis presents novel and generic TDMA based techniques to improve WBAN reliability and energy efficiency. The proposed techniques synchronise nodes adaptively whilst tackling their channel and buffer status in normal and emergency contexts. Extensive simulation experiments using various traffic rates and time slot lengths demonstrate that the proposed techniques improve the reliability and the energy efficiency compared to the de-facto standards of WBAN, i.e. the IEEE 802.15.4 and the IEEE 802.15.6. In normal situations, the proposed techniques reduce packet loss up to 61% and 68% compared to the IEEE 802.15.4 and IEEE 802.15.6 respectively. They also reduce energy consumption up to 7.3%. In emergencies, however, the proposed techniques reduce packets loss up to 63.4% and 90% with respect to their counterparts in IEEE 802.15.4 and 802.15.6. The achieved results confirm the significant enhancements made by the developed scheduling techniques to promote the reliability and energy efficiency of WBAN, opening up promising doors towards new horizons and applications.
235

A pattern-driven corpus to predictive analytics in mitigating SQL injection attack

Uwagbole, Solomon January 2018 (has links)
The back-end database provides accessible and structured storage for each web application's big data internet web traffic exchanges stemming from cloud-hosted web applications to the Internet of Things (IoT) smart devices in emerging computing. Structured Query Language Injection Attack (SQLIA) remains an intruder's exploit of choice to steal confidential information from the database of vulnerable front-end web applications with potentially damaging security ramifications. Existing solutions to SQLIA still follows the on-premise web applications server hosting concept which were primarily developed before the recent challenges of the big data mining and as such lack the functionality and ability to cope with new attack signatures concealed in a large volume of web requests. Also, most organisations' databases and services infrastructure no longer reside on-premise as internet cloud-hosted applications and services are increasingly used which limit existing Structured Query Language Injection (SQLI) detection and prevention approaches that rely on source code scanning. A bio-inspired approach such as Machine Learning (ML) predictive analytics provides functional and scalable mining for big data in the detection and prevention of SQLI in intercepting large volumes of web requests. Unfortunately, lack of availability of robust ready-made data set with patterns and historical data items to train a classifier are issues well known in SQLIA research applying ML in the field of Artificial Intelligence (AI). The purpose-built competition-driven test case data sets are antiquated and not pattern-driven to train a classifier for real-world application. Also, the web application types are so diverse to have an all-purpose generic data set for ML SQLIA mitigation. This thesis addresses the lack of pattern-driven data set by deriving one to predict SQLIA of any size and proposing a technique to obtain a data set on the fly and break the circle of relying on few outdated competitions-driven data sets which exist are not meant to benchmark real-world SQLIA mitigation. The thesis in its contributions derived pattern-driven data set of related member strings that are used in training a supervised learning model with validation through Receiver Operating Characteristic (ROC) curve and Confusion Matrix (CM) with results of low false positives and negatives. We further the evaluations with cross-validation to have obtained a low variance in accuracy that indicates of a successful trained model using the derived pattern-driven data set capable of generalisation of unknown data in the real-world with reduced biases. Also, we demonstrated a proof of concept with a test application by implementing an ML Predictive Analytics to SQLIA detection and prevention using this pattern-driven data set in a test web application. We observed in the experiments carried out in the course of this thesis, a data set of related member strings can be generated from a web expected input data and SQL tokens, including known SQLI signatures. The data set extraction ontology proposed in this thesis for applied ML in SQLIA mitigation in the context of emerging computing of big data internet, and cloud-hosted services set our proposal apart from existing approaches that were mostly on-premise source code scanning and queries structure comparisons of some sort.
236

Décodage en liste et application à la sécurité de l'information

Barbier, Morgan 02 December 2011 (has links) (PDF)
Cette thèse porte sur l'étude de certains aspects des codes correcteurs d'erreurs et leurs applications à la sécurité de l'information. Plus spécifiquement, on s'est intéressé aux problèmes de décodage complet et de décodage en liste. Une nouvelle notion de codes a été introduite en liant une famille de codes et un algorithme de décodage, mettant ainsi en évidence les codes pour lesquels le décodage complet est réalisable en un temps polynomial. On présente ensuite une reformulation de l'algorithme de Koetter et Vardy pour le décodage en liste pour les codes alternant et analysons sa complexité. Cette méthode a permit de présenter une réduction de la taille de la clé du cryptosystème de McEliece, allant jusqu'à 21\% pour la variante dyadique. On s'est également intéressé à la stéganographie basée sur les codes. On propose différentes bornes caractérisant les stégosystèmes utilisant des codes linéaires, de façon à assurer la solvabilité du problème d'insertion avec des positions verrouillées. Une de ces bornes permet d'affirmer que plus le rang MDS du code utilisé est bas, plus ce code permettra de concevoir un stégosystème efficace. On montre également que les codes non-linéaires systématiques sont également de bons candidats. Enfin, on reformule le problème d'insertion bornée avec des positions verrouillées rendant ainsi l'insertion toujours possible, et on démontre que les codes de Hamming binaires permettent de satisfaire à toutes les contraintes exhibées.
237

Décodage en liste et application à la sécurité de l'information

Barbier, Morgan 02 December 2011 (has links) (PDF)
Cette thèse porte sur l'étude de certains aspects des codes correcteurs d'erreurs et leurs applications à la sécurité de l'information. Plus spécifiquement, on s'est intéressé aux problèmes de décodage complet et de décodage en liste. Une nouvelle notion de codes a été introduite en liant une famille de codes et un algorithme de décodage, mettant ainsi en évidence les codes pour lesquels le décodage complet est réalisable en un temps polynomial. On présente ensuite une reformulation de l'algorithme de Koetter et Vardy pour le décodage en liste pour les codes alternant et analysons sa complexité. Cette méthode a permit de présenter une réduction de la taille de la clé du cryptosystème de McEliece, allant jusqu'à 21\% pour la variante dyadique. On s'est également intéressé à la stéganographie basée sur les codes. On propose différentes bornes caractérisant les stégosystèmes utilisant des codes linéaires, de façon à assurer la solvabilité du problème d'insertion avec des positions verrouillées. Une de ces bornes permet d'affirmer que plus le rang MDS du code utilisé est bas, plus ce code permettra de concevoir un stégosystème efficace. On montre également que les codes non-linéaires systématiques sont également de bons candidats. Enfin, on reformule le problème d'insertion bornée avec des positions verrouillées rendant ainsi l'insertion toujours possible, et on démontre que les codes de Hamming binaires permettent de satisfaire à toutes les contraintes exhibées.
238

Définition d'un cadre formel de représentation des Systèmes d'Organisation de la Connaissance

Vandenbussche, Pierre-Yves 10 November 2011 (has links) (PDF)
Ce travail de thèse, réalisé au sein de l'entreprise MONDECA et du laboratoire de recherche INSERM, est né du besoin de disposer d'un serveur capable de supporter le processus éditorial de Systèmes d'Organisation de Connaissances (SOC) et soulève la problématique suivante: comment harmoniser la représentation des SOC et de leurs correspondances afin de proposer des services unifiés qui supportent l'édition, la publication et l'utilisation efficaces des connaissances de ces référentiels? Pour répondre à cette problématique, nous soutenons la thèse que l'élaboration d'un modèle de représentation commune de SOC est une solution adaptée pour (i) pallier l'hétérogénéité de ces référentiels, (ii) favoriser l'interopérabilité sémantique au sein d'un Système d'Information et (iii) proposer des services unifiés quel que soit le SOC. Nous utilisons pour cela des méthodes propres à l'Ingénierie des Connaissances couplées à celles de l'Ingénierie des modèles. Les contributions présentées se concentrent sur trois axes. Dans un premier axe, nous souhaitons obtenir une solution de modélisation de SOC la plus générique possible et qui puisse être étendue pour prendre en compte les spécificités de chacun des référentiels. Nous proposons donc un modèle extensible commun de représentation, nommé UniMoKR, construit à partir des standards, recommandations et projets existants. Notre modèle a été proposé et intégré en partie dans la future norme ISO 25964 qui porte sur la représentation des terminologies. Nous avons également soumis deux patrons de modélisation d'ontologie au portail Ontology Design Pattern. Le second axe est consacré à la proposition de services unifiés qui reposent sur cette modélisation. Parmi ces services nous distinguons l'export de tout ou partie de SOC dans un format standard d'échange ou encore des services Web de gestion de terminologies. Pour mettre ces services à disposition, nous préconisons la méthode de transformation de modèles qui utilise le langage SPARQL pour l'expression des règles de transformation. Dans un troisième axe, nous présentons l'application de notre solution testée et commercialisée pour divers projets dans différents domaines d'applications. Nous montrons ici la faisabilité de notre approche, ainsi que l'amélioration que la représentation formelle de notre modèle apporte à la qualité des informations. Ces implémentations ont permis d'effectuer une validation en condition d'utilisation.
239

Codes AL-FEC hautes performances pour les canaux à effacements : variations autour des codes LDPC

Cunche, Mathieu 01 March 2010 (has links) (PDF)
Nous assistons au développement rapide des solutions de diffusion de contenus sur des systèmes, où en plus des traditionnelles corruptions de l'information dans les couches basses, se pose le problème des pertes de paquets d'informations. Le besoin de fiabiliser ces systèmes de transmission a conduit à l'émergence de codes correcteurs d'effacements, qui grâce à l'ajout d'informations redondantes, permettent de reconstruire l'information perdue. Dans cette thèse nous abordons le problème de la conception de codes à effacements ayant de bonnes capacités de correction et dont les algorithmes de décodage possèdent une complexité permettant d'atteindre des débits élevés. Pour cela, nous avons choisi de travailler conjointement sur les codes et sur leur implémentation au sein d'un codec logiciel, et plus particulièrement sur les algorithmes de décodage. La première partie de nos travaux montre que des solutions basées sur les codes “Low-Density Parity-Check” (LDPC) permettent d'obtenir d'excellents résultats. En particulier lorsque ces codes sont décodés avec un décodeur hybride IT/ML qui permet d'obtenir des capacités de corrections proches de l'optimal, tout en conservant une complexité acceptable. De plus, nous montrons que grâce à l'utilisation de codes LDPC structurés la complexité du décodage ML peut être largement réduite. Nous étudions ensuite le développement de systèmes combinant un code à effacements et des fonctionnalités cryptographiques. Les systèmes résultants permettent de réduire la complexité globale du système tout en garantissant un niveau de sécurité élevé. Finalement, nous présentons une technique de tolérance aux fautes basée sur des codes correcteurs pour des applications de multiplications matricielles. Cette technique nous permet de construire un système de calcul distribué sur plateforme P2P tolérant efficacement aussi bien les pannes franches que les erreurs malicieuses.
240

Security analysis of image copy detection systems based on SIFT descriptors

Do, Thanh-Toan 27 September 2012 (has links) (PDF)
Les systèmes de recherche d'images par le contenu (Content-Based Image Retrieval System - CBIRS) sont maintenant couramment utilisés comme mécanismes de filtrage contre le piratage des contenus multimédias. Ces systèmes utilisent souvent le schéma de description d'images SIFT pour sa bonne robustesse face à un large spectre de distorsions visuelles. Mais aucun de ces systèmes n'a encore abordé le problème du piratage à partir d'un point de vue ''sécurité''. Cette thèse a comme objectif d'analyser les CBIRS de ce point de vue sécurité. Il s'agit de comprendre si un pirate peut produire des distorsions visuelles perturbant les capacités de reconnaissances d'un système en créant ces distorsions en fonctions des techniques que ce système utilise. Tout d'abord, nous présentons les failles de sécurité des composantes typiques d'un CBIRS : composantes description d'image, indexation et filtrage des faux positifs. Ensuite, nous présentons des attaques ciblant le schéma de description SIFT. Les attaques sont effectuées durant l'étape de détection de points d'intérêt et de calculs des descripteurs. Nous présentons également une attaque ciblant la mise en correspondance des images sur un critère de cohérence géométrique. Les expériences menées avec 100 000 images réelles confirment l'efficacité des attaques proposées.

Page generated in 0.1148 seconds