• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 25
  • 22
  • 21
  • 14
  • 12
  • 7
  • 6
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 357
  • 357
  • 66
  • 63
  • 61
  • 54
  • 50
  • 48
  • 43
  • 42
  • 41
  • 40
  • 37
  • 33
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Discovering data quality rules in a master data management context / Fouille de règles de qualité de données dans un contexte de gestion de données de référence

Diallo, Thierno Mahamoudou 17 July 2013 (has links)
Le manque de qualité des données continue d'avoir un impact considérable pour les entreprises. Ces problèmes, aggravés par la quantité de plus en plus croissante de données échangées, entrainent entre autres un surcoût financier et un rallongement des délais. De ce fait, trouver des techniques efficaces de correction des données est un sujet de plus en plus pertinent pour la communauté scientifique des bases de données. Par exemple, certaines classes de contraintes comme les Dépendances Fonctionnelles Conditionnelles (DFCs) ont été récemment introduites pour le nettoyage de données. Les méthodes de nettoyage basées sur les CFDs sont efficaces pour capturer les erreurs mais sont limitées pour les corriger . L’essor récent de la gestion de données de référence plus connu sous le sigle MDM (Master Data Management) a permis l'introduction d'une nouvelle classe de règle de qualité de données: les Règles d’Édition (RE) qui permettent d'identifier les attributs en erreur et de proposer les valeurs correctes correspondantes issues des données de référence. Ces derniers étant de très bonne qualité. Cependant, concevoir ces règles manuellement est un processus long et coûteux. Dans cette thèse nous développons des techniques pour découvrir de manière automatique les RE à partir des données source et des données de référence. Nous proposons une nouvelle sémantique des RE basée sur la satisfaction. Grace à cette nouvelle sémantique le problème de découverte des RE se révèle être une combinaison de la découverte des DFCs et de l'extraction des correspondances entre attributs source et attributs des données de référence. Nous abordons d'abord la découverte des DFCs, en particulier la classe des DFCs constantes très expressives pour la détection d'incohérence. Nous étendons des techniques conçues pour la découverte des traditionnelles dépendances fonctionnelles. Nous proposons ensuite une méthode basée sur les dépendances d'inclusion pour extraire les correspondances entre attributs source et attributs des données de référence avant de construire de manière automatique les RE. Enfin nous proposons quelques heuristiques d'application des ER pour le nettoyage de données. Les techniques ont été implémenté et évalué sur des données synthétiques et réelles montrant la faisabilité et la robustesse de nos propositions. / Dirty data continues to be an important issue for companies. The datawarehouse institute [Eckerson, 2002], [Rockwell, 2012] stated poor data costs US businesses $611 billion dollars annually and erroneously priced data in retail databases costs US customers $2.5 billion each year. Data quality becomes more and more critical. The database community pays a particular attention to this subject where a variety of integrity constraints like Conditional Functional Dependencies (CFD) have been studied for data cleaning. Repair techniques based on these constraints are precise to catch inconsistencies but are limited on how to exactly correct data. Master data brings a new alternative for data cleaning with respect to it quality property. Thanks to the growing importance of Master Data Management (MDM), a new class of data quality rule known as Editing Rules (ER) tells how to fix errors, pointing which attributes are wrong and what values they should take. The intuition is to correct dirty data using high quality data from the master. However, finding data quality rules is an expensive process that involves intensive manual efforts. It remains unrealistic to rely on human designers. In this thesis, we develop pattern mining techniques for discovering ER from existing source relations with respect to master relations. In this set- ting, we propose a new semantics of ER taking advantage of both source and master data. Thanks to the semantics proposed in term of satisfaction, the discovery problem of ER turns out to be strongly related to the discovery of both CFD and one-to-one correspondences between sources and target attributes. We first attack the problem of discovering CFD. We concentrate our attention to the particular class of constant CFD known as very expressive to detect inconsistencies. We extend some well know concepts introduced for traditional Functional Dependencies to solve the discovery problem of CFD. Secondly, we propose a method based on INclusion Dependencies to extract one-to-one correspondences from source to master attributes before automatically building ER. Finally we propose some heuristics of applying ER to clean data. We have implemented and evaluated our techniques on both real life and synthetic databases. Experiments show both the feasibility, the scalability and the robustness of our proposal.
232

Archéologie et inventaire du patrimoine national : recherches sur les systèmes d'inventaire en Europe et Méditerranée occidentale (France, Espagne, Grande-Bretagne, Tunisie) : comparaisons et perspectives / Archaeology and national heritage record : research on record systems in Europe and western Méditerranée (France, Spain, Great-Britain, Tunisia) : comparisons and prospects

Ournac, Perrine 28 September 2011 (has links)
La comparaison des systèmes d'inventaire du patrimoine archéologique en France, Espagne, Grande-Bretagne et Tunisie consiste à observer l'organisation et les résultats de ces inventaires, au niveau national lorsqu'il existe, ou le cas échéant, au niveau régional. Il s'agit d'identifier, pour chaque pays, le mode de réalisation d'une base de données, dont les objectifs sont la protection et la mise en valeur du patrimoine archéologique. Ainsi, la naissance des premiers recensements, le cadre réglementaire, la structure institutionnelle, les conditions d'accessibilité, et la forme actuelle des inventaires ont été observés. L'analyse critique des différents cas, à l'issue des descriptions et des tests, permet de mettre en avant des paramètres conditionnant d'une part, l'existence réelle d'un inventaire national du patrimoine archéologique, d'autre part, le niveau d'accessibilité des données regroupées par ces inventaires. / Compare archaeological heritage record systems in France, Spain, Great-Britain and Tunisie consists in studying organization and results of these records, at the national level, or, where it does not exist, at the regional level. The database design, aimed at protecting and promoting archaeological resource, has been identified in each country. The first inventories, the legal and institutional structures, the condition of accessibility, and the current frame of archaeological records have been studied. Analysis shows, after describing and testing these case, that there are circumstances conditioning: the existence of a national archaeological record, but also, the level of accessibility of data maintained in these records.
233

Efficient query answering in peer data management systems

Roth, Armin 12 March 2012 (has links)
Peer-Daten-Management-Systeme (PDMS) bestehen aus einer hochdynamischen Menge heterogener, autonomer Peers. Die Peers beantworten Anfragen einerseits gegen lokal gespeicherte Daten und reichen sie andererseits nach einer Umschreibung anhand von Schema-Mappings an benachbarte Peers weiter. Solche aufgrund fehlender zentraler Komponenten eigentlich hoch- flexiblen Systeme leiden bei zunehmender Anzahl von Peers unter erheblichen Effi- zienzproblemen. Die Gründe hierfür liegen in der massiven Redundanz der Pfade im Netzwerk der Peers und im Informationsverlust aufgrund von Projektionen entlang von Mapping-Pfaden. Anwender akzeptieren in hochskalierten Umgebungen zum Datenaustausch in vielen Anwendungsszenarien Konzessionen an die Vollständigkeit der Anfrageergebnisse. Unser Ansatz sieht in der Vollständigkeit ein Optimierungsziel und verfolgt einen Kompromiß zwischen Nutzen und Kosten der Anfragebearbeitung. Hierzu schlagen wir mehrere Strategien für Peers vor, um zu entscheiden, an welche Nachbar-Peers Anfragen weitergeleitet werden. Peers schließen dabei Mappings von der Anfragebearbeitung aus, von denen sie ein geringes Verhältnis von Ergebnisgröße zu Kosten, also geringe Effizienz erwarten. Als Basis dieser Schätzungen wenden wir selbstadaptive Histogramme über die Ergebniskardinalität an und weisen nach, daß diese in dieser hochdynamischen Umgebung ausreichende Genauigkeit aufweisen. Wir schlagen einen Kompromiß zwischen der Nutzung von Anfrageergebnissen zur Anpassung dieser Metadaten-Statistiken und der Beschneidung von Anfrageplänen vor, um den entsprechenden Zielkonflikt aufzulösen. Für eine Optimierungsstrategie, die das für die Anfragebearbeitung verwendete Zeit-Budget limitiert, untersuchen wir mehrere Varianten hinsichtlich des Effizienzsteigerungspotentials. Darüber hinaus nutzen wir mehrdimensionale Histogramme über die Überlappung zweier Datenquellen zur gezielten Verminderung der Redundanz in der Anfragebearbeitung. / Peer data management systems (PDMS) consist of a highly dynamic set of autonomous, heterogeneous peers connected with schema mappings. Queries submitted at a peer are answered with data residing at that peer and by passing the queries to neighboring peers. PDMS are the most general architecture for distributed integrated information systems. With no need for central coordination, PDMS are highly flexible. However, due to the typical massive redundancy in mapping paths, PDMS tend to be very inefficient in computing the complete query result as the number of peers increases. Additionally, information loss is cumulated along mapping paths due to selections and projections in the mappings. Users usually accept concessions on the completeness of query answers in large-scale data sharing settings. Our approach turns completeness into an optimization goal and thus trades off benefit and cost of query answering. To this end, we propose several strategies that guide peers in their decision to which neighbors rewritten queries should be sent. In effect, the peers prune mappings that are expected to contribute few data. We propose a query optimization strategy that limits resource consumption and show that it can drastically increase efficiency while still yielding satisfying completeness of the query result. To estimate the potential data contribution of mappings, we adopted self-tuning histograms for cardinality estimation. We developed techniques that ensure sufficient query feedback to adapt these statistics to massive changes in a PDMS. Additionally, histograms can serve to maintain statistics on data overlap between alternative mapping paths. Building on them, redundant query processing is reduced by avoiding overlapping areas of the multi-dimensional data space.
234

Plataformas computacionais de e-Science para gestão de dados científicos: estudo de caso de um programa de pesquisa da Amazônia

Silva, Ronaldo Ferreira da 28 February 2018 (has links)
Submitted by Sara Ribeiro (sara.ribeiro@ucb.br) on 2018-08-09T19:01:33Z No. of bitstreams: 1 RonaldoFerreiradaSilvaDissertacao2018.pdf: 3350825 bytes, checksum: 8d4d20c28a18e8b73c57595843d80680 (MD5) / Approved for entry into archive by Sara Ribeiro (sara.ribeiro@ucb.br) on 2018-08-09T19:01:47Z (GMT) No. of bitstreams: 1 RonaldoFerreiradaSilvaDissertacao2018.pdf: 3350825 bytes, checksum: 8d4d20c28a18e8b73c57595843d80680 (MD5) / Made available in DSpace on 2018-08-09T19:01:47Z (GMT). No. of bitstreams: 1 RonaldoFerreiradaSilvaDissertacao2018.pdf: 3350825 bytes, checksum: 8d4d20c28a18e8b73c57595843d80680 (MD5) Previous issue date: 2018-02-28 / Contemporary science is characterized by a large volume of data, a consequence of the growing complexity of research problems, increasingly requiring collaboration between interdiscipli-nary and inter institutional groups. In this context, the Technology of Information has been playing a relevant role in the provision of environments that enable this dynamic work. This dissertation analyzed electronic science (e-Science) platforms components available today and listed a set of indicators, involving hybrid architectures, that are able to efficiently meet the needs for scientific data management in a specific context: one research program for the Am-azon. The method used to analyze the collected data through semi-structured interviews focused on the categorization of information, by being the basis for the proposed indicators, using Con-tent Analysis techniques. / A ciência contemporânea caracteriza-se pelo grande volume de dados, reflexo da crescente complexidade dos problemas de pesquisa, exigindo cada vez mais a colaboração entre grupos interdisciplinares e interinstitucionais. Nesse contexto, a Tecnologia da Informação vem tendo papel relevante na oferta de ambientes que viabilizem essa dinâmica de trabalho. Esta disserta-ção analisou componentes de plataformas da ciência eletrônica (e-Science) hoje disponíveis e elencou um conjunto de indicadores, envolvendo arquiteturas híbridas, que são capazes de aten-der, de forma eficiente, as necessidades para gestão de dados científicos em um contexto espe-cífico: um programa de pesquisa para a Amazônia. O método utilizado para analisar os dados coletados por meio de entrevistas semiestruturadas, concentrou-se na categorização das infor-mações, sendo estas a base para proposta dos indicadores, utilizando técnicas da Análise de Conteúdo.
235

Sistema gerenciador de documentação de projeto / A design trace management system

Soares, Sandro Neves January 1996 (has links)
A complexidade do projeto de sistemas eletrônicos, devido ao número de ferramentas envolvidas, ao grande volume de dados gerado e a natureza complicada destes dados, foi a causa principal do aparecimento, no final da década de 80, dos frameworks. Frameworks são plataformas que suportam o desenvolvimento de ambientes de projeto e que tem, como objetivo principal, liberar os projetistas das tarefas acessórias dentro do processo de projeto (como, por exemplo, a gerencia dos dados criados), possibilitando-lhes direcionar os esforços, exclusivamente, para a obtenção de melhores resultados, em menor tempo e a baixo custo. Para a realização deste objetivo, diversas técnicas são utilizadas na construção dos frameworks. Uma delas é conhecida como documentação dos passos de projeto. A documentação dos passos de projeto é um recurso utilizado para manter a história do projeto (usualmente, ferramentas executadas e dados gerados). Ela tem sido amplamente utilizada em trabalhos relacionados a frameworks. Porém, nenhum destes trabalhos aproveita toda a potencialidade do recurso. Alguns utilizam-no apenas nos serviços relacionados a gerencia de dados. Outros, utilizam-no apenas nos serviços relacionados a gerencia de projeto. A proposta deste trabalho, então, é a criação de um sistema que explore toda a potencialidade da documentação dos passos de projeto, disponibilizando, a partir daí, informações e serviços a outros sub-sistemas do framework, de forma a complementar a funcionalidade destes, tornando-os mais abrangentes e poderosos. / The VLSI design complexity, due to the number of involved tools, the enormous generated data volume and the complex nature of the data, was the main cause of the appearance of the frameworks in the end of the 80's. Frameworks are platforms that support the development of design environments and, as their main purpose, liberate the VLSI designers from the supplementary tasks in the design process, as the data management. It makes possible to direct efforts exclusively to obtaining better results, in shorter time and with lower costs. To this purpose, many techniques have been used in the implementation of frameworks. One of these techniques is known as design steps documentation. The design steps documentation is a resource used to keep the design history (usually, executed tools and generated data). It has been widely used in various frameworks. But none of them take full advantage of this resource. Some of them use the design steps documentation only in the data management services. Others, use it only in the design management services. So, the proposal of this work is to create a system that takes full advantage of the design steps documentation, providing information and services to other sub-systems of the framework to complement their functionality, making them more powerful.
236

Embedding Student Support into Boot Camp: Research, Citation and Data Management at the Point-of-Need and Beyond

Doucette, Wendy, Anderson, Joanna 29 September 2015 (has links)
Although we give library instruction in graduate courses per request,we reach a small number of students this way. Others will see us oneon-one,but we’re still missing the majority. Nearly all Boot Campersare unknown to us, which means they’ve had no formal graduatelibrary instruction prior to writing the biggest project of their academiclives.To this end, we offered two new strategy-based workshops, whichwe propose to outline as one single-session presentation at USETDAunder the category of “Student Support and Training” (ImpactfulETD Processing).In Boot Camp, Session One covers data management: physical andvirtual workspace organization, file structure, online data storage andbackups. The emphasis here is on where to put data and how to saveit. Online programs covered include free word processing softwaresuch as Google Docs, Word Online, Shutterbug, and Zoho Docs andcloud storage services such as Google Drive, Microsoft’s OneDrive,Mac’s iCloud Storage, Amazon storage, Box and Dropbox.Session Two of Boot Camp addresses research and citation management.Revamped to include the Association of College and ResearchLibraries (ACRL) Information Literacy Framework’s concepts, wepresent systematic research as a transferable skill, not an isolated casetied to one course or problem. This workshop incorporates criticalthinking into showing students how to construct a search; how tokeep on top of research through folders, feeds, and alerts; and how tomanage citations via Mendeley.After the presentation and discussion, attendees should be able torecognize the significant function librarians perform in a targetedprogram such as Boot Camp convey the value of formal, timelyintervention for graduate students assess the benefits of linking ouroverall methodology to the ACRL Framework replicate our offeringsto support their students at the point of need, and beyond.
237

Mécanismes de traitement des données dans les réseaux de capteurs sans fils dans les cas d'accès intermittent à la station de base / Data Management in Wireless Sensor Networks with Intermittent Sink Access

Dini, Cosmin 21 December 2010 (has links)
Les réseaux des capteurs sans fil sont considérés comme une alternative aux réseaux câblés afin de permettre l'installation dans des zones peu accessibles. Par conséquent, de nouveaux protocoles ont été conçus pour supporter le manque des ressources qui est spécifique à ce type de réseau. La communication entre les nœuds est réalisée par des protocoles spécifiques pour la gestion efficace de l'énergie. La gestion des données collectées par ces nœuds doit être également prise en compte car la communication entre les nœuds engendre un coût non négligeable en termes d'énergie. De plus, l'installation de ce type de réseau dans des régions lointaines facilite les attaques sur la structure des réseaux ainsi que sur les données collectées. Les mesures de sécurité envisagées amènent des coûts d'énergie supplémentaires. Un aspect souvent négligé concerne le cas où un nœud ne peut pas communiquer avec la station de base (sink node) qui collectionne et traite les données. Cependant, les nœuds continuent à accumuler des informations en suivant les plans de collection. Si la situation continue, l'espace de mémoire (storage) diminue à un point où la collection de nouvelles données n'est plus possible.Nous proposons des mécanismes pour la réduction contrôlée de données en considérant leur priorité relative. Les données sont divisées dans des unités auxquelles un niveau d'importance est alloué, en fonction des considérations d'utilité et de missions qui les utilisent. Nous proposons un ensemble de primitives (opérations) qui permettent la réduction d'espace de stockage nécessaire, tout en préservant un niveau raisonnable de résolution des informations collectées. Pour les larges réseaux à multiple nœuds, nous proposons des mécanismes pour le partage de données (data load sharing) ainsi que la redondance. Des algorithmes ont été proposés pour évaluer l'efficacité de ces techniques de gestion de données vis-à-vis de l'énergie nécessaire pour transférer les données.A travers des simulations, nous avons validé le fait que les résultats sont très utiles dans les cas à mémoire limitée (wireless nades) et pour les communications intermittentes. / Wireless Sensor Networks have evolved as an alternative to wired networks fit for quick deployments in areas with limited access. New protocols have been deviees to deal with the inherent scarcity of resources that characterizes such netvorks. Energy efficient network protocols are used for communication between nades. Data collected by wireless nades is transmitted at an energy cost and therefore carefully managed. The remote deployment of wireless networks opens the possibility of malicious attacks on the data and on the infrastructure itself. Security measures have also been devised, but they come at an energy cost. One item that has received little attention is the situation of the data sink becoming unreachable. The nodes still collect data as instructed and accumulate it. Under prolonged unavailability of the sink node, the storage space on sensor nades is used up and collecting new data is no longer feasible. Our proposal for a prioritized data reduction alleviates this problem. The collected data is divided into data units who are assigned an importance level calculated in agreement with the business case. We have proposed data reduction primitive operations that reduce the needed space while only losing a limited amount of data resolution. A multi-node deployment opens the possibility for data load sharing between the nodes as well as redundancy. Algorithms were proposed to evaluate the potential gain ofthese approaches in relation to the amount of energy spent for data transfer. The proposed approach works well in coping with fixed size data storage by trimming the low interest data in a manner that data is still usable.
238

Kunskapsskillnaderna mellan IT och Redovisning och dess påverkan på redovisningsdatakvalitet : en kvalitativ studie på ett av de största bemanningsföretagen i Sverige och i världen

Homanen, Malin, Karlsson, Therese January 2019 (has links)
Det oundvikliga beroendet av digitalisering och IT-system i dagens verksamheter och organisationer ställer krav på dagens arbetskraft att öka sina IT-kunskaper för att kunna integrera och kommunicera med nya datasystem för en mer effektiv verksamhet. Inte minst lika viktigt blir det för redovisningsekonomer som sköter verksamhetens finansiella redovisning då de måste kunna säkerställa att den redovisningsdata som framställs och levereras med hjälp av IT är felfri och uppnår kvalitet. Bristen på kunskap inom IT kan riskera att fel i redovisningsdata inte upptäcks och därmed påverkar redovisningsdatakvalitet. Detta i sin tur riskerar påverka redovisningskvalitet i den slutliga finansiella rapporteringen. Kommunikationen mellan avdelningarna riskerar också bli lidande då de med olika kunskaper har svårt att förstå varandra.Studiens syfte är att försöka bidra med kunskap om hur kunskapsskillnader i digital gundkunskap kan påverka säkerställandet av redovisningsdatakvalitet samt ge insyn i hur arbetet med detta kan gå till i praktiken. Med hjälp av tidigare forskning togs en analysmodell fram som illustrerar identifierade faktorers påverkansordning av redovisningsdatakvalitet; kunskapsskillnader → intern kontroll → redovisningsdatakvalitet.Studien tillämpar en instrumentell fallstudiedesign med en kvalitativ forskningsansats för att besvara frågeställningen. Två fokusgruppsintervjuer utfördes vid två olika tillfällen med respondenter från redovisningsavdelningen och IT-avdelningen från samma företag. Data transkriberades och kodades med hjälp av färgkodning för att tydliggöra de faktorer som utgör utgångspunkten i analysmodellen. En enkätundersökning genomfördes på resterande anställda på respektive avdelning för att komplettera resultaten från intervjuerna.Resultatet av studien visade att kunskapsskillnaderna har liten eller ingen alls direkt påverkan på redovisningsdatakvalitet utan snarare påverkar den interna kontrollen desto mer utifrån externa faktorer som tillkom. / The inevitable dependence on digitization and IT systems in today's operations and organizations demands the current workforce to increase their IT skills in order to be able to integrate and communicate with new computer systems for a more efficient business. It is equally important for financial accountants who’s responsible for the business’s financial reporting, since they must be able to ensure that the accounting data produced and delivered using IT is correct and of high quality. The lack of IT skills can increase the risk of errors in accounting data not detected and thus further affect the accounting data quality. This in turn risks affecting the accounting quality in the final financial reporting. The communication between the departments could also suffer due to the knowledge gaps between them that could make it difficult to understand each other.The aim of the study is to contribute with knowledge about how the differences in knowledge can affect the work in ensuring accounting data quality and give insight into how this work can be realized in practice. With the help of previous research, an analysis model was developed that illustrates identified factors and their influence on accounting data quality; knowledge gaps → internal control → accounting data quality.The study applies an instrumental case study with a qualitative research approach. Two focus group interviews were conducted on two different occasions with respondents from the accounting department and the IT department, both from the same company. Data was transcribed and coded using color coding to clarify the factors that form the basis of the analysis model. A survey was conducted with the other employees to complement and confirm the results found from the interviews.The result of the study showed that the differences in knowledge have little or no direct impact on accounting data quality, but rather affect the internal control, based on external factors that came into light during the analysis of the result. A revised analysis model was developed based on the result and replaced the initial hypothetical model.
239

Using web services for customised data entry

Deng, Yanbo January 2007 (has links)
Scientific databases often need to be accessed from a variety of different applications. There are usually many ways to retrieve and analyse data already in a database. However, it can be more difficult to enter data which has originally been stored in different sources and formats (e.g. spreadsheets, other databases, statistical packages). This project focuses on investigating a generic, platform independent way to simplify the loading of databases. The proposed solution uses Web services as middleware to supply essential data management functionality such as inserting, updating, deleting and retrieval of data. These functions allow application developers to easily customise their own data entry applications according to local data sources, formats and user requirements. We implemented a Web service to support loading data to the Germinate database at the New Zealand Institute of Crop & Food Research (CFR). We also provided language specific client toolkits to help developers invoke the Web service. The toolkits allow applications to be easily customised for different platforms. In addition, we developed sample applications to help end users load data from their project data sources via the Web service. The Web service approach was evaluated through user and developer trials. The feedback from the developer trial showed that using Web services as middleware is a useful approach to allow developers and competent end users to customise data entry with minimal effort. More importantly, the customised client applications enabled end users to load data directly from their project spreadsheets and databases. It significantly reduced the effort required for exporting or transforming the source data.
240

Putting data delivery into context: Design and evaluation of adaptive networking support for successful communication in wireless self-organizing networks

Carneiro Viana, Aline 14 December 2011 (has links) (PDF)
Ce document est dédié à mes travaux de recherche développés au cours des six dernières années sur la conception et l'évaluation de systèmes de réseaux sans fil et est le résultat d'un certain nombre de collaborations. En particulier, mon objectif principal a été le soutien à la livraison fiable de données dans les réseaux sans fil auto-organisés. La question centrale, qui a guidée mes activités de recherche, est la suivante: "quels sont les services réseaux sous-jacents à la bonne conception de stratégies de communication sans fil dans les systèmes de réseaux auto-organisés (fixe ou mobile)?". Les réseaux auto-organisés (WSONs) ont des caractéristiques intrinsèques et, par conséquent, nécessitent des solutions particulières qui les distinguent des réseaux traditionnels basés sur des graphes. Les différents types de WSONs nécessitent des services adaptatifs ciblés pour faire face à leur nature (i.e., la mobilité, la limitation des ressources, le manque de fiabilité des communications sans fil,. . .) et pour trouver une adéquation entre leur fonctionnement et l'environnement. Influencée par de telles observations, mes activités de recherche ont été guidées par l'objectif principal de fournir au niveau du réseau un soutien à la livraison fiable de données dans les réseaux sans fil auto-organisés. Les axes de recherche, que j'ai développés avec mes collègues dans ce contexte, sont classés comme étant des services adaptifs "au niveau noeud" et "au niveau réseau" et se distinguent par le niveau auquel l'adaptation est considérée. Mes contributions, liées à la première catégorie de service, reposent sur les services de localisation et de découverte de voisinage. En raison de la limitation de page, ce manuscrit est, cependant, consacré à la recherche que j'ai menée autour des services adaptatifs au niveau du réseau. Par conséquent, il est structuré en trois chapitres principaux correspondants à trois classes de services réseaux : des services de gestion de la topologie, des services de gestion des données et des services de routage et d'acheminement. Ma première contribution concerne des services de gestion de la topologie, qui sont réalisés grâce à l'adaptation des noeuds - en imposant une hiérarchie dans le réseau via la clusterisation ou en supprimant des noeuds du graphe du réseau en les éteignant - et par la mobilité contrôlée - qui affecte à la fois la présence de noeuds et de liens, ainsi que la qualité des liens dans le graphe du réseau. Se basant sur l'adaptation de noeuds, le protocole SAND, les systèmes VINCOS et NetGeoS qui portent respectivement sur la conservation d'énergie et sur l'auto-structuration des réseaux de capteurs sans fil (WSN) ont été proposés. Ensuite, se basant sur la mobilité contrôlée, des propositions, liées à la conception de trajectoire de Hilbert et du protocole Cover, ont été présentées. Elles se concentrent sur le déploiement de solutions pour la couverture de zone avec des noeuds mobiles et ont été conçues pour surveiller périodiquement une zone géographique ou pour couvrir des noeuds de capteurs mobiles (cibles). Considérant les services de gestion de données, mes contributions se rapportent à la collecte des données - qui implique des solutions de distribution de données avec des objectifs liés a l'organisation - et la diffusion des données - où les flux de données sont dirigés vers le réseau. Pour cela, les protocoles DEEP et Supple ont été conçus pour les réseaux de capteurs sans fil, tandis que FairMix et VIP delegation se concentrent sur la diffusion d'information dans les réseaux sans fil sociaux. En particulier, afin d'améliorer la diffusion des données, FairMix et VIP delegation, exploitent les similarités des intérêts sociaux des personnes ou des groupes dans les réseaux fixes ou l'aspect social de leurs interactions sans fil dans les réseaux mobiles. Finalement, mes travaux sur les services adaptatifs d'acheminement attaquent la problèmatique de la connectivité opportuniste dans les réseaux sans fil tolérants aux délais. Dans ce contexte, les protocoles Seeker et GrAnt ont été conçus et utilisent respectivement l'histoire du contact entre les noeuds (les schémas de contact et de communication) et les propriétés des réseaux sociaux de noeuds afin de prédire les futures rencontres et de mieux ajuster les décisions de transfert. Au regard des nouvelles possibilités de communication et du changement dynamique observé au cours des dernières années dans les réseaux sans fil, mes activités de recherche se sont progressivement orientés des réseaux auto-organisés connectés vers les réseaux connectés par intermittence et opportunistes. De cette façon, mes perspectives de recherche future sont: (1) tirer profit des schémas de mobilité incontrôlée des dispositifs mobiles pervasifs pour améliorer les efforts de perception collaborative; (2) regarder plus en profondeur les techniques de génération de graphes sociaux à partir des traces décrivant les contacts entre les noeuds; (3) étudier quels sont les facteurs ayant un impact (positif ou négatif) sur le succès de la diffusion de l'information dans les réseaux sociaux mobiles, et (4) étudier la possibilité d'adapter le codage réseau à la diffusion d'information dans les réseaux sociaux mobiles.

Page generated in 0.1392 seconds