• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 3
  • Tagged with
  • 13
  • 13
  • 10
  • 10
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Personnalisation des MOOC par la réutilisation de Ressources Éducatives Libres / MOOC personalization by reusing Open Educational Resources

Hajri, Hiba 08 June 2018 (has links)
La personnalisation de l’apprentissage dans les environnements informatiques pour l’apprentissage humain (EIAH) est un sujet de recherche qui est traité depuis de nombreuses années. Avec l’arrivée des cours en ligne ouverts et massifs (MOOC), la question de la personnalisation se pose de façon encore plus cruciale et de nouveaux défis se présentent aux chercheurs. En effet, le même MOOC peut être suivi par des milliers d’apprenants ayant des profils hétérogènes (connaissances, niveaux éducatif, objectifs, etc). Il devient donc nécessaire de tenir compte de cette hétérogénéité en présentant aux apprenants des contenus éducatifs adaptés à leurs profils afin qu’ils tirent parti au mieux du MOOC.D’un autre côté, de plus en plus de ressources éducatives libres (REL) sont partagées sur le web. Il est important de pouvoir réutiliser ces REL dans un contexte différent de celui pour lequel elles ont été créées. En effet, produire des REL de qualité est une activité coûteuse en temps et la rentabilisation des REL passe par leur réutilisation.Pour faciliter la découverte des REL, des schémas de métadonnées sont utilisés pour décrire les REL.Cependant, l’utilisation de ces schémas a amené à des entrepôts isolés de descriptions hétérogènes et qui ne sont pas interopérables. Afin de régler ce problème, une solution adoptée dans la littérature consiste à appliquer les principes des données ouvertes et liées (LOD) aux descriptions des REL.Dans le cadre de cette thèse, nous nous intéressons à la personnalisation des MOOC et à la réutilisation des REL.Nous proposons un système de recommandation qui fournit à un apprenant en train de suivre un MOOC des ressources externes qui sont des REL adaptées à son profil, tout en respectant les spécificités du MOOC suivi.Pour sélectionner les REL, nous nous intéressons à celles qui possèdent des descriptions insérées dans les LOD, stockées dans des entrepôts accessibles sur le web et offrant des moyens d’accès standardisés. Notre système de recommandation est implémenté dans une plateforme de MOOC, Open edX et il est évalué en utilisant une plateforme de micro-tâches. / For many years now, personalization in TEL is a major subject of intensive research. With the spreading of Massive Open Online Courses (MOOC), the personalization issue becomes more acute. Actually, any MOOC can be followed by thousands of learners with different educational levels, learning styles, preferences, etc. So, it is necessary to present pedagogical contents taking into account their heterogeneous profiles so that they can maximize their benefit from following the MOOC.At the same time, the amount of Open Educational Resources (OER) available on the web is permanently growing. These OERs have to be reused in contexts different from the initial ones for which they were created.Indeed, producing quality OER is costly and requires a lot of time. Then, different metadata schemas are used to describe OER. However, the use of these schemas has led to isolated repositories of heterogeneous descriptions which are not interoperable. In order to address this problem, a solution adopted in the literature is to apply Linked Open Principles (LOD) to OER descriptions.In this thesis, we are interested in MOOC personalization and OER reuse. We design a recommendation technique which computes a set of OERs adapted to the profile of a learner attending some MOOC. The recommended OER are also adapted to the MOOC specificities. In order to find OER, we are interested in those who have metadata respecting LOD principles and stored in repositories available on the web and offering standardized means of access. Our recommender system is implemented in the MOOC platform Open edX and assessed using a micro jobs platform.
2

Open data des données judiciaires : entre transparence de la justice et droit à la vie privée

Dornel, Flora 25 July 2024 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada et Université Paris-Saclay, Cachan, France. / Le projet de recherche s’inscrit dans le contexte du mouvement d’open legal data, c’est-à-dire des données judiciaires ouvertes. En effet, que ce soit en France ou au Canada, les données judiciaires font l’objet d’une législation en faveur de l’open data. Les données judiciaires sont mises à la disposition des citoyens, de manière variable selon les systèmes juridiques. La question qui est au cœur du problème est l’affrontement de deux valeurs fondamentales : le droit du public à la transparence de l’administration de la justice, qui justifie que les données judiciaires soient consultables, et le droit de l’individu à la protection de sa vie privée. / This research project is set within the broader context of the open data movement, namely that of open judicial data. This type of data has been subject to legislation in favour of open data both in France and in Canada. Each legal system has a different approach as to how judicial data is made available to the population. The underlying issue is the interplay between two fundamental rights: the collective right to an open and transparent justice system, which in turn justifies the openness of judicial data, and the individual right to privacy.
3

Intégration holistique et entreposage automatique des données ouvertes / Holistic integration and automatic warehousing of open data

Megdiche Bousarsar, Imen 10 December 2015 (has links)
Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations. / Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.
4

OF4OSM : un méta-modèle pour structurer la folksonomie d'OpenStreetMap en une nouvelle ontologie / OF4OSM : a metamodel to semantically lift the OpenStreetMap folksonomy

Hombiat, Anthony 24 February 2017 (has links)
Depuis les années 2000, les technologies du Web permettent aux utilisateurs de prendre part à la production de données : les internautes du Web 2.0 sont les nouveaux capteurs de l’information. Du côté de l’Information Géographique affluent de nombreux jeux de données en provenance de plates-formes de cartographie participative telles qu’OpenStreetMap (OSM) qui a largement impulsé le phénomène de la Géographique Participative (VGI). La communauté OSM représente aujourd’hui plus de deux millions de contributeurs qui alimentent une base de données géospatiales ouverte dont l’objet est de capturer une représentation du territoire mondial. Les éléments cartographiques qui découlent de ce déluge de VGI sont caractérisés par des tags. Les tags permettent une catégorisation simple et rapide du contenu des plates-formes de crowdsourcing qui inondent la toile. Cette approche est cependant un obstacle majeur pour le partage et la réutilisation de ces grands volumes d’information. En effet, ces ensembles de tags, ou folksonomies, sont des modèles de données beaucoup moins expressifs que les ontologies. Nous proposons un méta-modèle pour rapprocher la folksonomie et l’ontologie OSM afin de mieux exploiter la sémantique des données qui en sont issues, tout en préservant la flexibilité intrinsèque à l’utilisation de tags. / Post-2000s web technologies have enabled users to engage in the information production process: Web 2.0 surfers are the new data sensors. Regarding Geographic Information (GI), large crowdsourced datasets emerge from the Volunteered Geographic Information (VGI) phenomenon through platforms such as OpenStreetMap (OSM). The latter involves more than two millions contributors who aim at mapping the world into an open geospatial database. This deluge of VGI consists of spatial features associated with tags describing their attributes which is typical of crowdsourced content categorization. However, this approach is also a major impediment to interoperability with other systems that could benefit from this huge amount of bottom-up data. Indeed, folksonomies are much less expressive data models than ontologies. We address the issue of loose OSM metadata by proposing a model for collaborative ontology engineering in order to semantically lift the data while preserving the flexible nature of the activity of tagging.
5

Le leadership territorial, de l'ancrage singulier aux canevas institutionnels : les trajectoires de gouvernance / The territorial leadership, from the singular anchorage to the institutional framework : the governance trajectories

Bozzo, Thomas 12 December 2014 (has links)
Cette recherche, propose de désolidariser la notion de leadership de son ancrage idéologique traditionnel, et de tenter de le redéfinir par l'élaboration et l'abstraction d'une théorie substantive dite du leadership territorial. Suivant une démarche en 3 étapes, ce travail ambitionne tout d'abord de déconstruire la littérature orthodoxe du leadership par son analyse critique, puis d'observer la légitimité du territoire comme espace d'étude adapté à cette fin. Dans un deuxième temps, il interroge de manière réflexive, l'émergence d'une vérité dans le discours scientifique comme parallèle archétypal au phénomène de leadership territorial. Enfin, en conséquence de quoi, il redéfinit les moyens nécessaires à l'étude et la compréhension du leadership, par la proposition de l'adaptation d'une méthode de type théorie ancrée dite glaserienne ou classique, ne s'appuyant volontairement que sur un recueil de données ouvertes issues de verbatim de débats autour de grands projets territoriaux. Ce dernier est alors proposé comme fragment fondateur d'une redéfinition du leadership. Par cette démarche, ce travail ambitionne de minimiser les différents biais identifiés dans l'analyse critique de la littérature et particulièrement solidaire de l'étude du leadership : la réflexivité, la performativité et la circularité de la recherche. Parallèlement, ce travail ambitionne d'orienter les managers et praticiens, vers de nouveaux modes d'analyse et de diagnostic du leadership qu'ouvre potentiellement cette démarche. Enfin ce travail suggère en discussion et conclusion, les perspectives qu'envisage cette désolidarisation du leadership de son ancrage gnoséologique traditionnel. / This research proposes to separate the concept of leadership from its ideological roots, and to try to redefine the development and abstraction of a substantive theory of the so-called territorial leadership. Following a three-step approach, this work aims firstly to deconstruct the orthodox leadership literature with a critical analysis of the latter, then to observe the legitimacy of the territory as an area of study suited for this purpose. Secondly, it asks reflexively, the emergence of truth in scientific discourse as archetypal parallel to the phenomenon of territorial leadership. Finally, as a result, it redefines the means necessary for the study and understanding of leadership: by the proposed adaptation of a classical glaserian's grounded theory, with an intentionally exclusive collection of open data from debate's verbatim about major regional projects. This leads to the development of a territorial leadership's substantive theory. The latter is then proposed as a foundered fragment of a leadership's redefinition. Through this approach, this work aims to minimize various biases identified in the critical analysis of literature and particularly attached to the study of leadership: reflexivity, performativity and circularity of research. Meanwhile, this work aims to guide managers and practitioners to new modes of analysis and diagnosis, potentially opened up by this leadership's approach. Finally, this work suggests as discussion and conclusion, the prospects envisaged by the separation of leadership from its traditional epistemological anchors.
6

Découverte interactive de connaissances dans le web des données / Interactive Knowledge Discovery over Web of Data

Alam, Mehwish 01 December 2015 (has links)
Récemment, le « Web des documents » est devenu le « Web des données », i.e, les documents sont annotés sous forme de triplets RDF. Ceci permet de transformer des données traitables uniquement par les humains en données compréhensibles par les machines. Ces données peuvent désormais être explorées par l'utilisateur par le biais de requêtes SPARQL. Par analogie avec les moteurs de clustering web qui fournissent des classifications des résultats obtenus à partir de l'interrogation du web des documents, il est également nécessaire de réfléchir à un cadre qui permette la classification des réponses aux requêtes SPARQL pour donner un sens aux données retrouvées. La fouille exploratoire des données se concentre sur l'établissement d'un aperçu de ces données. Elle permet également le filtrage des données non-intéressantes grâce à l'implication directe des experts du domaine dans le processus. La contribution de cette thèse consiste à guider l'utilisateur dans l'exploration du Web des données à l'aide de la fouille exploratoire de web des données. Nous étudions trois axes de recherche, i.e : 1) la création des vues sur les graphes RDF et la facilitation des interactions de l'utilisateur sur ces vues, 2) l'évaluation de la qualité des données RDF et la complétion de ces données 3) la navigation et l'exploration simultanée de multiples ressources hétérogènes présentes sur le Web des données. Premièrement, nous introduisons un modificateur de solution i.e., View By pour créer des vues sur les graphes RDF et classer les réponses aux requêtes SPARQL à l'aide de l'analyse formelle des concepts. Afin de naviguer dans le treillis de concepts obtenu et d'extraire les unités de connaissance, nous avons développé un nouvel outil appelé RV-Explorer (RDF View Explorer ) qui met en oeuvre plusieurs modes de navigation. Toutefois, cette navigation/exploration révèle plusieurs incompletions dans les ensembles des données. Afin de compléter les données, nous utilisons l'extraction de règles d'association pour la complétion de données RDF. En outre, afin d'assurer la navigation et l'exploration directement sur les graphes RDF avec des connaissances de base, les triplets RDF sont groupés par rapport à cette connaissance de base et ces groupes peuvent alors être parcourus et explorés interactivement. Finalement, nous pouvons conclure que, au lieu de fournir l'exploration directe nous utilisons ACF comme un outil pour le regroupement de données RDF. Cela permet de faciliter à l'utilisateur l'exploration des groupes de données et de réduire ainsi son espace d'exploration par l'interaction. / Recently, the “Web of Documents” has become the “Web of Data”, i.e., the documents are annotated in the form of RDF making this human processable data directly processable by machines. This data can further be explored by the user using SPARQL queries. As web clustering engines provide classification of the results obtained by querying web of documents, a framework for providing classification over SPARQL query answers is also needed to make sense of what is contained in the data. Exploratory Data Mining focuses on providing an insight into the data. It also allows filtering of non-interesting parts of data by directly involving the domain expert in the process. This thesis contributes in aiding the user in exploring Linked Data with the help of exploratory data mining. We study three research directions, i.e., 1) Creating views over RDF graphs and allow user interaction over these views, 2) assessing the quality and completing RDF data and finally 3) simultaneous navigation/exploration over heterogeneous and multiple resources present on Linked Data. Firstly, we introduce a solution modifier i.e., View By to create views over RDF graphs by classifying SPARQL query answers with the help of Formal Concept Analysis. In order to navigate the obtained concept lattice and extract knowledge units, we develop a new tool called RV-Explorer (Rdf View eXplorer) which implements several navigational modes. However, this navigation/exploration reveal several incompletions in the data sets. In order to complete the data, we use association rule mining for completing RDF data. Furthermore, for providing navigation and exploration directly over RDF graphs along with background knowledge, RDF triples are clustered w.r.t. background knowledge and these clusters can then be navigated and interactively explored. Finally, it can be concluded that instead of providing direct exploration we use FCA as an aid for clustering RDF data and allow user to explore these clusters of data and enable the user to reduce his exploration space by interaction.
7

Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales / Contribution of domain ontologies for knowledge discovery in biomedical data

Personeni, Gabin 09 November 2018 (has links)
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données / The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
8

Apprentissage automatique pour la détection d'anomalies dans les données ouvertes : application à la cartographie / Satellite images analysis for anomaly detection in open geographical data.

Delassus, Rémi 23 November 2018 (has links)
Dans cette thèse nous étudions le problème de détection d’anomalies dans les données ouvertes utilisées par l’entreprise Qucit ; aussi bien les données métiers de ses clients, que celles permettant de les contextualiser. Dans un premier temps, nous nous sommes intéressés à la détection de vélos défectueux au sein des données de trajets du système de vélo en libre service de New York. Nous cherchons des données reflétant une anomalie dans la réalité. Des caractéristiques décrivant le comportement de chaque vélo observé sont partitionnés. Les comportements anormaux sont extraits depuis ce partitionnement et comparés aux rapports mensuels indiquant le nombre de vélos réparés ; c’est un problème d’apprentissage à sortie agrégée. Les résultats de ce premier travail se sont avérés insatisfaisant en raison de la pauvreté des données. Ce premier volet des travaux a ensuite laissé place à une problématique tournée vers la détection de bâtiments au sein d’images satellites. Nous cherchons des anomalies dans les données géographiques qui ne reflètent pas la réalité. Nous proposons une méthode de fusion de modèles de segmentation améliorant la métrique d’erreur jusqu’à +7% par rapport à la méthode standard. Nous évaluons la robustesse de notre modèle face à la suppression de bâtiments dans les étiquettes, afin de déterminer à quel point les omissions sont susceptibles d’en altérer les résultats. Ce type de bruit est communément rencontré au sein des données OpenStreetMap, régulièrement utilisées par Qucit, et la robustesse observée indique qu’il pourrait être corrigé. / In this thesis we study the problem of anomaly detection in the open data used by the Qucit company, both the business data of its customers, as well as those allowing to contextualize them.We are looking for data that reflects an anomaly in reality. Initially, we were interested in detecting defective bicycles in the trip data of New York’s bike share system. Characteristics describing the behaviour of each observed bicycle are clustered. Abnormal behaviors are extracted from this clustering and compared to monthly reports indicating the number of bikes repaired; this is an aggregate learning problem. The results of this first work were unsatisfactory due to the paucity of data. This first part of the work then gave way to a problem focused on the detection of buildings within satellite images. We are looking for anomalies in the geographical data that do not reflect reality. We propose a method of merging segmentation models that improves the error metric by up to +7% over the standard method. We assess the robustness of our model to the removal of buildings from labels to determine the extent to which omissions are likely to alter the results. This type of noise is commonly encountered within the OpenStreetMap data, regularly used by Qucit, and the robustness observed indicates that it could be corrected.
9

Développement numérique, territoires et collectivités : vers un modèle ouvert

Houzet, Sophie 23 April 2013 (has links) (PDF)
Depuis une vingtaine d'année, les Technologies de l'Information et de la Communication (TIC) se diffusent dans notre quotidien autant que dans les territoires. Leur appropriation massive, combinée à la déréglementation des télécommunications et à l'évolution continue du web pose la question de leurs effets sur les organisations spatiales. L'objet de cette recherche est d'apporter aux territoires une lecture de leur évolution dans les domaines de l'aménagement numérique, de l'innovation dans les services et dans l'appropriation des usages de TIC, ainsi que dans la co-construction de biens publics et la création d'écosystèmes basés sur les valeurs d'une " Société de la Connaissance ". Une première partie est consacrée au contexte très évolutif de la diffusion des TIC dans la société. Par une approche combinant des dimensions législatives, technologiques, économiques et organisationnelles, les enjeux de la Société des Connaissances sont posés au niveau national et en référence aux cadres d'orientation stratégique européens. Une seconde partie analyse la diffusion des TIC dans les territoires. Celle-ci ne relevant pas d'une simple présence ou absence des technologies disponibles, elle rend aussi compte des stratégies commerciales d'opérateurs, des priorités politiques et d'appropriations différenciées des usages. Tous ces éléments n'opèrent pas au même rythme et ne s'articulent pas de manière équivalente. La méthode est basée sur l'analyse des réseaux en trois niveaux, explicitée par G. Dupuy en 1991. La douzaine d'indicateurs pris en compte pour cette analyse et ont été choisis pour leur caractère structurant : déploiement de Réseaux d'Initiative Publique, localisation des entreprises de TIC, mise en réseau d'Espaces Publics Numériques,... Des croisements de ces indicateurs permettent de brosser le paysage de la diffusion spatiale des TIC sur une période de 10 ans (2002- 2012). La complexité induite ne pouvait être explicitée sans adopter une approche systémique pour modéliser l'évolution des territoires dans le temps ainsi que les enjeux auxquels les décideurs sont confrontés. Le socle théorique de référence de la troisième partie est celui de l'approche systémique dont les travaux de Joël de Rosnay dans Le Macroscope (1975), ont été précurseurs de l'évolution de la société avec les TIC. L'objectif est d'apporter des clés de lecture aux décideurs et de susciter une approche globale de l'évolution de leurs territoires dans une Société des Connaissances. A l'heure où le web évolue vers le web sémantique, où les modèles de création et diffusion de l'énergie évoluent vers des modèles distribués, un changement de modèle dans les réseaux de télécommunication est également possible : d'un modèle dominant " intégré " orienté opérateur, vers un modèle transversal, " ouvert ", orienté utilisateur. Les choix d'aujourd'hui qui engageront les territoires de demain sont explicités par la modélisation systémique.
10

Plateforme visuelle pour l'intégration de données faiblement structurées et incertaines / A visual platform to integrate poorly structured and unknown data

Da Silva Carvalho, Paulo 19 December 2017 (has links)
Nous entendons beaucoup parler de Big Data, Open Data, Social Data, Scientific Data, etc. L’importance qui est apportée aux données en général est très élevée. L’analyse de ces données est importante si l’objectif est de réussir à en extraire de la valeur pour pouvoir les utiliser. Les travaux présentés dans cette thèse concernent la compréhension, l’évaluation, la correction/modification, la gestion et finalement l’intégration de données, pour permettre leur exploitation. Notre recherche étudie exclusivement les données ouvertes (DOs - Open Data) et plus précisément celles structurées sous format tabulaire (CSV). Le terme Open Data est apparu pour la première fois en 1995. Il a été utilisé par le groupe GCDIS (Global Change Data and Information System) (États-Unis) pour encourager les entités, possédant les mêmes intérêts et préoccupations, à partager leurs données [Data et System, 1995]. Le mouvement des données ouvertes étant récent, il s’agit d’un champ qui est actuellement en grande croissance. Son importance est actuellement très forte. L’encouragement donné par les gouvernements et institutions publiques à ce que leurs données soient publiées a sans doute un rôle important à ce niveau. / We hear a lot about Big Data, Open Data, Social Data, Scientific Data, etc. The importance currently given to data is, in general, very high. We are living in the era of massive data. The analysis of these data is important if the objective is to successfully extract value from it so that they can be used. The work presented in this thesis project is related with the understanding, assessment, correction/modification, management and finally the integration of the data, in order to allow their respective exploitation and reuse. Our research is exclusively focused on Open Data and, more precisely, Open Data organized in tabular form (CSV - being one of the most widely used formats in the Open Data domain). The first time that the term Open Data appeared was in 1995 when the group GCDIS (Global Change Data and Information System) (from United States) used this expression to encourage entities, having the same interests and concerns, to share their data [Data et System, 1995]. However, the Open Data movement has only recently undergone a sharp increase. It has become a popular phenomenon all over the world. Being the Open Data movement recent, it is a field that is currently growing and its importance is very strong. The encouragement given by governments and public institutions to have their data published openly has an important role at this level.

Page generated in 0.0586 seconds