Spelling suggestions: "subject:"connées numérique"" "subject:"abonnées numérique""
1 |
Exploitation et partage de données hétérogènes et dynamiques / Operation and sharing of heterogeneous and dynamic dataArnaud, Bérenger 11 April 2013 (has links)
Dans un contexte de données industrielles et numériques, le développement d'un outil sur mesure pour une tâche particulière est couteux par de nombreux aspects. À l'inverse, l'adaptation d'outils génériques l'est également en particularisation (personnalisation, adaptation, extension, …), pour les développeurs comme pour les utilisateurs finaux. Nos approches visent à considérer les différents niveaux d'interactions pour améliorer l'exploitation des données fournies ou générées en collaboration.Les définitions et problématiques liées aux données dépendent le plus souvent des domaines dans lesquelles elles sont traitées. Pour ce travail, nous avons opté pour une approche holistique considérant ensemble des perspectives différentes. Le résultat est une synthèse des concepts émergeant montrant les équivalences d'un domaine à l'autre. La première contribution consiste à améliorer le marquage collaboratif de documents. Deux améliorations sont proposées par notre outil Coviz. (1) L'étiquetage des ressources est propre à chaque utilisateur qui organise ses vocables par une poly-hiérarchie nominative. Chacun peut considérer les concepts des autres par une relation de partage. Le système fournit également du contenu connexe via un moissonnage des archives ouvertes. (2) L'outil applique le concept de facette des données à l'interface puis les combine avec une recherche par mot-clé. Ce dernier point est commun à tous les utilisateurs, le système considère chacune des actions individuelles comme celles d'un groupe.La contribution majeure, confidentielle, est un framework baptisé DIP pour Data Interaction and Presentation. Son but est d'augmenter la liberté d'expression de l'utilisateur sur l'interaction et l'accès aux données. Il diminue les contraintes machines et logicielles en adjoignant une nouvelle voix d'accès direct entre l'utilisateur et les données disponibles, ainsi que des points d'« articulation » génériques. D'un point de vue final, l'utilisateur gagne en expression de filtrage, en partage, en maintien de l'état de sa navigation, en automatisation de ses tâches courantes, etc.Il a été testé en condition réelle de stress, de ressources et d'utilisation avec le logiciel KeePlace. Ce dernier a d'ailleurs été l'initiateur de cette thèse. / In the context of numeric data, the software development costs entail a number of cost factors. In contrast, adapting generic tools has its own set of costs, requiring developer's integration and final user's adaptation. The aim of our approach is to consider the different points of interaction with the data to improve the exploitation of data, whether provided or generated from collaboration.The definitions and problems related to data are dependent upon the domain from which the data come and the treatment that have been applied to them. In this work we have opted for a holistic approach where we consider the range of angles. The result is a summary of the emergent concepts and domain equivalences.The first contribution consists of improving collaborative document mark-up. Two improvements are proposed by out tool – Coviz –. 1) Resource tagging which is unique to each user, who organises their own labels according to their personal poly-hierarchy. Each user may take into consideration other users approaches through sharing of tags. The system supplies additional context through a harvesting of documents in open archives. 2) The tool applies the concept of facets to the interface and then combines them to provide a search by keyword or characteristic selection. This point is shared by all users and the actions of an individual user impact the whole group.The major contribution, which is confidential, is a framework christened DIP for Data Interaction and Presentation. Its goal is to increase the freedom of expression of the user over the interaction and access to data. It reduces the hardware and software constrains by adding a new access point between the user and the raw data as well as generic pivots. From a final point of view the user gains in expression of filtering, in sharing, in state persistence of the navigator, in automation of day-to-day tasks, etc.DIP has been stress tested under real-life conditions of users and limited resources with the software KeePlace. Acknowledgement is given to KeePlace who initiated this thesis.
|
2 |
Analyses factorielles des distributions marginales de processusBoumaza, Rachid 04 January 1999 (has links) (PDF)
On définit la mesure d'affinité de deux densités de probabilité de p-vecteurs aléatoires par le produit scalaire de ces deux densités dans l'espace des fonctions de carré intégrable. On la calcule pour différents types de densités. On présente les propriétés asymptotiques de cette mesure d'affinité dans le cas de densités gaussiennes ; on montre en particulier la normalité asymptotique de cette mesure lorsque les paramètres de ces densités sont estimés par le maximum de vraisemblance. On utilise cette mesure d'affinité pour définir l'analyse en composantes principales de T densités de probabilité (ou des fonctions caractéristiques associées) avec l'objectif d'apprécier l'évolution de ces densités en les visualisant dans des espaces de dimension réduite. On en montre les liens avec la méthode Statis Dual (sur matrices de variance) et on en propose une estimation convergente. On montre les représentations obtenues sur des données de cardiologie et sur des données de processus gaussiens en en faisant varier les paramètres. Aux densités précédentes indicées par t (t=1,...,T) on ajoute une variable qualitative Y définie sur l'ensemble des indices. Cette variable engendrant une partition des densités en Q catégories, on définit l'analyse discriminante de ces densités et on propose quatre règles d'affectation d'une nouvelle densité gaussienne à l'une des Q catégories. Deux règles sont de type probabiliste (vraisemblance maximale) et s'appuient sur le caractère asymptotiquement gaussien de la mesure d'affinité ; deux règles sont de type géométrique (distance minimale) et s'appuient sur la distance induite par la mesure d'affinité. On applique cette méthode à des données archéologiques (mesures de pierres de châteaux d'Alsace), l'objectif étant de dater ces châteaux.
|
3 |
Extraction de séquences fréquentes : des données numériques aux valeurs manquantesFiot, Céline 28 September 2007 (has links) (PDF)
La quantité de données aujourd'hui emmagasinées dans tous les domaines ainsi que leur diversité d'origines et de formats rendent impossibles l'analyse, le résumé ou l'extraction manuelle de connaissances. Pour répondre à ces besoins, diverses communautés se sont intéressées à la conception et au développement d'outils permettant d'extraire automatiquement de la connaissance de ces grandes bases. Désormais ces travaux visent à prendre en compte l'hétérogénéité de ces données, de leur format et de leur qualité. Notre travail s'inscrit dans cet axe de recherche et, plus précisément, dans le contexte de la découverte de schémas fréquents à partir de données regroupées sous la forme de séquences ordonnées. Ces schémas, appelés motifs séquentiels, n'étaient jusqu'alors extraits que sur des bases de données de séquences symboliques et parfaites, c'est-à-dire des bases ne contenant que des informations binaires ou pouvant être traitées comme telles et ne contenant aucun enregistrement incomplet. Nous avons donc proposé plusieurs améliorations des techniques d'extraction de séquences fréquentes afin de prendre en compte des données hétérogènes, incomplètes, incertaines ou mal connues de leur utilisateur, tout en minimisant les pertes éventuelles d'informations. Ainsi, le travail présenté dans cette thèse comporte la mise en oeuvre d'un cadre pour l'extraction de motifs séquentiels en présence de données numériques quantitatives, la définition de contraintes temporelles relâchées autorisant l'utilisateur à spécifier des contraintes temporelles approximatives et permettant un tri des résultats obtenus selon un indice de précision temporelle, enfin, le développement de deux approches pour l'extraction de motifs séquentiels sur des données symboliques incomplètes.
|
4 |
Une méthodologie de Reverse Engineering à partir de données hétérogènes pour les pièces et assemblages mécaniques / A methodology of Reverse Engineering from heterogeneous data for parts and mechanical assembliesBruneau, Marina 22 March 2016 (has links)
Cette thèse traite d'une méthodologie de Reverse Engineering (RE) d'assemblages mécaniques à partir de données hétérogènes dans un contexte routinier. Cette activité consiste à partir d'un produit ou d'un assemblage, à récupérer la donnée numérique en partant de la donnée physique dans le but de reconstruire sa maquette numérique. Plusieurs techniques de numérisation peuvent être employées et permettent de générer des données de différents types (ex : nuage de points, photographies). Ces dernières sont utilisées comme données d'entrée à notre processus de RE et peuvent aussi être associées à des données liées au produit, existantes au préalable, telles que des mises en plan ou encore une version antérieure de la maquette numérique du produit. Le traitement de l'ensemble de ces données, dites "hétérogènes", requiert une solution qui soit capable de gérer d'une part, l'hétérogénéité des données et des informations qu'elles contiennent et d'autre part, l'incomplétude de certaines données qui est liée au bruit ou à la technologie utilisée pour numériser l'assemblage (ex : scanner ou photographie). Enfin la pertinence des informations extraites lors de la phase de traitement doit permettre, dans certains cas, de générer des modèles CAO paramétrés, propres à l'activité de RE de l'entreprise ou du domaine d'application. L'état de l'art sur la reconnaissance de formes dans des données hétérogènes ainsi que sur la gestion de connaissances dans le cadre d'activités routinières, propose des approches qui traitent soit d'un seul type de données, soit du RE de pièce unique ou soit elles ne permettent pas d'obtenir un modèle CAO qui soit exploitable (paramétrage géométrique des entités) pour une activité de RE. Cette thèse propose une méthodologie nommée Heterogeneous Data Integration for Reverse Engineering (HDI-RE) et qui se décompose en trois étapes : la segmentation, la signature et la comparaison avec une base de connaissances. Le but de cette méthode est d'automatiser le processus de RE et notamment en ce qui concerne les étapes de reconnaissance de composants dans les données d'entrée et d'aide à la reconstruction de modèles CAO (paramétrés ou non) en récupérant des informations géométriques et topologiques dans des données d'entrée. Pour cela, ces dernières sont segmentées afin d'en extraire des informations qui sont en suite formalisées sous la forme de signatures. Les signatures générées sont ensuite comparées à une base de connaissances comportant un ensemble de signatures de différents types et appartenant à des produits ou objets déjà connus. Le calcul des similarités issu de la comparaison permet d'identifier les composants présents dans les données en entrée. L'apport scientifique de ces travaux repose principalement sur l'utilisation de signatures qui, en fonction du souhait de l'utilisateur, permettent de reconstruire une maquette numérique en sortie du processus de RE avec trois niveaux d'information : un niveau global, un niveau géométrique et topologique ou un niveau fonctionnel. Par rapport à chaque niveau et du type de données traité, un mécanisme de signature dédié est proposé. / This thesis deals with a methodology of Reverse Engineering (RE) of mechanical assemblies from heterogeneous data in a routine context. This activity consists, from the existing data of a part or an assembly, in rebuilding their digital mock-up. The data used in entrance of our process of RE can be drawings, photos, points clouds or another existing version of the digital mock-up. The proposed approach, called Heterogeneous Data Integration for Reverse Engineering (HDI-RE), is divided into three steps : the segmentation, the signature and the comparison of the initial data with a knowledge database. The signatures of the studied object are compared with the signatures of the same type existing in the database in order to extract components ordered by similarity (distance with the object). The parameterized digital mock-up which is the most similar to the object is then extracted and its parameters identified from the initial data. Data set processing, called "heterogeneous" data, requires a solution which is able to manage on one hand, the heterogeneousness of the data and the information which they contain and on the other hand, the incompleteness of some data which are in link with the noise (into points cloud) or with the technology used to digitize the assembly (ex: scanner or photography).
|
5 |
La stratégie numérique des partis politiques québécois lors de la campagne électorale de 2018Martel, Marc-Antoine 05 1900 (has links)
No description available.
|
Page generated in 0.061 seconds