• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 2
  • 1
  • Tagged with
  • 16
  • 16
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Techniques non-additives d'estimation de la densité de probabilité

Nehme, Bilal 20 December 2010 (has links) (PDF)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
12

Un cadre possibiliste pour l'aide à la décision multicritère et multi-acteurs - Application au marketing et au benchmarking de sites e-commerce

Denguir, Afef 12 March 2007 (has links) (PDF)
Cette thèse se situe dans le cadre d'un processus d'aide à la décision multicritère et multi-acteurs. Elle porte sur la gestion de certains aspects de l'incertitude inhérente à l'évaluation multicritère dans un tel processus. Nous proposons à cet égard une modélisation et une formalisation mathématique de ce processus via une représentation possibiliste des évaluations. Nous avons également proposé de caractériser les distributions de possibilité relatives aux évaluations des différents critères par un ensemble d'indicateurs de description tels que l'imprécision, la divergence, etc., permettant ainsi une interprétation quantitative plus aisée pour le décideur. Nous avons considéré des opérateurs d'agrégation de la famille de l'intégrale de Choquet pour propager les distributions d'évaluations de critère ainsi que les indicateurs de description de distribution, en raison de leur capacité à prendre en compte des interactions entre les critères tout en gardant un caractère de moyenne “généralisée” aisément compréhensible par le décideur. Concernant la propagation des indicateurs, nous avons établi deux théorèmes clés, l'un portant sur l'union des valeurs supérieures et inférieures de l'intervalle moyen d'une distribution de possibilité et l'autre sur l'imprécision moyenne d'une distribution de possibilité la définissant comme la somme des imprécisions moyennes de distributions partielles adjacentes dont elle est l'union. Par ailleurs, Le concept d'explication de la décision a particulièrement constitué le noyau de notre modèle de processus d'aide à la décision. Ainsi à partir des théorèmes établis, nous avons proposé des fonctionnalités explicatives basées sur une quantification de la contribution d'indicateurs décisionnels des évaluations de critères à l'évaluation globale. Nous avons ainsi montré que chaque indicateur relatif à la distribution de l'évaluation globale s'écrit simplement comme une somme pondérée de contributions de critères. Sur le plan applicatif, nous nous sommes intéressés à la formalisation du processus de gestion de mesures de satisfaction de clients dans le contexte de la e-recommandation pour le e-commerce. Nous avons présenté une méthode d'évaluation multicritère des sites de e-commerce par une communauté d'internautes qui permet à la fois de prendre en compte l'importance relative des critères d'évaluation et les interactions entre ceux-ci, mais aussi de gérer différents aspects de l'incertitude inhérents à ce processus d'évaluation. Nous avons développé un prototype logiciel servant de support d'aide à la décision. Cet outil labellisé “Feedback Based Recommendation System” (FBRS) permet de fournir aux managers d'un site de e-commerce, en particulier les équipes marketing et benchmarking, des éléments qui leur permettent de comprendre les scores qui ont été attribués à leur site lors de l'évaluation par les clients. Nous avons montré comment il est alors possible d'identifier les critères les plus influents dans cette évaluation et comment utiliser cette analyse de contributions à des fins de suivi et de management des performances par les responsables marketing et benchmarking. Ces fonctionnalités sont ainsi une base de travail pour ces derniers pour améliorer les stratégies existantes.
13

Contribution à la formalition de bilans/états de santé multi-niveaux d'un système pour aider à la prise de décision en maintenance : agrégation d'indicateurs par l'intégrale de Choquet / Contribution to the formalization of health assessment for a multi-layers system to aid maintenance decision making : Choquet integral-based aggregation of heterogeneous indicators

Abichou, Bouthaïna 18 April 2013 (has links)
Dans cette thèse est défendu l'intérêt d'évaluer la santé d'un système/objet industriel multi-composants à travers un bilan de santé multi-niveaux hiérarchiques. Elle a donc pour objet principal de justifier les éléments essentiels du concept de bilan de santé générique qui représente l'état réel d'un système sous la forme d'un vecteur d'indicateurs de différentes natures. Vis-à-vis de ce fondement, la thèse se focalise plus spécifiquement sur les fonctions de détection des anomalies-normalisation et agrégation d'indicateurs pour élaborer un index synthétique représentatif de l'état de santé global pour chaque élément du système. Il est ainsi proposé, une nouvelle approche de détection conditionnelle des anomalies. Cette approche a pour intérêt de quantifier la déviation pour chaque indicateur par rapport à son mode de comportement nominal tout en prenant en compte le contexte dans lequel évolue le système. Une extension à l'exploitation de l'intégrale de Choquet en tant qu'opérateur d'agrégation des indicateurs est aussi proposée. Cette extension concerne, d'une part, un processus d'apprentissage non supervisé des capacités pour le niveau le plus inférieur dans l'abstraction, à savoir celui des composants, et d'autre part, une approche de mise en oeuvre de leur inférence d'un niveau à l'autre. Ces propositions sont appliquées sur un moteur diesel de navire, système essentiel du projet BMCI du pôle MER-PACA dans lequel s'inscrit cette thèse / This work is addressing the health assessment of a multi-component system by means of multi-levels health check-up. Thus scientific Ph. D. objective aims to establish items of a generic health check-up concept. It focuses specifically on the functions of anomaly detection, normalization and aggregation of different indicators to develop a synthetic index representing the overall health status for each element within the system. In that way, it is proposed a new approach for detecting conditional anomalies. This approach has the advantage of quantifying the deviation for each indicator compared to its nominal behavior while taking into account the context in which the system operates. An extension of the Choquet integral used as an operator aggregating indicators is also proposed. This extension regards on the one hand, a process of an unsupervised learning of the capacity coefficients for the lowest level of abstraction, namely components level, and on the other hand, an approach to inference them from one level to another. These contributions are implemented on a ship diesel engine which is the most critical system for the BMCI project of the MER-PACA pole to which this thesis is attached
14

Techniques non-additives d'estimation de la densité de probabilité / Non-additive techniques for probability density estimation

Nehme, Bilal 20 December 2010 (has links)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabi lité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les méthodes que nous proposons / This manuscript, proposes a new nonparametric method for estimating the probability density function. This estimation method combines the Schwartz distribution theory and the possibility theory. It is an extension of the kernel density estimator that leads to imprecise estimation. It is based on a new method for modeling neighborhood. The interval valued estimate it produces is a convex envelope of the Parzen-Rosenblatt estimates obtained with kernels belonging to a coherent convex family. We propose some theoretical properties of this new method. Among these properties, we have shown a kind of convergence of this estimator. We also shown a particular aptitude of this estimator to quantify the error due to random variation in observation. We also propose very low complexity algorithms to compute the proposed methods.
15

Évaluation et requêtage de données multisources : une approche guidée par la préférence et la qualité des données : application aux campagnes marketing B2B dans les bases de données de prospection / A novel quality-based, preference-driven data evaluation and brokering : approaches in multisource environments : application to marketing prospection databases

Ben Hassine, Soumaya 10 October 2014 (has links)
Avec l’avènement du traitement distribué et l’utilisation accrue des services web inter et intra organisationnels alimentée par la disponibilité des connexions réseaux à faibles coûts, les données multisources partagées ont de plus en plus envahi les systèmes d’informations. Ceci a induit, dans un premier temps, le changement de leurs architectures du centralisé au distribué en passant par le coopératif et le fédéré ; et dans un deuxième temps, une panoplie de problèmes d’exploitation allant du traitement des incohérences des données doubles à la synchronisation des données distribuées. C’est le cas des bases de prospection marketing où les données sont enrichies par des fichiers provenant de différents fournisseurs.Nous nous intéressons au cadre particulier de construction de fichiers de prospection pour la réalisation de campagnes marketing B-to-B, tâche traitée manuellement par les experts métier. Nous visons alors à modéliser le raisonnement de brokers humains, afin d’optimiser et d’automatiser la sélection du « plan fichier » à partir d’un ensemble de données d’enrichissement multisources. L’optimisation en question s’exprimera en termes de gain (coût, qualité) des données sélectionnées, le coût se limitant à l’unique considération du prix d’utilisation de ces données.Ce mémoire présente une triple contribution quant à la gestion des bases de données multisources. La première contribution concerne l’évaluation rigoureuse de la qualité des données multisources. La deuxième contribution porte sur la modélisation et l’agrégation préférentielle des critères d’évaluation qualité par l’intégrale de Choquet. La troisième contribution concerne BrokerACO, un prototype d’automatisation et d’optimisation du brokering multisources basé sur l’algorithme heuristique d’optimisation par les colonies de fourmis (ACO) et dont la Pareto-optimalité de la solution est assurée par l’utilisation de la fonction d’agrégation des préférences des utilisateurs définie dans la deuxième contribution. L’efficacité du prototype est montrée par l’analyse de campagnes marketing tests effectuées sur des données réelles de prospection. / In Business-to-Business (B-to-B) marketing campaigns, manufacturing “the highest volume of sales at the lowest cost” and achieving the best return on investment (ROI) score is a significant challenge. ROI performance depends on a set of subjective and objective factors such as dialogue strategy, invested budget, marketing technology and organisation, and above all data and, particularly, data quality. However, data issues in marketing databases are overwhelming, leading to insufficient target knowledge that handicaps B-to-B salespersons when interacting with prospects. B-to-B prospection data is indeed mainly structured through a set of independent, heterogeneous, separate and sometimes overlapping files that form a messy multisource prospect selection environment. Data quality thus appears as a crucial issue when dealing with prospection databases. Moreover, beyond data quality, the ROI metric mainly depends on campaigns costs. Given the vagueness of (direct and indirect) cost definition, we limit our focus to price considerations.Price and quality thus define the fundamental constraints data marketers consider when designing a marketing campaign file, as they typically look for the "best-qualified selection at the lowest price". However, this goal is not always reachable and compromises often have to be defined. Compromise must first be modelled and formalized, and then deployed for multisource selection issues. In this thesis, we propose a preference-driven selection approach for multisource environments that aims at: 1) modelling and quantifying decision makers’ preferences, and 2) defining and optimizing a selection routine based on these preferences. Concretely, we first deal with the data marketer’s quality preference modelling by appraising multisource data using robust evaluation criteria (quality dimensions) that are rigorously summarized into a global quality score. Based on this global quality score and data price, we exploit in a second step a preference-based selection algorithm to return "the best qualified records bearing the lowest possible price". An optimisation algorithm, BrokerACO, is finally run to generate the best selection result.
16

De l'utilisation des noyaux maxitifs en traitement de l'information

Loquin, Kevin 03 November 2008 (has links) (PDF)
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.<br />Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...<br />Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.

Page generated in 0.0809 seconds