Return to search

Privacité dans les problèmes distribués contraints pour agents basés utilité / Privacy in distributed constrained problems for utility-based agents

Bien que le domaine des systèmes multi-agents ait été largement étudié, les interactions entre agents entraînent des pertes de privacité. En effet, la résolution de problèmes distribués, étant fréquemment combinatoires, impose un échange intensif d’informations entre les agents jusqu’à l’obtention d’un accord. Le problème est que les approches existantes ne considèrent généralement pas la confidentialité des données et se concentrent surtout sur la satisfaction des contraintes des agents pour évaluer les solutions. Les travaux présentés dans cette thèse visent donc à prendre en compte de façon principielle la problématique de la privacité dans le raisonnement distribué. Nous montrons que les travaux existants dans le domaine permettent toutefois aux agents de préserver implicitement un certain degré de privacité. Nous proposons une approche basée sur la théorie de l’utilité, un cadre formel bien défini en Intelligence Artificielle, permettant une approche objective et quantitative des intérêts et comportements raisonnables des agents. Plus précisément, le modèle que nous avons développé inclut non seulement les paramètres habituels mais également l’information sur la privacité des agents quantifiée en termes d’utilité. Nous montrons aussi que ces problèmes doivent être envisagés comme des problèmes de planification où les agents choisissent des actions maximisant leur utilité. Des algorithmes actuels peuvent être décrits comme des plans utilisables comme modèle générique par des planificateurs intelligents. Les expérimentations réalisées ont permis de valider l’approche et d’évaluer la qualité des solutions obtenues tout en montrant que leur efficacité peut être accrue à l’aide de traitements de privacité. / Although the field of multi-agent systems has been largely studied, interactions between agents imply privacy loss. Indeed, solving distributed problems, being frequently combinatorial, implies an extensive exchange of information between agents until an agreement is found. The problem is that existing approaches do not generally consider privacy and focus only on the satisfaction of agents’ constraints to evaluate solution. The works presented in this thesis therefore aim at considering systematically the issue of privacy in distributed reasoning. We show that existing works in the field still let agents preserve implicitly some degree of privacy. We propose an approach based on utility theory, a formal setting well defined in Artificial Intelligence, allowing an objective and quantitative approach to the interests and reasonable behaviours of agents. More precisely, the model we have developed includes non only the usual parameters but also information on agents privacy quantified in term of utility. We also show that these problems must be considered as planning problems where agents choose actions maximizing their utility. Common algorithms can be described as plans usable as generic models by intelligent planners. Conducted experiments let us validate the approach and evaluate the quality of obtained solution, while showing that their efficiency can be improved thanks to privacy considerations.

Identiferoai:union.ndltd.org:theses.fr/2017VALE0030
Date25 October 2017
CreatorsSavaux, Julien
ContributorsValenciennes, Mandiau, René, Piechowiak, Sylvain
Source SetsDépôt national des thèses électroniques françaises
LanguageEnglish
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0026 seconds