• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 9
  • 2
  • Tagged with
  • 36
  • 36
  • 14
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement de modèles graphiques et logiques non classiques pour le traitement des alertes et la gestion des préférences / Development of graphical models and non-classical logics for preferences handling and alerts treatment

Boudjelida, Abdelhamid 07 April 2013 (has links)
Face aux problèmes quotidiens, on se retrouve souvent confrontés à des situations où la prise de décision est nécessaire. Prendre une décision c'est agir en fonction des choix, préférences et connaissances des agents sur le monde. L'intelligence artificielle a donné naissance à de nombreux outils de représentation permettant d'exprimer les préférences et les connaissances des agents. Malheureusement, les approches existantes ne sont pas totalement satisfaisantes. Ainsi le but de la première partie de cette thèse est de proposer une approche permettant l'intégration des connaissances des experts aux modèles graphiques probabilistes utilisées pour des tâches de classification tels que les réseaux Bayésiens. Les performances des modèles développés sont évaluées concrètement sur des problèmes de détection d'intrusions et de corrélation d'alertes dans le domaine de la sécurité informatique. La deuxième partie concerne la gestion des préférences complexes en présence des contraintes fonctionnelles dans des environnements incertains et la proposition d'une nouvelle logique non classique pour la représentation et le raisonnement sur les préférences en présence des contraintes dans de tels environnements. Les travaux menés dans cette deuxième partie sont testés sur un système de réservation électronique utilisé par le CNRS. / In real life, we often find our self confronted to situations where decision making is necessary. Make a decision is to act according to the choices and preferences of agents as well as their knowledge on the world. Artificial Intelligence gave rise to many tools of representation and expression of agents' preferences and knowledge. Unfortunately, existing approaches are not completely satisfactory. Thus, the goal of the first part of this thesis is to propose an approach allowing the integration of experts' knowledge to the probabilistic graphical models used for classification tasks such as Bayesian networks. The performances of the developed models are concretely evaluated on problems of intrusions detection and alerts correlation in the field of computer security. The second part of this thesis relates to complex preferences handling in presence of functional constraints in uncertain environments and proposes a new non-classical logic for representing and reasoning with preferences in such environments. The works leaded in this second part, are tested on an electronic travel-agency system used by CNRS.
12

Collective decision making under qualitative possibilistic uncertainty : principles and characterization / Décision collective sous incertitude qualitative possibiliste : principes et caractérisation

Essghaier, Fatma 29 September 2016 (has links)
Cette Thèse pose la question de la décision collective sous incertitude possibiliste. On propose différents règles de décision collective qualitative et on montre que dans un contexte possibiliste, l'utilisation d'une fonction d'agrégation collective pessimiste égalitariste ne souffre pas du problème du Timing Effect. On étend ensuite les travaux de Dubois et Prade (1995, 1998) relatifs à l'axiomatisation des règles de décision qualitatives (l'utilité pessimiste) au cadre de décision collective et montre que si la décision collective comme les décisions individuelles satisfont les axiomes de Dubois et Prade ainsi que certains axiomes relatifs à la décision collective, particulièrement l'axiome de Pareto unanimité, alors l'agrégation collective égalitariste s'impose. Le tableau est ensuite complété par une axiomatisation d'un pendant optimiste de cette règle de décision collective. Le système axiomatique que nous avons développé peut être vu comme un pendant ordinal du théorème de Harsanyi (1955). Ce résultat á été démontré selon un formalisme qui et basé sur le modèle de de Von NeuMann and Morgenstern (1948) et permet de comparer des loteries possibilistes. Par ailleurs, on propose une première tentative pour la caractérisation des règles de décision collectives qualitatives selon le formalisme de Savage (1972) qui offre une représentation des décisions par des actes au lieu des loteries. De point de vue algorithmique, on considère l'optimisation des stratégies dans les arbres de décision possibilistes en utilisant les critères de décision caractérisés dans la première partie de ce travail. On offre une adaptation de l'algorithme de Programmation Dynamique pour les critères monotones et on propose un algorithme de Programmation Multi-dynamique et un algorithme de Branch and Bound pour les critères qui ne satisfont pas la monotonie. Finalement, on établit une comparaison empirique des différents algorithmes proposés. On mesure les CPU temps d'exécution qui augmentent linéairement en fonction de la taille de l'arbre mais restent abordable même pour des grands arbres. Ensuite, nous étudions le pourcentage d'exactitude de l'approximation des algorithmes exacts par Programmation Dynamique: Il apparaît que pour le critère U-max ante l'approximation de l'algorithme de Programmation Multi-dynamique n'est pas bonne. Mais, ceci n'est pas si dramatique puisque cet algorithme est polynomial (et efficace dans la pratique). Cependant, pour la règle U+min ante l'approximation par Programmation Dynamique est bonne et on peut dire qu'il devrait être possible d'éviter une énumération complète par Branch and Bound pour obtenir les stratégies optimales. / This Thesis raises the question of collective decision making under possibilistic uncertainty. We propose several collective qualitative decision rules and show that in the context of a possibilistic representation of uncertainty, the use of an egalitarian pessimistic collective utility function allows us to get rid of the Timing Effect. Making a step further, we prove that if both the agents' preferences and the collective ranking of the decisions satisfy Dubois and Prade's axioms (1995, 1998) and some additional axioms relative to collective choice, in particular Pareto unanimity, then the egalitarian collective aggregation is compulsory. The picture is then completed by the proposition and the characterization of an optimistic counterpart of this pessimistic decision rule. Our axiomatic system can be seen as an ordinal counterpart of Harsanyi's theorem (1955). We prove this result in a formalism that is based on Von NeuMann and Morgenstern framework (1948) and compares possibilisitc lotteries. Besides, we propose a first attempt to provide a characterization of collective qualitative decision rules in Savage's formalism; where decisions are represented by acts rather than by lotteries. From an algorithmic standpoint, we consider strategy optimization in possibilistic decision trees using the decision rules characterized in the first part of this work. So, we provide an adaptation of the Dynamic Programming algorithm for criteria that satisfy the property of monotonicity and propose a Multi-Dynamic programming and a Branch and Bound algorithm for those that are not monotonic. Finally, we provide an empirical comparison of the different algorithms proposed. We measure the execution CPU times that increases linearly according to the size of the tree and it remains affordable in average even for big trees. Then, we study the accuracy percentage of the approximation of the pertinent exact algorithms by Dynamic Programming: It appears that for U-max ante criterion the approximation of Multi-dynamic programming is not so good. Yet, this is not so dramatic since this algorithm is polynomial (and efficient in practice). However, for U+min ante decision rule the approximation by Dynamic Programming is good and we can say that it should be possible to avoid a full Branch and Bound enumeration to find optimal strategies.
13

Speed-Q description du trafic environnant

Tremblay, Maxime January 2012 (has links)
L’objectif du projet est de décrire le trafic de l’environnement réel d’un utilisateur en situation de conduite pour qu’un environnement virtuel lui soit plus adapté. Un véhicule équipé de caméras est confié au futur utilisateur du simulateur pour qu’il effectue plusieurs sorties dans son milieu. Des algorithmes de détection et de suivi sont ensuite appliqués sur ces séquences vidéos. Les détecteurs employés utilisent des caractéristiques Haarlike pour entraîner un système d’arbre de décision boosted en cascade. Ces détecteurs produisent de bons résultats pour des objets rigides malgré une grande complexité d’entraînement. Le suivi se fait par l’appariement de points SIFT. L’emphase du travail fut mise sur le développement du framework de détection et de suivi et l’évaluation de ses performances. Le système performe relativement bien lorsqu’il doit détecter et suivre des objets de moyenne ou grande taille, mais présente des faiblesses sur les petits objets et les changements de pose. / The goal of this project is to describe the traffic present in the real world of a simulator user so that the virtual environment is more adapted to him. A vehicle equipped with non-overlapping-view cameras is lent to the simulator’s future user so that he can use it in his driving environment. These collected data will be analyzed using detecting and tracking algorithms. The selected detector uses Haarlike features combined with boosted cascaded decision trees. Those detectors have a high training complexity, but produce good results for rigid objects. Tracking is carried out by the matching of SIFT feature points. The research emphasis was put on the development of the detection and tracking framework. The system performs relatively well for the detection and the tracking on medium and large objects, but shows some weakness to detect or track small objects and to track a pose changing object.
14

Relais de perte de synchronisme par exploration de données

Syla, Burhan 18 April 2018 (has links)
Le but de ce document est de vérifier la faisabilité d’un relais de protection de synchronisme en utilisant la fouille de données et les arbres de décisions. En utilisant EMTP-RV, 180 simulations ont été effectuées sur le réseau Anderson en variant l’endroit auquel survient le court-circuit, la durée, le type, ainsi que le load-flow. Pour chacune de ces simulations, 39 mesures électriques ainsi que huit mesures mécaniques sont sauvegardées. Ces simulations sont ensuite classées stables et instables en utilisant le centre d’inertie d’angle et de vitesse. Trente-trois nouvelles autres variables sont déduites des 39 premières et sont ajoutées en utilisant MATLAB. Avec le logiciel KNIME, les arbres de décision de type C4.5, CART, ADABoost, ADTree et les forêts aléatoires sont modélisées et leurs performances en fonction de la période d’échantillonnage sont comparées. Une réduction de variable par filtre de type Consistency Subset Eval, Symmetrical Uncert Attribute Set Eval et Correlation-based Feature Subset Selection est ensuite appliquée. Les simulations sont visualisées en utilisant l’ensemble de validation. Les résultats montrent que l’utilisation d’une fréquence de 240 [Hz] et 28 variables est suffisante pour obtenir, en moyenne, une aire sous la courbe de 0.9591 pour l’ensemble de test et de validation des 4 générateurs. / The goal of this document is to verify the feasability of an out-of-step relay using data mining and decision trees. Using EMTP-RV and the Anderson network, 180 simulations were done while changing the place of the short circuit, the length, the type and the load-flow. For these simulations, 39 electrical measures and 8 mechanical measures were made. These simulations were then classified as stable or instable using the center of inertia of angle and speed. With MATLAB, 33 new other variables were created by using the first 39, and then with KNIME, decisions trees such as C4.5, CART, ADABoost, ADTree and random forest were simulated and the sampling time versus the performances were compared. Using Consistency Subset Eval, Symmetrical Uncert Attribute Set Eval and Correlation-based Feature Subset Selection, the features were reduced and the simulations were visualised using the validation set. Results show that with a sampling frequency of 240 [Hz] and 28 variables is enough to obtain a mean area under the curve of 0.9591 for the training and the validation set of the 4 generators.
15

Méthodes d'apprentissage statistique pour le ranking théorie, algorithmes et applications

Robbiano, Sylvain 19 June 2013 (has links) (PDF)
Le ranking multipartite est un problème d'apprentissage statistique qui consiste à ordonner les observations qui appartiennent à un espace de grande dimension dans le même ordre que les labels, de sorte que les observations avec le label le plus élevé apparaissent en haut de la liste. Cette thèse vise à comprendre la nature probabiliste du problème de ranking multipartite afin d'obtenir des garanties théoriques pour les algorithmes de ranking. Dans ce cadre, la sortie d'un algorithme de ranking prend la forme d'une fonction de scoring, une fonction qui envoie l'espace des observations sur la droite réelle et l'ordre final est construit en utilisant l'ordre induit par la droite réelle. Les contributions de ce manuscrit sont les suivantes : d'abord, nous nous concentrons sur la caractérisation des solutions optimales de ranking multipartite. Une nouvelle condition sur les rapports de vraisemblance est introduite et jugée nécessaire et suffisante pour rendre le problème de ranking multipartite bien posé. Ensuite, nous examinons les critères pour évaluer la fonction de scoring et on propose d'utiliser une généralisation de la courbe ROC nommée la surface ROC pour cela ainsi que le volume induit par cette surface. Pour être utilisée dans les applications, la contrepartie empirique de la surface ROC est étudiée et les résultats sur sa consistance sont établis. Le deuxième thème de recherche est la conception d'algorithmes pour produire des fonctions de scoring. La première procédure est basée sur l'agrégation des fonctions de scoring apprises sur des sous-problèmes de ranking binaire. Dans le but d'agréger les ordres induits par les fonctions de scoring, nous utilisons une approche métrique basée sur le de Kendall pour trouver une fonction de scoring médiane. La deuxième procédure est une méthode récursive, inspirée par l'algorithme TreeRank qui peut être considéré comme une version pondérée de CART. Une simple modification est proposée pour obtenir une approximation de la surface ROC optimale en utilisant une fonction de scoring constante par morceaux. Ces procédures sont comparées aux algorithmes de l'état de l'art pour le ranking multipartite en utilisant des jeux de données réelles et simulées. Les performances mettent en évidence les cas où nos procédures sont bien adaptées, en particulier lorsque la dimension de l'espace des caractéristiques est beaucoup plus grand que le nombre d'étiquettes. Enfin, nous revenons au problème de ranking binaire afin d'établir des vitesses minimax adaptatives de convergence. Ces vitesses sont montrées pour des classes de distributions contrôlées par la complexité de la distribution a posteriori et une condition de faible bruit. La procédure qui permet d'atteindre ces taux est basée sur des estimateurs de type plug-in de la distribution a posteriori et une méthode d'agrégation utilisant des poids exponentiels.
16

MÉLIDIS : Reconnaissance de formes par modélisation mixte intrinsèque/discriminante à base de systèmes d'inférence floue hiérarchisés

Ragot, Nicolas 28 October 2003 (has links) (PDF)
La problématique de la reconnaissance de formes manuscrites est particulièrement riche et complexe. Il existe en effet un grand nombre de problèmes différents à traiter dans lesquels les formes à reconnaître sont nombreuses, soumises à une variabilité importante et donc sources de confusions. De plus, les contraintes applicatives, et notamment celles résultant de la volonté de diffusion des moyens informatiques au travers de l'informatique nomade (PDA, smart phone...), font que la conception et l'adaptation de systèmes de reconnaissance à des contextes précis d'utilisation sont particulièrement délicats.<br /><br />Pour faciliter cette mise au point nous proposons une méthodologie de classification visant à réunir un ensemble de propriétés rarement satisfaites dans une même approche : performances, généricité, fiabilité, robustesse, compacité et interprétabilité. Ce dernier point est particulièrement important puisqu'il permet au concepteur d'adapter, de maintenir et d'optimiser le système plus facilement. L'approche proposée, centrée sur la notion de connaissances dans un classifieur, est entièrement guidée par les données. L'originalité réside notamment dans l'exploitation conjointe de connaissances intrinsèques et discriminantes extraites automatiquement et organisées sur deux niveaux pour bénéficier au mieux de leur complémentarité. Le premier niveaux modélise les classes de façon explicite par des prototypes flous. Ceux-ci sont notamment utilisés pour décomposer le problème initial en sous-problèmes dans lesquels les formes possèdant des propriétés intrinsèques similaires sont regroupées. Le second niveau effectue ensuite une discrimination ciblée sur ces sous-problèmes par des arbres de décision flous. L'ensemble est formalisé de façon homogène par des systèmes d'inférence floue qui sont combinés pour la classification.<br /><br />Cette approche a conduit à la réalisation du système Mélidis qui a été validé sur plusieurs benchmarks dont des problèmes de reconnaissance de caractères manuscrits en ligne.
17

Analyse Quantifiée de la Marche : extraction de connaissances à partir de données pour l'aide à l'interprétation clinique de la marche digitigrade

ARMAND, Stéphane 29 June 2005 (has links) (PDF)
L'Analyse Quantifiée de la Marche (AQM) est un examen permettant d'identifier et de quantifier les défauts de marche d'un patient à partir de données biomécaniques. L'interprétation de cet examen, conduisant à l'explication des défauts de marche, est ardue. Parmi ces défauts, la marche digitigrade est un des plus courants et pour lequel l'identification des causes demeure difficile. Ce travail propose de fournir une aide à l'interprétation des données de l'AQM pour la marche digitigrade. Afin d'atteindre cet objectif, une méthode d'Extraction de Connaissances à partir de Données (ECD) est utilisée en combinant un apprentissage automatique non-supervisé et supervisé, pour extraire objectivement des connaissances intrinsèques et discriminantes des données de l'AQM. L'apprentissage non-supervisé (c-moyennes floues) a permis d'identifier trois patrons de marche digitigrade à partir de la cinématique de la cheville provenant d'une base de données de plus de 2500 AQM (Institut Saint-Pierre, Palavas, 34). L'apprentissage supervisé est utilisé pour expliquer ces trois patrons de marche par des mesures cliniques sous la forme de règles induites à partir d'arbres de décision flous. Les règles les plus significatives et interprétables (12) sont sélectionnées pour créer une base de connaissances qui est validée au regard de la littérature et des experts. Ces règles peuvent servir d'aide à l'interprétation des données de l'AQM pour la marche digitigrade. Ce travail ouvre différentes perspectives de recherche allant de la généralisation de la méthode utilisée à la création d'un simulateur de marche pathologique.
18

Evaluation des risques de crise, appliquée à la détection des conflits armés intra-étatiques

Delavallade, Thomas 06 December 2007 (has links) (PDF)
Dans de nombreux domaines, l'analyse rationnelle des risques fait partie intégrante du processus de décision. Il s'agit d'un outil méthodologique essentiel pour les acteurs politiques et économiques qui leur permet d'anticiper le déclenchement de crises potentielles. Dans certains secteurs d'activité les conséquences de telles crises sont parfois telles que le recours à l'analyse de risque correspond à une contrainte réglementaire imposée par le législateur. L'objectif d'une telle analyse est de parvenir à identifier les situations à risque ainsi que les principaux facteurs de risque de manière à pouvoir mettre en place les politiques de prévention adéquates.<br />Si de nombreuses cellules de veille ont été mises en place, tant au niveau de l'entreprise, qu'au niveau des institutions nationales et internationales, la quantité d'information potentiellement pertinente pour un sujet donné est parfois telle que la mise à disposition d'outils automatisant tout ou partie du traitement de cette information répond à un besoin réel, sinon à une nécessité.<br />Dans cette optique, dans cette thèse, nous proposons un système générique d'aide à l'anticipation de crises. Notre objectif est de fournir une synthèse d'une situation donnée, d'un point de vue structurel et non événementiel, via l'identification des crises potentielles ainsi que des principaux facteurs de risque associés. Le système que nous proposons repose sur l'apprentissage supervisé de règles de décision floues.<br />La qualité des données d'apprentissage étant problématique dans de nombreuses applications, nous proposons, dans nos travaux, une étude approfondie sur la chaîne de prétraitement, et en particulier sur le traitement des valeurs manquantes et sur la sélection d'attributs. Nous avons également mis l'accent sur l'évaluation et la sélection de modèles afin de pouvoir adapter les modèles de détection au problème à traiter, ainsi qu'aux besoins de l'utilisateur final.<br />La synthèse des résultats fournis par notre système étant destiné à des utilisateurs en charge de la veille stratégique, des outils d'aide au raisonnement et à la compréhension de cette synthèse sont également proposés.<br />Pour juger de l'intérêt de notre méthodologie nous détaillons son application à un problème concret : la détection des conflits armés intra-étatiques.
19

Etude de la production de paires de quarks TOP avec ATLAS au LHC, mesure de la masse du quark TOP

Cinca, Diane 22 September 2011 (has links) (PDF)
Découvert en 1995 à Fermilab, le quark top est le dernier quark découvert. La mesure de ses propriétés permet de tester les prédictions du Modèle Standard et de contraindre la masse du boson de Higgs. De par ses propriétés, le quark top est aussi un partenaire privilégié dans la recherche de particules de Nouvelle Physique attendues à l'échelle du TeV. Ce travail de thèse, effectué auprès du détecteur ATLAS au LHC, présente les méthodes mises en oeuvre afin de mesurer la masse du quark top dans sa désintégration semileptonique. Différentes méthodes de reconstruction des évènements top sont présentées ainsi qu'une analyse dédiée basée sur les arbres de décision boostés. Ses performances sont quantifiées. La mesure précise de la masse du quark top nécessite une compréhension approfondie de l'échelle en énergie des jets. Deux stratégies sont présentées afin de calibrer les jets légers et les jets issus de quark b à l'échelle partonique. Les performances d'un ajustement cinématique appliqué à la mesure de la masse du quark top sont présentées. Une mesure de la masse du quark top est extraite en utilisant une définition de la masse calibrée à l'échelle partonique.
20

Vers une première mesure du rapport de branchement $B^{0}_{(s)} \to\mu^+ \mu^-$ avec le détecteur LHCb au LHC

Adrover Pacheco, Cosme 10 September 2012 (has links) (PDF)
Les désintégrations rares $B^{0}_{s} \to \mu^+ \mu^-$ et $B^{0} \to \mu^+ \mu^-$ sont des canaux de référence pour contraindre les modèles au-delà du Modèle Standard avec secteur de Higgs étendu. Dans le Modèle Standard, le rapport d' embranchement de ces désintégrations est prédit avec une bonne précision: $\mathcal{B}(B^{0}_{(s)} \to \mu^+ \mu^-) = (3.2 \pm 0.2) \times 10^{-9}$ et $\mathcal{B}(B^{0} \to \mu^+ \mu^-) = (0.10 \pm 0.01) \times 10^{-10}$. Tout écart par rapport à ces valeurs peut donner des indications sur une nouvelle physique. Le cœur de cette thèse, basée sur l'analyse des données prises par l'experience LHCb en 2011, comporte deux thèmes principaux: le rejet du bruit de fond et l'extraction du signal. Nous avons optimisé un classificateur multivariée basé sur les arbres de décision boostés permettant une réduction drastique du bruit de fond de $B \to h^+ h'^-$ ($h \equiv \pi, K$). Après la sélection, environ 76$\%$ du bruit de fond combinatoire de $B^{0}_{s} \to \mu^+ \mu^-$ est éliminé, tout en conservant une efficacité sur le signal de l'ordre de 92$\%$. Une autre discrimination entre le signal et le fond est réalisé avec un autre classificateur multivarié optimisé pour avoir un grand rejet du bruit de fond dans la région de faible efficacité en signal. Le travail présenté dans cette thèse décrit l'optimisation d'un des arbres de décision boostés qui supprime 99.9$\%$ du bruit, après le processus de sélection ci-dessus, pour une efficacité de signal de 50$\%$. Nous avons proposé une méthode pour estimer les signaux présents dans notre échantillon de données en utilisant un ajustement de la fonction de vraisemblance. La validation de l'ajustement avec simulation reflète la bonne estimation des incertitudes statistiques et les incertitudes systématiques ont été soigneusement étudiés et prises en compte dans les résultats finaux pour l'échantillon de données de 2011: $\mathcal{B}(B^{0}_{s} \rightarrow \mu^+\mu^-) = (1.4 \left(^{+1.6}_{-1.1} \right)_{(stat)} \left(^{+0.5}_{-0.8} \right)_{(syst)} ) \times 10^{-9}$ et $\mathcal{B}(B^{0} \rightarrow \mu^+\mu^-) = (0.3 \left(^{+0.5}_{-0.4}\right)_{(stat)} \left(^{+0.5}_{-0.3}\right)_{(syst)}) \times 10^{-9}$. Etant donné l'absence de signal, les limites supérieures des rapports d'embranchement sont calculées: $\mathcal{B}(B^{0}_{(s)} \to \mu^+ \mu^-)<4,5 \times 10^{-9}$ et $\mathcal{B}(B^{0} \to \mu^ + \mu^-) <1,0 \times 10^{-10}$ á 95\% de niveau de confiance, qui sont les limites les plus restrictives jusqu'à ce jour.

Page generated in 0.0735 seconds