• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 41
  • 9
  • Tagged with
  • 118
  • 52
  • 46
  • 34
  • 29
  • 29
  • 25
  • 21
  • 19
  • 19
  • 18
  • 17
  • 17
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Étude des interventions didactiques dans l'enseignement des probabilités auprès d’élèves jugés ou non en difficulté en mathématiques en classes ordinaires du primaire

Martin, Vincent January 2014 (has links)
Au Québec, la majorité des élèves en difficulté sont scolarisés dans des classes ordinaires au primaire, mais peu de travaux ont caractérisé l’enseignement des mathématiques spécifiquement dispensé à ces élèves dans ce contexte. En prenant appui sur le concept d’intervention didactique (Vannier, 2002, 2006) et sur une analyse didactique des probabilités, notre recherche a visé à décrire et à comprendre des interventions didactiques mises en œuvre dans le cadre d’un enseignement des probabilités à des élèves de classes ordinaires du primaire jugés ou non en difficulté en mathématiques par leur enseignant. Pour atteindre cet objectif, nous avons observé deux enseignants du troisième cycle, qui sont partis d’une même ressource didactique liée aux probabilités pour concevoir et mettre en œuvre un projet didactique adapté à leurs élèves. Un enregistrement en classe et des entrevues pré-action et postaction ont été réalisés avec chacun des enseignants. Puis, une analyse quantitative a été réalisée sur les interventions faites par les enseignants, et une analyse didactique a été menée afin de mettre en relief certains faits saillants liés à l’enseignement des probabilités et aux conditions didactiques offertes aux élèves jugés en difficulté en mathématiques. Les résultats de notre étude montrent que les deux enseignants ont rencontré certaines difficultés avec la perspective probabiliste fréquentielle et les enjeux conceptuels qui lui sont associés. De plus, l’institutionnalisation des savoirs en jeu a aussi été un défi, notamment pour établir un lien entre les enjeux probabilistes sous-jacents et les solutions de l’activité. Nous avons également constaté que les conditions didactiques offertes au sein des classes observées apparaissent influencées par la gestion des échanges par l’enseignant et par sa maitrise des savoirs mathématiques en jeu. De plus, il semble que les conditions didactiques offertes aux élèves jugés en difficulté en mathématiques soient de nature similaire à celles offertes aux élèves qui ne sont pas jugés en difficulté. Néanmoins, des différences quantitatives ont été observées entre les élèves jugés en difficulté en mathématiques et ceux qui ne le sont pas en ce qui concerne le nombre d’interventions et les moments où ces interventions ont été faites durant l’activité.
32

Développement de modèles graphiques et logiques non classiques pour le traitement des alertes et la gestion des préférences / Development of graphical models and non-classical logics for preferences handling and alerts treatment

Boudjelida, Abdelhamid 07 April 2013 (has links)
Face aux problèmes quotidiens, on se retrouve souvent confrontés à des situations où la prise de décision est nécessaire. Prendre une décision c'est agir en fonction des choix, préférences et connaissances des agents sur le monde. L'intelligence artificielle a donné naissance à de nombreux outils de représentation permettant d'exprimer les préférences et les connaissances des agents. Malheureusement, les approches existantes ne sont pas totalement satisfaisantes. Ainsi le but de la première partie de cette thèse est de proposer une approche permettant l'intégration des connaissances des experts aux modèles graphiques probabilistes utilisées pour des tâches de classification tels que les réseaux Bayésiens. Les performances des modèles développés sont évaluées concrètement sur des problèmes de détection d'intrusions et de corrélation d'alertes dans le domaine de la sécurité informatique. La deuxième partie concerne la gestion des préférences complexes en présence des contraintes fonctionnelles dans des environnements incertains et la proposition d'une nouvelle logique non classique pour la représentation et le raisonnement sur les préférences en présence des contraintes dans de tels environnements. Les travaux menés dans cette deuxième partie sont testés sur un système de réservation électronique utilisé par le CNRS. / In real life, we often find our self confronted to situations where decision making is necessary. Make a decision is to act according to the choices and preferences of agents as well as their knowledge on the world. Artificial Intelligence gave rise to many tools of representation and expression of agents' preferences and knowledge. Unfortunately, existing approaches are not completely satisfactory. Thus, the goal of the first part of this thesis is to propose an approach allowing the integration of experts' knowledge to the probabilistic graphical models used for classification tasks such as Bayesian networks. The performances of the developed models are concretely evaluated on problems of intrusions detection and alerts correlation in the field of computer security. The second part of this thesis relates to complex preferences handling in presence of functional constraints in uncertain environments and proposes a new non-classical logic for representing and reasoning with preferences in such environments. The works leaded in this second part, are tested on an electronic travel-agency system used by CNRS.
33

On stability and control of random jump linear systems / Contribution à la stabilité et à la commande des systèmes linéaires à sauts aléatoires

Chitraganti, Shaikshavali 05 December 2014 (has links)
Dans cette thèse, nous considérons des problèmes de stabilité et de commande robuste pour une classe de systèmes linéaires à sauts aléatoires. Dans la première partie, nous nous intéressons d'une part à l'analyse de la de systèmes linéaires à sauts Markoviens non-Homogènes en temps, et ceci en temps discret. En particulier, nous considérons le cas où la matrice de probabilité de transition de la chaîne de Markov non-Homogène varie dans un intervalle. En nous appuyons sur des outils issus de l'analyse par intervalles ainsi que de la théorie des graphes, nous obtenons une condition suffisante de stabilité en moyenne quadratique de cette classe de systèmes. D'autre part, nous considérons le problème de stabilité stochastique de systèmes linéaires à temps continu et à sauts aléatoires dépendant de l'état du système. En utilisant une version stochastique de la deuxième méthode de Lyapunov et la formule de Dynkin adaptée à cette classe de systèmes, nous établissons des conditions suffisantes de stabilité en termes d'inégalités matricielles linéaires. Dans la seconde partie de cette thèse, nous étudions le problème de commande prédictive des systèmes à sauts aléatoires sujets à des contraintes de type probabilistes. Nous étudions dans un premier temps un problème de commande à horizon glissant d'un système linéaire discret à sauts dépendant de l'état, soumis à des perturbations aléatoires éventuellement non bornées et à des contraintes de type probabilistes sur l'état du système. Dans un deuxième temps, nous relaxons l'hypothèse d'accessibilité de l'état du système et considérons le problème de commande à horizon glissant basée sur une estimation de l'état du système / We address stability and control problems of random jump linear systems (JLSs) that consists of a set of linear systems and the switching among them is governed by a random jump process. In the first part, we consider second moment stability and stabilization of random JLSs. We first consider discrete-Time inhomogeneous Markov JLSs with interval transition probability matrix and obtain a sufficient condition in terms of a spectral radius of a matrix by using results of interval analysis and graph theory. Alternatively, we obtain a convex hull representation of the interval transition probability matrix and give a sufficient condition in terms of linear matrix inequalities, using which we deal with stabilization. Next, we consider a continuous-Time state-Dependent JLS, where the transition rates of the random jump process depend on the state variable and address the problem of stochastic stability and stabilization. Then, we consider the presence of external disturbances and extend our results to H infinity stabilization problem. In the second part, we consider control of random JLSs subject to constraints. We use receding horizon control approach to handle constraints. We first investigate a receding horizon control of discrete-Time state-Dependent JLSs subject to stochastic disturbances and probabilistic constraints. For the same system, we try to extend our approach to the case of imperfect state availability. However, the unavailability of the state makes the formulation of state-Dependent jump process complex. Thus we confine ourselves to discrete-Time homogeneous Markov JLSs with process noise and noisy measurements and address the receding horizon control problem
34

Modeling and verification of probabilistic data-aware business processes / Modélisation et vérification des processus métier orientés données probabilistes

Li, Haizhou 26 March 2015 (has links)
Un large éventail de nouvelles applications met l’accent sur la nécessité de disposer de modèles de processus métier capables de manipuler des données imprécises ou incertaines. Du fait de la présence de données probabilistes, les comportements externes de tels processus métier sont non markoviens. Peu de travaux dans la littérature se sont intéressés à la vérification de tels systèmes. Ce travail de thèse étudie les questions de modélisation et d’analyse de ce type de processus métier. Il utilise comme modèle formel pour décrire les comportements des processus métier un système de transitions étiquetées dans lequel les transitions sont gardées par des conditions définies sur une base de données probabiliste. Il propose ensuite une approche de décomposition de ces processus qui permet de tester la relation de simulation entre processus dans ce contexte. Une analyse de complexité révèle que le problème de test de simulation est dans 2-EXPTIME, et qu’il est EXPTIME-difficile en termes de complexité d’expression, alors que du point de vue de la complexité en termes des données, il n’engendre pas de surcoût supplémentaire par rapport au coût de l’évaluation de requêtes booléennes sur des bases de données probabilistes. L’approche proposée est ensuite étendue pour permettre la vérification de propriétés exprimées dans les logiques P-LTL et P-CTL. Finalement, un prototype, nommé ‘PRODUS’, a été implémenté et utilisé dans le cadre d’une application liée aux systèmes d’information géographiques pour montrer la faisabilité de l’approche proposée. / There is a wide range of new applications that stress the need for business process models that are able to handle imprecise data. This thesis studies the underlying modelling and analysis issues. It uses as formal model to describe process behaviours a labelled transitions system in which transitions are guarded by conditions defined over a probabilistic database. To tackle verification problems, we decompose this model to a set of traditional automata associated with probabilities named as world-partition automata. Next, this thesis presents an approach for testing probabilistic simulation preorder in this context. A complexity analysis reveals that the problem is in 2-exptime, and is exptime-hard, w.r.t. expression complexity while it matches probabilistic query evaluation w.r.t. data-complexity. Then P-LTL and P-CTL model checking methods are studied to verify this model. In this context, the complexity of P-LTL and P-CTL model checking is in exptime. Finally a prototype called ”PRODUS” which is a modeling and verification tool is introduced and we model a realistic scenario in the domain of GIS (graphical information system) by using our approach.
35

Modèles d'instruments pour la séparation de sources et la transcription d'enregistrements musicaux

Vincent, Emmanuel 02 December 2004 (has links) (PDF)
Depuis une quinzaine d'années, l'étude des enregistrements de musique de chambre se focalise sous deux points de vue distincts : la séparation de sources et la transcription polyphonique. La séparation de sources cherche à extraire des enregistrements les signaux correspondant aux instruments présents. La transcription polyphonique vise à les décrire par un ensemble de paramètres : noms des instruments, hauteurs et volumes des notes jouées, etc. Les méthodes existantes, fondées sur l'analyse spatiale et spectro-temporelle des enregistrements, fournissent des résultats satisfaisants sur des cas simples. Mais généralement leur performance se dégrade vite au-delà d'un nombre d'instruments limite ou en présence de réverbération, d'instruments de même tessiture ou de notes à intervalle harmonique. Notre hypothèse est que ces méthodes souffrent souvent de modèles de sources instrumentales trop génériques. Nous proposons d'y remédier par la création de modèles d'instruments spécifiques basés sur un apprentissage. Dans ce travail, nous justifions cette hypothèse par l'étude des informations pertinentes présentes dans les enregistrements musicaux et de leur exploitation par les méthodes existantes. Nous construisons ensuite de nouveaux modèles probabilistes d'instruments inspirés de l'Analyse en Sous-espaces Indépendants (ASI) et nous donnons quelques exemples d'instruments appris. Enfin nous appliquons ces modèles à la séparation et la transcription d'enregistrements réalistes, parmi lesquels des pistes de CD et des mélanges synthétiques convolutifs ou sous-déterminés de ces pistes.
36

Modèles graphiques probabilistes pour la reconnaissance de formes

Barrat, Sabine 04 December 2009 (has links) (PDF)
La croissance rapide d'Internet et de l'information multimédia a suscité un besoin en développement de techniques de recherche d'information multimédia, et en particulier de recherche d'images. On peut distinguer deux tendances. La première, appelée recherche d'images à base de texte, consiste à appliquer des techniques de recherche d'information textuelle à partir d'images annotées. Le texte constitue une caractéristique de haut-niveau, mais cette technique présente plusieurs inconvénients : elle nécessite un travail d'annotation fastidieux. De plus, les annotations peuvent être ambiguës car deux utilisateurs peuvent utiliser deux mots-clés différents pour décrire la même image. Par conséquent, plusieurs approches ont proposé d'utiliser l'ontologie Wordnet, afin de réduire ces ambiguïtés potentielles. La seconde approche, appelée recherche d'images par le contenu, est plus récente. Ces techniques de recherche d'images par le contenu sont basées sur des caractéristiques visuelles (couleur, texture ou forme), calculées automatiquement, et utilisent une mesure de similarité afin de retrouver des images. Cependant, les performances obtenues ne sont pas vraiment acceptables, excepté dans le cas de corpus spécialisés. De façon à améliorer la reconnaissance, une solution consiste à combiner différentes sources d'information : par exemple, différentes caractéristiques visuelles et/ou de l'information sémantique. Or, dans de nombreux problèmes de vision, on dispose rarement d'échantillons d'apprentissage entièrement annotés. Par contre, il est plus facile d'obtenir seulement un sous-ensemble de données annotées, car l'annotation d'un sous-ensemble est moins contraignante pour l'utilisateur. Dans cette direction, cette thèse traite des problèmes de modélisation, classification et annotation d'images. Nous présentons une méthode pour l'optimisation de la classification d'images naturelles, en utilisant une approche de classification d'images basée à la fois sur le contenu des images et le texte associé aux images, et en annotant automatiquement les images non annotées. De plus, nous proposons une méthode de reconnaissance de symboles, en combinant différentes caractéristiques visuelles. L'approche proposée est dérivée de la théorie des modèles graphiques probabilistes et dédiée aux deux tâches de classification d'images naturelles partiellement annotées, et d'annotation. Nous considérons une image comme partiellement annotée si son nombre de mots-clés est inférieur au maximum de mots-clés observés dans la vérité-terrain. Grâce à leur capacité à gérer les données manquantes et à représenter d'éventuelles relations entre mots-clés, les modèles graphiques probabilistes ont été proposés pour représenter des images partiellement annotées. Par conséquent, le modèle que nous proposons ne requiert pas que toutes les images soient annotées : quand une image est partiellement annotée, les mots-clés manquants sont considérés comme des données manquantes. De plus, notre modèle peut étendre automatiquement des annotations existantes à d'autres images partiellement annotées, sans intervention de l'utilisateur. L'incertitude autour de l'association entre un ensemble de mots-clés et une image est représentée par une distribution de probabilité jointe sur le vocabulaire des mots-clés et les caractéristiques visuelles extraites de nos bases d'images. Notre modèle est aussi utilisé pour reconnaître des symboles en combinant différents types de caractéristiques visuelles (caractéristiques discrètes et continues). De plus, de façon à résoudre le problème de dimensionnalité dû à la grande dimension des caractéristiques visuelles, nous avons adapté une méthode de sélection de variables. Enfin, nous avons proposé un modèle de recherche d'images permettant à l'utilisateur de formuler des requêtes sous forme de mots-clés et/ou d'images. Ce modèle intègre un processus de retour de pertinence. Les résultats expérimentaux, obtenus sur de grandes bases d'images complexes, généralistes ou spécialisées, montrent l'intérêt de notre approche. Enfin, notre méthode s'est montrée compétitive avec des modèles de l'état de l'art.
37

Traitement automatique d'informations appliqué aux ressources humaines

Kessler, Rémy 10 July 2009 (has links) (PDF)
Depuis les années 90, Internet est au coeur du marché du travail. D'abord mobilisée sur des métiers spécifiques, son utilisation s'étend à mesure qu'augmente le nombre d'internautes dans la population. La recherche d'emploi au travers des « bourses à l'emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d'informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d'information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d'outils pour automatiser les flux d'informations lors d'un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d'une entreprise à gérer efficacement et à moindre coût ces flux d'informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l'application des méthodes d'apprentissage afin d'effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l'analyse et l'intégration d'une offre d'emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d'intégrer une offre d'emploi d'une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d'assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d'effectuer un classement pertinent des candidatures. L'utilisation d'un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité.
38

Organisation spatiale du tissu conjonctif intramusculaire: Relation avec la texture de la viande bovine

Maunier-Sifre, Laurence 06 July 2005 (has links) (PDF)
Le périmysium a été analysé à l'aide de deux modalités d'imagerie, l'histologie et l'imagerie par résonance magnétique (IRM). L'histologie a permis l'observation des faisceaux primaires et l'IRM des faisceaux d'ordre supérieur. Dans les deux cas, une méthode de seuillage du périmysium a été mise au point et validée avec la construction d'une banque de cartes de référence probabilistes, résultat de la segmentation manuelle du réseau par un jury d'experts. Le périmysium segmenté a été caractérisé à l'aide de variable morpho-anatomiques et granulométriques. Celles-ci ont été ensuite reliées à la résistance mécanique et à la tendreté sensorielle de la viande cuite. Ce sont les structures macroscopiques, visualisées en IRM, qui jouent un rôle majeur sur le déterminisme de la tendreté de la viande bovine cuite. Ces résultats ouvrent des perspectives pour le développement de méthodes d'imagerie simples adaptées à la prédiction et au contrôle de la tendreté de la viande bovine.
39

Méthodes probabilistes pour la vérification des systèmes distribués

Messika, Stéphane 14 December 2004 (has links) (PDF)
Les probabilités sont de plus en plus utilisées dans la conception et l'analyse des systèmes logiciels et matériels informatiques. L'introduction des tirages aléatoires dans les algorithmes concurrents et distribués permet de résoudre certains problèmes insolubles dans le cadre déterministe et de réduire la complexité de nombreux autres. Nous avons été amenés à étudier deux types de propriétés probabilistes. La convergence : cette propriété assure que, quel que soit l'état de départ et quel que soit l'enchainement des actions, le système atteindra toujours (avec probabilité 1) un ensemble donné d'états d'arrivée en un nombre fini d'actions (auto-stabilisation).L'accessibilité : ce type de propriété répond à des questions telles que "quelle est la probabilité p qu'une exécution partant d'un état initial donné atteigne un état final donné ? Quelles sont les bornes maximales et minimales de p ?" En ce qui concerne le premier point, nous avons développé de nouveaux critères permettant d'assurer la convergence et d'en calculer la vitesse (mixing time). Ces crotères utilisent l'analogie avec des modèles de physiquestatistique (champs de Markov) et exploitent des outils d'analyse probabiliste classiques (coupling, chaînes de Markov, processus de décision markoviens). Pour le second point, nous avons obtenu des résultats pratiques sur la vérification de protocoles de communication, comme le protocole Ethernet, en les modélisant à l'aide d'automates temporisés probabilistes et utilisant des outils de model-checking temporisés (HyTech) et probabiliste (PRISM, APMC).
40

Développement et vérification des logiques probabilistes et des cadres logiques

Maksimović, Petar 15 October 2013 (has links) (PDF)
On présente une Logique Probabiliste avec des opérateurs Conditionnels - LPCP, sa syntaxe, sémantique, axiomatisation correcte et fortement complète, comprenant une règle de déduction infinitaire. On prouve que LPCP est décidable, et on l'étend pour qu'il puisse représenter l'évidence, en créant ainsi la première axiomatisation propositionnelle du raisonnement basé sur l'évidence. On codifie les Logiques Probabilistes LPP1Q et LPPQ2 dans l'Assistant de Preuve Coq, et on vérifie formellement leurs propriétés principales: correction, complétude fort et non-compacité. Les deux logiques étendent la Logique Classique avec des opérateurs de probabilité, et présentent une règle de déduction infinitaire. LPPQ1 permet des itérations des opérateurs de probabilité, lorsque LPPQ2 ne le permet pas. On a formellement justifié l'utilisation des solveurs SAT probabilistes pour vérifier les questions liées à la cohérence. On présente LFP, un Cadre Logique avec Prédicats Externes, en introduisant un mécanisme pour bloquer et débloquer types et termes dans LF, en permettant l'utilisation d'oracles externes. On démontre que LFP satisfait tous les principales propriétés et on développe un cadre canonique correspondant, qui permet de prouver l'adéquation. On fournit diverses encodages - le λ-calcul non-typé avec la stratégie de réduction CBV, Programmation-par-Contrats, un langage impératif avec la Logique de Hoare, des Logiques Modales et la Logique Linéaire Non-Commutative, en montrant que en LFP on peut codifier aisément des side-conditions dans l'application des règles de typage et atteindre une séparation entre vérification et computation, en obtenant des preuves plus claires et lisibles.

Page generated in 0.0904 seconds