• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Combinatoire analytique et algorithmique des ensembles de données.

Durand, Marianne 30 April 2004 (has links) (PDF)
Cette thèse traite d'algorithmique des ensembles de données en adoptant le point de vue de la combinatoire analytique. On traite ici de trois problèmes qui illustrent cette approche: les listes à sauts associées à de l'analyse asymptotique bivariée, le hachage à essai aléatoire avec pagination et le comptage probabiliste. Les listes à sauts sont une structure de données intermédiaire entre les skiplists et les arbres binaires de recherche. L'étude de cette structure a donné lieu à un problème d'asymptotique bivariée avec coalescence de singularités. Le hachage avec essai aléatoire est un algorithme qui gère les collisions d'une table de hachage. Dans le contexte étudié qui est celui de la pagination, on obtient la moyenne, ainsi que tous les moments successifs du coût de construction. Les algorithmes de comptage probabilistes originaux Loglog et Super Loglog permettent d'estimer le cardinal d'un ensemble en utilisant un kilooctet de mémoire avec une précision d'environ 3%.
32

Contributions to Bayesian Network Learning/Contributions à l'apprentissage des réseaux bayesiens

Auvray, Vincent 19 September 2007 (has links)
No description available.
33

Approche performantielle des bétons avec métakaolins obtenus par calcination flash

San Nicolas, Rackel 25 May 2011 (has links) (PDF)
L'objectif principal de cette thèse a été de montrer que le métakaolin, fabriqué par la société Argéco DEVELOPPEMENT selon un procédé de calcination flash, est un éco-matériau qui améliore les propriétés de structuration et de durabilité des bétons. L'approche retenue, basée sur l'équivalence de performances, a concerné la plupart des types de béton (bâtiments, ouvrages d'art, autoplaçants, hautes performances, ...). Le métakaolin a d'abord été caractérisé (propriétés physico-chimiques et réactivité), puis son effet sur la mise en œuvre des bétons a été étudié. Les performances des différents bétons testés ont ensuite été évaluées par la mesure de différents indicateurs de durabilité. Enfin, la durée de vie de bétons en environnement marin a été estimée grâce à un modèle probabiliste.
34

Estimation du contexte par vision embarquée et schémas de commande pour l'automobile

Ammar, Moez 21 December 2012 (has links) (PDF)
Les systèmes dotés d'autonomie doivent continument évaluer leur environnement, via des capteurs embarqués, afin de prendre des décisions pertinentes au regard de leur mission, mais aussi de l'endosystème et de l'exosystème. Dans le cas de véhicules dits 'intelligents', l'attention quant au contexte environnant se porte principalement d'une part sur des objets parfaitement normalisés, comme la signalisation routière verticale ou horizontale, et d'autre part sur des objets difficilement modélisables de par leur nombre et leur variété (piétons, cyclistes, autres véhicules, animaux, ballons, obstacles quelconques sur la chaussée, etc...). La décision a contrario offre un cadre formel, adapté à ce problème de détection d'objets variables, car modélisant le bruit plutôt qu'énumérant les objets à détecter. La contribution principale de cette thèse est d'adapter des mesures probabilistes de type NFA (Nombre de Fausses Alarmes) au problème de la détection d'objets soit ayant un mouvement propre, soit saillants par rapport au plan de la route. Un point fort des algorithmes développés est qu'ils s'affranchissent de tout seuil de détection. Une première mesure NFA permet d'identifier le sous-domaine de l'image (pixels non nécessairement connexes) dont les valeurs de niveau de gris sont les plus étonnantes, sous hypothèse de bruit gaussien (modèle naïf). Une seconde mesure NFA permet ensuite d'identifier le sous-ensemble des fenêtres de significativité maximale, sous hypothèse de loi binômiale (modèle naïf). Nous montrons que ces mesures NFA peuvent également servir de critères d'optimisation de paramètres, qu'il s'agisse du mouvement 6D de la caméra embarquée, ou d'un seuil de binarisation sur les niveaux de gris. Enfin, nous montrons que les algorithmes proposés sont génériques au sens où ils s'appliquent à différents types d'images en entrée, radiométriques ou de disparité.A l'opposé de l'approche a contrario, les modèles markoviens permettent d'injecter des connaissances a priori sur les objets recherchés. Nous les exploitons dans le cas de la classification de marquages routiers.A partir de l'estimation du contexte (signalisation, détection d'objets 'inconnus'), la partie commande comporte premièrement une spécification des trajectoires possibles et deuxièmement des lois en boucle fermée assurant le suivi de la trajectoire sélectionnée. Les diverses trajectoires possibles sont regroupées en un faisceau, soit un ensemble de fonctions du temps où divers paramètres permettent de régler les invariants géométriques locaux (pente, courbure). Ces paramètres seront globalement fonction du contexte extérieur au véhicule (présence de vulnérables, d'obstacles fixes, de limitations de vitesse, etc.) et permettent de déterminer l'élément du faisceau choisi. Le suivi de la trajectoire choisie s'effectue alors en utilisant des techniques de type platitude différentielle, qui s'avèrent particulièrement bien adaptées aux problèmes de suivi de trajectoire. Un système différentiellement plat est en effet entièrement paramétré par ses sorties plates et leurs dérivées. Une autre propriété caractéristique de ce type de systèmes est d'être linéarisable de manière exacte (et donc globale) par bouclage dynamique endogène et transformation de coordonnées. Le suivi stabilisant est alors trivialement obtenu sur le système linéarisé.
35

Prévision d'ensemble locale des brouillard et nuages bas à l'aéroport international de Roissy Charles de Gaulle

Roquelaure, Stevie 03 December 2007 (has links) (PDF)
Un système de prévision d'ensemble locale (LEPS-Local Ensemble Prediction System) ciblant la prévision des brouillards et nuages bas sur l'aéroport international de Paris Charles de Gaulle a été développé pour la prévision courte échéance du risque d'occurrence de conditions LVP (Low visibility Procedure – visibilité < 600m et/ou plafond < 60m). Les sources d'incertitudes sur les entrées du modèle numérique COBEL-ISBA ont été identifiées sur les conditions initiales et sur les forçages de mésoéchelle. Une calibration bayesienne (BMA-Bayesian Model Averaging) a été appliquée sur l'ensemble afin d'améliorer la fiabilité du système. La validation de LEPS montre que ce système probabiliste fournit des prévisions fiables de courte échéance du risque d'occurrence de conditions LVP sur l'aéroport de Paris Charles de Gaulle. Si bien que LEPS ouvre des perspectives intéressantes pour la planification des vols, la sécurité et la gestion de la plate-forme aéroportuaire
36

Inversion de modèles probabilistes de structures à partir de fonctions<br />de transfert expérimentales

Arnst, Maarten 03 April 2007 (has links) (PDF)
L'objectif de la thèse est de développer une méthodologie d'identification expérimentale de modèles probabilistes qui prédisent le comportement dynamique de structures. Nous focalisons en particulier sur l'inversion de modèles probabilistes à paramétrage minimal, introduits par Soize, à partir de fonctions de transfert expérimentales. Nous montrons d'abord que les méthodes classiques d'estimation de la théorie des statistiques mathématiques, telle que la méthode du maximum de vraisemblance, ne sont pas bien adaptées pour aborder ce problème. En particulier, nous montrons que des difficultés numériques, ainsi que des problèmes conceptuels dus au risque d'une mauvaise spécification des modèles, peuvent entraver l'application des méthodes classiques. Ces difficultés nous motivent à formuler l'inversion de modèles probabilistes alternativement comme la minimisation, par rapport aux paramètres recherchés, d'une fonction objectif, mesurant une distance entre les données expérimentales et le modèle probabiliste. Nous proposons deux principes de construction pour la définition de telles distances, basé soit sur la fonction de logvraisemblance, soit l'entropie relative. Nous montrons comment la limitation de ces distances aux lois marginales d'ordre bas permet de surmonter les difficultés mentionnées plus haut. La méthodologie est appliquée à des exemples avec des données simulées et à un problème en ingénierie civile et environnementale avec des mesures réelles.
37

CONTROLE ET CONDUITE NUMERIQUES D'UN FOUR TUNNEL D'INDUSTRIE CERAMIQUE

El Hajjar, Haïssam 18 May 1983 (has links) (PDF)
MODELISATION DU FONCTIONNEMENT THERMIQUE D'UN FOUR DE POTERIE. DETERMINATION DU REGIME STATIQUE OPTIMAL DE CUISSON. APRES DES TRANSFORMATIONS DU MODELE, ON CALCULE UNE LOI DE COMMANDE EN BOUCLE FERMEE PAR RETOUR D'ETAT EN MINIMISANT UN CRITERE QUADRATIQUE A HORIZON FINI. LE CALCUL D'UN ESTIMATEUR DE L'ETAT EST EXPOSE POUR LA RECONSTITUTION DU PROFIL DANS LA CHARGE A PARTIR DE MESURES FAITES DANS LE GAZ. CONDUITE NUMERIQUE DU FOUR PAR MICROCALCULATEUR
38

Identification des forces stochastiques appliquées à un système dynamique non linéaire en utilisant un modèle numérique incertain et des réponses expérimentales

Batou, Anas 18 December 2008 (has links) (PDF)
Ces travaux ont été développés dans le contexte de l'analyse vibratoire des assemblages combustibles. Ce type de structure est très complexe et a, du fait de sa géométrie, une très forte densité modale. Ainsi, afin de calculer la réponse d'une telle structure, une modélisation simplifiée est préférable. L'objectif est d'identifier des forces stochastiques induites par l'écoulement en utilisant un modèle numérique incertain et des réponses expérimentales. Pour ce problème, 4 sources d'incertitudes sont à prendre en considération : (1) Les incertitudes de modèle induites par les simplifications du modèle. (2) Les incertitudes sur les forces induites par les fluctuations statistiques de la pression turbulent. (3) Les incertitudes concernant la modélisation des forces stochastiques. (4) Les incertitudes induites par les erreurs de mesures. Les forces stochastiques ainsi identifiées sont appliquées sur le modèle simplifié stochastique pour calculer des statistiques sur les quantités d'intérêt
39

Une approche probabiliste pour le classement d'objets incomplètement connus dans un arbre de décision

Hawarah, Lamis 22 October 2008 (has links) (PDF)
Nous présentons dans cette thèse une approche probabiliste pour déterminer les valeurs manquantes des objets incomplets pendant leur classement dans les arbres de décision. Cette approche est dérivée de la méthode d'apprentissage supervisé appelée Arbres d'Attributs Ordonnées (AAO) proposée par Lobo et Numao en 2000, qui construit un arbre de décision pour chacun des attributs, selon un ordre croissant en fonction de l'Information Mutuelle entre chaque attribut et la classe. Notre approche étend la méthode de Lobo et Numao, d'une part en prenant en compte les dépendances entre les attributs pour la construction des arbres d'attributs, et d'autre part en fournissant un résultat de classement d'un objet incomplet sous la forme d'une distribution de probabilités (au lieu de la classe la plus probable). <br />Nous expliquons notre méthode et nous la testons sur des bases de données réelles. Nous comparons nos résultats avec ceux donnés par la méthode C4.5 et AAO. <br /><br />Nous proposons également un algorithme basé sur la méthode des k plus proches voisins qui calcule pour chaque objet de la base de test sa fréquence dans la base d'apprentissage. Nous comparons ces fréquences avec les résultats de classement données par notre approche, C4.5 et AAO. Finalement, nous calculons la complexité de construction des arbres d'attributs ainsi que la complexité de classement d'un objet incomplet en utilisant notre approche, C4.5 et AAO.
40

Conception de machines probabilistes dédiées aux inférences bayésiennes / Theory and hardware implementation of probabilistic machines

Faix, Marvin 12 December 2016 (has links)
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence. / The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem.

Page generated in 0.0871 seconds