• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contributions à la théorie des valeurs extrêmes et à la réduction de dimension pour la régression

Gardes, Laurent 17 November 2010 (has links) (PDF)
Ce mémoire résume mes travaux de recherche portant sur les trois thèmes suivants : inférence pour les lois à queue de type Weibull, estimation de quantiles extrêmes conditionnels et réduction de dimension pour la régression. Dans le cadre du premier thème, nous avons proposé de nombreux estimateurs du paramètre de forme et de quantiles extrêmes pour des lois à queue de type Weibull. Leurs propriétés théoriques ont aussi été étudiées. Les deuxième et troisième thèmatiques ont pour point de départ une application concrête respectivement l'estimation de niveaux de retour de pluies et l'étude d'images hyperspectrales Martienne. D'un point de vue théorique, nous avons proposé et étudié, dans le cadre du deuxième thème, des estimateurs de quantiles extrêmes conditionnels. Au sein du troisième thème, nous avons proposé une méthode de régularisation pour la régression inverse par tranches (SIR).
52

Estimation et Classification des Signaux Altimétriques

Severini, Jerome, Mailhes, Corinne, Tourneret, Jean-Yves 07 October 2010 (has links) (PDF)
La mesure de la hauteur des océans, des vents de surface (fortement liés aux températures des océans), ou encore de la hauteur des vagues sont un ensemble de paramètres nécessaires à l'étude des océans mais aussi au suivi de leurs évolutions : l'altimétrie spatiale est l'une des disciplines le permettant. Une forme d'onde altimétrique est le résultat de l'émission d'une onde radar haute fréquence sur une surface donnée (classiquement océanique) et de la mesure de la réflexion de cette onde. Il existe actuellement une méthode d'estimation non optimale des formes d'onde altimétriques ainsi que des outils de classifications permettant d'identifier les différents types de surfaces observées. Nous proposons dans cette étude d'appliquer la méthode d'estimation bayésienne aux formes d'onde altimétriques ainsi que de nouvelles approches de classification. Nous proposons enfin la mise en place d'un algorithme spécifique permettant l'étude de la topographie en milieu côtier, étude qui est actuellement très peu développée dans le domaine de l'altimétrie.
53

Induction de requêtes guidée par schéma

Champavère, Jérôme 10 September 2010 (has links) (PDF)
XML est un langage générique de description de données destiné à l'origine au stockage, au traitement et à l'échange d'informations sur Internet ; il s'agit aujourd'hui d'un format standard pour les communautés bases de données, documents ou technologies Web, qui est utilisé dans de nombreuses applications. Le format des données traitées par celles-ci est généralement spécifié par un schéma XML. Il s'agit d'une méta-description permettant de contraindre la structure et le type des données des documents XML qui le respectent.<br/><br/> Interroger les documents afin d'en extraire des informations est une tâche essentielle en informatique. Les requêtes de sélection de nœuds sont ainsi à la base de la transformation de documents XML. Cependant, la plupart des outils existants pour définir des requêtes sur les documents XML présupposent des connaissances techniques de la part de l'utilisateur. L'induction de requêtes supervisée est au contraire un moyen d'élaborer des tâches d'extraction d'information sans prérequis. Dans un tel système, une interface graphique permet à l'utilisateur d'annoter des documents qui servent d'exemples. Un algorithme d'apprentissage est alors utilisé pour inférer la requête.<br/><br/> Dans cette thèse, nous proposons d'utiliser les connaissances fournies par le schéma XML dans les algorithmes d'induction de requêtes basés sur une technique d'inférence grammaticale. En tant que langages réguliers d'arbres, les schémas peuvent être facilement représentés par des automates d'arbres. Leur utilisation dans des algorithmes d'inférence d'automates apparaît donc particulièrement appropriée. Nous en avons distingué deux.<br/><br/> 1. La première idée est de contraindre la requête inférée à être consistante avec le schéma. Pour cela, nous avons mis au point un test d'inclusion efficace dans les automates d'arbres factorisés déterministes, un modèle d'automates permettant de représenter les DTD de façon compacte que nous avons introduit.<br/><br/> 2. La seconde idée est que les informations contenues dans le schéma peuvent être précieuses pour élaguer les arbres correspondants à des documents annotés. L'élagage est nécessaire lorsque les documents traités sont gros et/ou annotés partiellement. En contrepartie, il n'est plus possible d'inférer toutes les requêtes régulières. Nous donnons une caractérisation de la classe de requêtes apprenables à partir d'un ensemble d'arbres annotés élagués, à savoir les requêtes stables.<br/><br/> Nous avons implémenté et testé nos algorithmes d'induction de requêtes guidée par schéma. Le système développé permet de simuler le comportement d'un utilisateur lors de la définition d'une nouvelle requête. Les résultats de nos expériences soutiennent la pertinence de notre approche. Ils montrent en effet que l'usage du schéma permet d'améliorer l'apprentissage.
54

La rationalité d'un point de vue logique : entre dialogique et inférentialisme, étude comparative de Lorenzen et Brandom

Tremblay, Frédérick 12 1900 (has links) (PDF)
Cette thèse présente une conception de la rationalité qui évite les idéalisations des capacités cognitives des agents logiques, typiques des conceptions statiques de la rationalité axiomatique dans laquelle un agent n'est rationnel que dans la mesure où il ne se contredit pas et ce, peu importe les capacités cognitives qui lui sont allouées par les axiomes qui énoncent les normes auxquelles il doit se conformer pour être considéré rationnel (comme dans la théorie de la décision « standard » et les systèmes de preuve hilbertien). Afin d'obvier à ces idéalisations, je suggère d'utiliser l'approche dialogique de la logique (Lorenzen) dans la mesure où elle permet de délaisser la logique classique au profit d'une logique plus « faible » et de déployer une conception alternative de la rationalité « non monotone », c'est-à-dire « non cumulative » et dynamique. Dans ce contexte, je discute de la possibilité de procéder à une radicalisation des conditions d'assertabilité de la théorie anti-réaliste de la signification de Dummett qui prenne mieux en compte les actes judicatifs réellement à la portée des agents logique ainsi que les conséquences de cette radicalisation sur le choix de la logique. Sur cette base, je défends une conception de la rationalité des agents en termes de leurs capacités réelles, et non idéalisées, à justifier leurs assertions dans un cadre dialogique. Je suggère finalement de regarder du côté de la théorie de la rationalité « Socratique » de Sellars-Brandom que je compare à l'approche pragmatique de Lorenzen, car toutes les deux visent à rendre explicite ce qui est implicite dans nos jeux de langage, c'est-à-dire d'être capable de justifier ce que nous assertons. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Philosophie, Logique, Rationalité, Inférence, Épistémologie
55

Régression robuste bayésienne à l'aide de distributions à ailes relevées

Schiller, Ian January 2008 (has links) (PDF)
Dans ce mémoire nous nous intéressons à des méthodes d'estimations robustes de la pente de la droite de régression linéaire simple ainsi que du paramètre d'échelle de la densité des erreurs en présence de valeurs aberrantes dans l'échantillon de données. Une revue des méthodes d'estimations des paramètres de la droite de régression est présentée. Nous y analysons numériquement les différentes méthodes afin de décrire le comportement des estimateurs en présence d'une valeur aberrante dans l'échantillon. Une méthode d'estimation bayésienne est présentée afin d'estimer la pente de la droite de régression lorsque le paramètre d'échelle est connu. Nous exprimons le problème d'estimation de la pente de la droite de régression en un problème d'estimation d'un paramètre de position, ce qui nous permet d'utiliser les résultats de robustesse bayésienne pour un paramètre de position. Le comportement de cet estimateur est ensuite étudié numériquement lorsqu'il y a une valeur aberrante dans l'échantillon de données. Enfin, nous explorons une méthode bayésienne d'estimation simultanée du paramètre d'échelle et de la pente de la droite de régression. Nous exprimons le problème comme une estimation des paramètres de position et échelle même si les résultats de robustesse bayésienne pour ce cas ne sont pas encore publiés. Nous étudions tout de même le comportement des estimateurs de façon numérique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression linéaire, Inférence bayésienne, Robustesse, Valeurs aberrantes, Densités à ailes relevées, Densités GEP (Generalized exponential power), P-credence.
56

Effet de l'illustration sur la compréhension des relatives explicatives et déterminatives et de leur ponctuation

Rizk Bastien, Sanaa January 2009 (has links) (PDF)
L'objectif de notre recherche était de déterminer l'effet de l'illustration sur la compréhension d'un texte de grammaire distinguant les relatives explicatives des relatives déterminatives. L'influence du mode de présentation de l'information a été évaluée au moyen d'une comparaison de la compréhension des versions illustrée et non illustrée du même texte, réalisée à l'aide de deux groupes expérimentaux. Afin de mesurer les acquis, nous avons adopté un plan prétest -post-test et conçu un questionnaire d'évaluation des connaissances comportant des questions d'application de la règle présentée et d'autres exigeant le transfert des connaissances à des situations nouvelles. Notre hypothèse générale supposait que les diagrammes que nous avions élaborés, et qui explicitent les relations entre les propositions relatives et les groupes nominaux dont elles constituent l'expansion, permettraient une représentation plus juste et cognitivement moins coûteuse de la réalité extralinguistique à laquelle le texte renvoie. Plus précisément, nous nous attendions à ce que l'impact positif des illustrations s'exerce sur les processus cognitifs d'ordre supérieur, et se manifeste dans des situations impliquant un raisonnement inférentiel. Nous prévoyions également un effet différentiel des illustrations en lien avec la langue maternelle des sujets et leur style d'apprentissage préférentiel. Nos résultats indiquent un impact positif des illustrations sur la rapidité de traitement de l'information et sur la capacité d'utiliser les connaissances acquises dans des contextes linguistiques nouveaux. Ces données vont dans le sens de multiples recherches qui se sont intéressées à la question, et renforcent l'idée que les illustrations représentant des relations participent à la construction d'un modèle mental du texte, d'où un impact positif sur le raisonnement inférentiel. Relativement à la langue maternelle des participants, la comparaison des résultats des sujets L1 et L2 ne nous a pas permis d'observer une interaction entre cette variable et la présence des illustrations. Quant au style d'apprentissage, nos résultats suggèrent que si les apprenants à forte capacité d'imagerie traitent plus rapidement les données en présence des illustrations, ces dernières peuvent jouer, chez les sujets à faible capacité d'imagerie, un rôle similaire à celui des images mentales et faciliter l'instanciation d'un modèle mental du sens exprimé par le texte. Cependant, vu le nombre limité de participants à faible aptitude picturale dans nos groupes, ces derniers résultats devront être interprétés avec prudence. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Compréhension de texte, Illustrations, Enseignement de la grammaire.
57

L'échantillonnage de Gibbs pour l'estimation bayésienne dans l'analyse de survie

Khribi, Lotfi January 2007 (has links) (PDF)
Dans ce mémoire, nous étudions l'approche bayésienne dans l'estimation des durées de vie pour des problèmes avec des points de rupture et avec des données censurées. Dans le chapitre 1, nous présentons les deux approches statistiques, l'approche fréquentiste et l'approche bayésienne. Nous montrons les points de ressemblance et de différence entre ces deux approches. Aussi, nous présentons le modèle bayésien hiérarchique avec les méthodes d'estimation Monte-Carlo avec un bref aperçu des méthodes de simulation par chaînes de Markov (MCMC). nous nous intéressons en particulier aux deux algorithmes qui sont utiles pour ces méthodes: il s'agit de l'algorithme Metropolis-Hastings et la méthode d'échantillonnage de Gibbs. Cette dernière a été utilisée par Geman et Geman (84) pour générer des observations à partir d'une distribution de Gibbs (distribution de Boltzmann). Il s'agit d'une forme particulière de méthode de Monte-Carlo par chaîne de Markov qui, du fait de son efficacité, est largement utilisée dans de nombreux domaines d'analyse statistique bayésienne. Nous parlons aussi dans ce chapitre du logiciel BUGS(Bayesian Inference Using Gibbs Sampling). Ce logiciel de programmation a été développé à l'unité MRC de Biostatistique de Cambridge. Il vise à tirer avantage des probabilités de l'échantillonnage de Gibbs dans l'inférence bayésienne sur des systèmes complexes. Dans le chapitre 2, nous abordons quelques concepts nécessaires à l'étude de l'analyse de survie, tels les fonctions de survie et de risque, les différents types de données censurées. Nous parlons aussi des méthodes fréquentistes d'analyse de survie, notamment la méthode de Kaplan-Meier. Nous rappellons aussi comment est déterminée la fonction de vraisemblance d'un modèle bayésien paramétrique de durée avec censure. Le chapitre 3 présente deux méthodes bayésiennes qui seront analysées et implémentées dans le logiciel BUGS. Une méthode qui est semi paramétrique, il s'agit de la méthode de Kalbfteisch. L'autre méthode paramétrique est celle de Carlin, Gelfand et Smith. Nous vérifions, grâce à des simulations, l'efficacité de ces deux méthodes bayésiennes. Deux exemples de simulations seront traités, un avec données censurées et l'autre avec points de rupture. Nous démontrons principalement que les estimations par simulation et l'inférence bayésienne paramétrique donnent de bons résultats par rapport aux méthodes classiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fonction de survie, Méthodes paramétrique et semi paramétrique bayésiennes, Méthodes de Monte Carlo par chaîne de Markov, Échantillonnage de Gibbs.
58

Analyse statistique de la pauvreté et des inégalités

Diouf, Mame Astou January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
59

Composants et Typage

Lienhardt, Michael 07 September 2010 (has links) (PDF)
Depuis le milieu des années 1990, de nombreux modèles à composant ont vu le jour, comme Fractal développé par France Télécom et l'INRIA, OSGi développé par IBM, Click par le MIT, etc. Ces différents modèles ont tous pour but de pouvoir construire des programmes très larges et complexes, comme Eclipse basé sur OSGi ou la chaîne de compilation Fractal. Bien que ces modèles facilitent la conception de gros programmes, il est néanmoins toujours aisé de commettre des erreurs pouvant causer la levée d'une exception ou l'arrêt brutale du programme. Dans ce travail de thèse, nous nous intéressons à deux aspects de la validation des modèles à composant : nous définissons tout d'abord deux systèmes de types permettant de s'assurer qu'aucune erreur grave n'est présente dans un assemblage statique et typé ; nous étudions dans un simple langage de programmation Oz/K comment il est possible de décrire formellement l'interaction entre les composants et du code fonctionnel. Ce dernier langage nous a aussi permis d'étudier certaines commandes de manipulation d'assemblages qui seraient plus adaptées pour prouver des propriétés sur les programmes à base de composants.
60

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec organogenèse stochastique.

Loi, Cédric 31 May 2011 (has links) (PDF)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastiques de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti 'a la mise en place d'une méthode symbolique permettant le calcul de distributions associées 'a l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.

Page generated in 0.0505 seconds