• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

GLEF ATINF, un cadre générique pour la connexion d'outils d'inférence et l'édition graphique de preuves

Herment, Michel 22 June 1994 (has links) (PDF)
Après un historique bref et général de la déduction automatique, on analyse les tendances actuelles et les besoins en présentation de preuves et communication d'outils d'inférence. Les notions théoriques concernées sont présentées et étudiées en détail. On donne ensuite une synthèse comparative critique et exhaustive de l'état de l'art. Cette synthèse manquait dans la littérature. L'analyse des notions fondamentales en logique et la synthèse sur l'état de l'art permettent d'établir les caractéristiques retenues pour le système GLEF (Graphical & Logical Edition Framework). La conception et la réalisation de deux langages ont permis de rendre GLEF générique (c'est à dire paramétrable par le système formel employé et par la présentation de ses preuves). Un formalisme de définition, fondé sur le Calcul des Construction (dû à Coquand et Huet), sert à représenter et à vérifier les systèmes formels et les preuves dans ses systèmes formels. Un langage de présentation, fondé sur la notion de «boîte», sert à décrire leur présentation. En annexe nous donnons un algorithme original pour l'opération d'effacement, particulièrement difficile en lambda-calcul typé, qui sert à réaliser la commande «couper» de GLEF. GLEF a été développé au sein du projet ATINF (ATelier d'INFérence). Un manuel utilisateur rudimentaire et de nombreux exemples d'utilisation en sont donnés. Certains exemples montrent comment, après avoir spécifié la définition et la présentation d'un système formel objet, un utilisateur de GLEF peut construire ou visualiser des preuves en manipulant directement les objets (formules, preuves partielles, etc.) à l'écran, avec la souris. D'autres illustrent comment GLEF présente les preuves produites par les démonstrateurs d'ATINF ou extérieurs à ATINF. Les principales lignes de recherche future concluent ce travail
162

Apprentissage d'automates modélisant des familles de séquences protéiques

Kerbellec, Goulven 19 June 2008 (has links) (PDF)
Cette thèse propose une nouvelle approche de découverte de signatures de familles de protéines. Etant donné un échantillon (non-aligné) de séquences appartenant à une famille structurelle ou fonctionnelle de protéines, cette approche infère des automates fini s non déterministes (NFA) caractérisant la famille.<br>Un nouveau type d'alignement multiple nommé PLMA est introduit afin de mettre en valeur les similarités partielles et locales significativement similaires. A partir de ces informations, les modèles de type NFA sont produits par un procédé relevant du domaine de l'inférence grammaticale. Les modèles NFA, présentés ici sous le nom de Protomates, sont des modèles graphiques discrets de forte expressivité, ce qui les distingue des modèles statistiques de type profils HMM ou des motifs de type Prosite.<br>Les expériences menées sur différentes familles biologiques dont les MIP et les TNF, montrent un succès sur des données réelles.
163

Concept et changement de concept : <br />Concept, contenu et inférence, Bases pour une approche dynamique du concept.

Sylvand, Benjamin 10 December 2005 (has links) (PDF)
Le concept est l'entité mentale qui permet à un agent cognitif qui la possède de penser son environnement. Le concept se caractérise par deux dimensions : d'une part son application (les objets auxquels il réfère) et son usage d'autre part (les relations qu'il entretient avec les autres états mentaux). Les théories contemporaines du concept ne parviennent pas à rendre compte de ces deux aspects. Cela vient de l'assimilation de la théorie des concepts avec une théorie de la classification et d'une distinction floue entre le conceptuel et le nonconceptuel. Le concept est considéré ici comme étant représentationnel alors que le nonconceptuel ne l'est pas. Représentationnel signifie ici que le concept peut être changé ou corrigé alors que le nonconceptuel (le percept) ne l'est pas. La théorie du concept défendue ici est normative dans la mesure où des principes sont énoncés pour caractériser le concept. L'agent possède un concept s'il est capable de postuler une assignation à celui-ci. Et ce à la fois en première personne (contenu cognitive) et en troisième personne (contenu canonique). Cela suppose une théorie de l'esprit et un accès au contenu du concept (aspect épistémique). L'agent doit également pouvoir rendre compte de l'usage qu'il fait du concept, et ce non seulement pour lui (dérivation cognitive) mais aussi en troisième personne (dérivation canonique). Le holisme qui découle de cette conception implique que le concept apparaît toujours dans une « conception », c'est-à-dire comme inférentiellement relié à d'autres concepts. Cette théorie du concept permet de rendre compte du changement et de l'évolution d'un concept plutôt que son remplacement systématique.
164

Acquisition et représentation de connaissances en musique

Bel, Bernard 30 November 1990 (has links) (PDF)
Cette étude traite de la représentation informatique de connaissances en musique, abordée à partir de deux expériences en grandeur réelle. La première est une méthode d'acquisition de connaissances en ethnographie mettant en interaction un expert (le musicien), un analyste (le musicologue) et une machine dans une situation d'apprentissage. Les schémas d'improvisation des musiciens sont identifiés et exprimés à l'aide de règles de production dans un formalisme dérivé des grammaires génératives et des langages de formes. Un algorithme déterministe de test d'appartenance de chaînes arbitraires au langage défini par une grammaire (sensible au contexte) est présenté, ainsi qu'une technique d'inférence inductive de langages réguliers permettant l'acquisition automatique de connaissances lexicales et syntaxiques. La seconde expérience s'insère dans l'élaboration d'un environnement de composition musicale assistée par ordinateur. Le problème est ici la représentation du temps dans une structure discrète d'“objets temporels”, et plus généralement la synchronisation de processus parallèles. Une méthode est proposée pour la détermination d'une structure à partir de données incomplètes sur la synchronisation des objets. La notion d'“objet sonore” est ensuite explicitée formellement. Un algorithme efficace permet l'instanciation des objets sonores affectés à une structure en tenant compte des contraintes liées à leurs propriétés métriques et topologiques.
165

Evaluation des modèles de calcul des flux polluants des rejets urbains par temps de pluie: Apport de l'approche bayésienne

Kanso, Assem 09 1900 (has links) (PDF)
Ce travail de thèse se propose d'analyser et d'évaluer les modèles de calcul des flux polluants (MCFP) des rejets urbains par temps de pluie. Pour cela, un banc d'essai a été établi qui repose sur l'utilisation d'une méthodologie basée sur la théorie bayésienne. Ce banc d'essai a été utilisé à des différentes échelles d'espace tout au long du cheminement de l'eau de ruissellement depuis les chaussées jusqu'à l'exutoire du réseau d'assainissement sur le site du bassin versant expérimental du Marais à Paris. Cette méthodologie du banc d'essai utilise une technique de simulation par chaîne de Markov (algorithme Metropolis) pour estimer la distribution de probabilité a posteriori des paramètres du modèle, ce qui permet : - Une évaluation quantitative des incertitudes liées à l'estimation des paramètres ainsi que leurs interactions ; - Une estimation quantitative du niveau d'incertitude dans les résultats d'application de ces modèles ; - Une estimation du pouvoir prédictif du modèle. A l'échelle locale, des modèles d'accumulation, d'entraînement des solides sur les surfaces urbaines, et des modèles d'érosion des solides dans les réseaux d'assainissement ont été testés et analysés. A l'échelle du bassin versant le couplage des modèles élémentaires tel qu'ils sont utilisés dans les logiciels actuels, a pu être évalué. La méthodologie de mise en œuvre a produit des résultats fiables en particulier des distributions de paramètres des modèles qui aident à l'analyse mathématique et à l'interprétation des modèles couramment utilisés. Elle a démontré l'existence de larges incertitudes liées à l'utilisation des MCFP à l'échelle de bassin versant. Ces modèles n'expliquent qu'une faible partie de la variation de la concentration des MES entre 2 événements pluvieux ou à l'intérieur d'un même événement sur le site étudié.
166

Etude de propriétés d'apprentissage supervisé et non supervisé par des méthodes de Physique Statistique

Buhot, Arnaud 17 May 1999 (has links) (PDF)
L'objet de cette thèse est l'étude de diverses propriétés d'apprentissage à partir d'exemples par des méthodes de Physique Statistique, notamment, par la méthode des répliques. Des tâches supervisées, correspondant à la classification binaire de données, ainsi que des tâches non supervisées, comme l'estimation paramétrique d'une densité de probabilité, sont considérées. Dans la première partie, une approche variationnelle permet de déterminer la performance de l'apprentissage optimal d'une direction d'anisotropie, et de déduire une fonction de coût permettant d'obtenir ces performances optimales. Dans le cas de l'apprentissage supervisé d'une tâche linéairement séparable, des simulations numériques confirmant nos résultats théoriques ont permis de déterminer les effets de taille finie. Dans le cas d'une densité de probabilité constituée de deux gaussiennes, la performance de l'apprentissage optimal présente de nombreuses transitions de phases en fonction du nombre de données. Ces résultats soulèvent une controverse entre la théorie variationnelle et l'approche bayesienne de l'apprentissage optimal. Dans la deuxième partie, nous étudions deux approches différentes de l'apprentissage de tâches de classification complexes. La première approche considérée est celle des machines à exemples supports. Nous avons étudié une famille de ces machines pour laquelle les séparateurs linéaire et quadratique sont deux cas particuliers. La capacité, les valeurs typiques de la marge et du nombre d'exemples supports, sont déterminées. La deuxième approche considérée est celle d'une machine de parité apprenant avec un algorithme incrémental. Cet algorithme construit progressivement un réseau de neurones à une couche cachée. La capacité théorique obtenue pour l'algorithme considéré est proche de celle de la machine de parité.
167

Une approche bayésienne de l'inversion. Application à l'imagerie de diffraction dans les domaines micro-onde et optique

Ayasso, Hacheme 10 December 2010 (has links) (PDF)
Dans ce travail, nous nous intéressons à l'imagerie de diffraction dans des configurations à deux ou trois dimensions avec pour objectif la reconstruction d'une image (fonction contraste) d'un objet inconnu à l'aide de plusieurs mesures du champ qu'il diffracte. Ce champ résulte de l'interaction entre l'objet et un champ incident connu dont la direction de propagation et la fréquence peuvent varier. La difficulté de ce problème réside dans la non-linéarité du modèle direct et le caractère mal posé du problème inverse qui nécessite l'introduction d'une information a priori (régularisation). Pour cela, nous utilisons une approche bayésienne avec une estimation conjointe du contraste de l'objet, des courants induits et des autres paramètres du modèle. Le modèle direct est décrit par deux équations intégrales couplées exprimant les champs électriques observé et existant à l'intérieur de l'objet, dont les versions discrètes sont obtenues à l'aide de la méthode des moments. Pour l'inversion, l'approche bayésienne permet de modéliser notre connaissance a priori sur l'objet sous forme probabiliste. Les objets que nous étudions ici sont connus pour être constitués d'un nombre fini de matériaux homogènes répartis en régions compactes. Cette information a priori est introduite dans l'algorithme d'inversion à l'aide d'un mélange de gaussiennes, où chaque gaussienne représente une classe de matériaux, tandis que la compacité des régions est prise en compte au travers d'un modèle de Markov caché. La nature non linéaire du modèle direct et l'utilisation de cet a priori nous amènent à des estimateurs qui n'ont pas de formes explicites. Une approximation est donc nécessaire et deux voies sont possibles pour cela: une approche numérique, par exemple MCMC, et une approche analytique comme l'approche bayésienne variationnelle. Nous avons testé ces deux approches qui ont donné de bons résultats de reconstruction par rapport aux méthodes classiques. Cependant, l'approche bayésienne variationnelle permet de gagner énormément en temps de calcul par rapport à la méthode MCMC.
168

Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaques

Rey, David 23 October 2002 (has links) (PDF)
L'étude des processus évoluant au cours du temps, comme les lésions de sclérose en plaques, peut dans certains cas être une aide considérable au diagnostic. Elle peut aussi servir au suivi d'un patient pour surveiller l'évolution de sa pathologie ou pour étudier les effets d'un nouveau traitement. Notre travail a tout d'abord consisté à choisir et à appliquer des prétraitements sur des séries d'images issues de l'imagerie par résonance magnétique (IRM) de patients atteints de sclérose en plaques ; ceci est nécessaire lorsqu'on veut mener une analyse temporelle automatique. Nous avons ensuite pu développer des méthodes de détection et de quantification des zones évolutives dans des ces images. Une première étude repose sur la comparaison de deux images en utilisant un champ de déplacements apparents d'une image vers l'autre. Ce champ de vecteurs peut être analysé par le biais d'opérateurs différentiels tels que le jacobien. Il est également possible d'extraire une segmentation des régions évolutives en 3D+t avec une telle analyse. Avec cette approche, on suppose que chaque point a une intensité fixe, et qu'il a un mouvement apparent. Une seconde étude consiste à mener une analyse statistique rétrospective sur une série complète d'images (typiquement plus de dix), en s'appuyant sur un modèle paramétrique de zone évolutive. Dans notre cas, les points dont la variation temporelle de l'intensité est significativement due à une lésion sont détectés. Les méthodes statistiques utilisées permettent de prendre en compte la cohérence spatiale des images. Pour cette seconde approche, on suppose que chaque point est immobile et que son intensité varie au cours du temps. Ces travaux ont été réalisés avec plusieurs partenaires cliniques afin de mener une étude expérimentale de nos algorithmes sous le contrôle d'experts médicaux, mais aussi d'entamer un travail de validation clinique.
169

Détection de structure géométrique dans les nuages de points

Mérigot, Quentin 10 December 2009 (has links) (PDF)
Cette thèse s'inscrit dans la problématique générale de l'inférence géométrique. Étant donné un objet qu'on ne connaît qu'à travers un échantillon fini, à partir de quelle qualité d'échantillonage peut-on estimer de manière fiable certaines de ses propriétés géométriques ou topologique? L'estimation de la topologie est maintenant un domaine assez mûr. La plupart des méthodes existantes sont fondées sur la notion de fonction distance. Nous utilisons cette approche pour estimer certaines notions de courbure dues à Federer, définies pour une classe assez générale d'objets non lisses. Nous introduisons une version approchée de ces courbures dont nous étudions la stabilité ainsi que calcul pratique dans le cas discret. Une version anisotrope de ces mesures de courbure permet en pratique d'estimer le lieu et la direction des arêtes vives d'une surface lisse par morceaux échantillonnée par un nuage de point. En chemin nous sommes amenés à étudier certaines propriétés de régularité de la fonction distance, comme le volume de l'axe médian. Un défaut des méthodes qui utilisent la fonction distance est leur extrême sensibilité aux points aberrants. Pour résoudre ce problème, nous sortons du cadre purement géométrique en remplaçant les compacts par des mesures de probabilité. Nous introduisons une notion de fonction distance à une mesure, robuste aux perturbations Wasserstein (et donc aux points aberrants) et qui partage certaines propriétés de régularité et de stabilité avec la fonction distance usuelle. Grâce à ces propriétés, il est possible d'étendre de nombreux théorèmes d'inférence géométrique à ce cadre.
170

Essays on Online Auction Design and Bidding Behavior / Essais sur la conception d'enchères en ligne et le comportement des enchérisseurs

Ducarroz, Caroline 17 December 2007 (has links)
On the one hand, time-honored practices of open outcry, bazaar and other flea markets, as well as Sotheby's and Christie's, the traditional auction houses. On the other hand, the Internet technology quickly and cheaply connects people anywhere in the world at anytime. A true love story then began and gave rise to online auctions, which are undoubtedly one of the greatest successes of e-commerce. Thanks to the Internet, individual consumers, average people, generally used to posted prices, discover an efficient mechanism of price setting. The weak popularity of auctions until the dawn of the third millennium (auctions were intended to B2B transactions, or to B2C transactions but in specific markets, such as the art market) certainly justifies the lack of interest of researchers in marketing for this mechanism. On the other hand, economists made auctions one of their favorite topics, as this mechanism constitutes a wonderful application of game theory, which has been playing a preponderant role in economics for twenty-five years. Entitled “Essays on Online Auction Design and Bidding Behavior”, this doctoral dissertation helps enrich the traditional economic approach of auctions by a behavioral and dynamic approach. The original part of the research is structured in three main stages, which go deeper and deeper in the study of bidders' behavior and auction dynamics. The whole research is based on online auctions organized by the French airline company Air France and by the auction site eBay. In the first stage of the research, on the basis of hypotheses coming from the auction theory, the impact of auction rules on bidders’ participation and seller's revenue is econometrically studied, using simultaneous equations models and the 2SLS method. Does a high opening bid have a negative effect on the number of bidders and a positive one on the auction revenue, as predicted by the auction theory? Do sequential auctions of similar items lead to similar auction price? These are examples of questions that are investigated. While the auction theory literature typically takes the number of bidders as exogenously given, we chose to consider it as endogenous. Even though an increasing number of researchers acknowledge the endogenous feature of auction participation, no empirical study really takes this feature into account. Hypotheses from the auction theory turn out to be confirmed, as far as the minimum bid and the number of bidders are concerned. Interesting results are found regarding the performance of sequential auctions of similar items, since auctions in a sequence turn out to yield increasing revenues. Furthermore, the impact of the starting bid turns out to be moderated by the effect of these sequential auctions. In the second stage of this research, a disaggregated perspective (at the bidder’s level) is adopted, since a typology of bidding behaviors based on bidders' choices is built. This part is thus aimed at investigating whether heterogeneity exists in bidder’s behavior in online auctions, contrary to the longstanding assumption of homogenous, rational and strategic bidders made by the auction theory. A clustering analysis is conducted, based on decisions that bidders have to make during an auction, whose keywords are certainly: when? How? How much? For example: do bidders submit a small or a large number of bids? Do they react quickly when they lose auction leadership? When do they make their bids: at the beginning of the auction, at the end of it, or during the whole auction? What increment do they use? Results, based on two different samples related to Air France and eBay auctions provide a description of different bidding behaviors. The analysis focusing on Air France auctions highlights five types of bidding behavior: jump bidders, rational bidders, active bidders, bottom fishers and pioneers. Slightly different results are obtained for eBay auctions, since six types of bidding behavior are highlighted: snipers, evaluators, unmasking bidders, bottom fishers, pioneers and late pioneers. A closer look is given to the group of bidders who turned out to win an auction, in order to determine whether these bidders are characterized by specific bidding decisions, and thus, by specific bidding behaviors. The third stage focuses on the dynamic bidding process of an English auction, by specifically studying the impact of signals – namely, promotional messages – sent during an online auction on the final auction price. It proposes to test a model of the genesis and the impact of these messages aimed at informing current bidders and potential bidders about the item or urging them to submit a bid. This impact is modeled through a disaggregated and dynamic model. It exploits the recent behavioral view that each bid submitted by a bidder in an English auction is a particular decision that may be influenced by signals sent by the auctioneer during the auction, that is, between the decisions that the bidder makes. This model simultaneously takes into account the following three factors: (i) the direct impact of marketing messages on the auction price when messages affect bidders’ valuations, (ii) the indirect impact of messages on this price when messages attract a new bidder to the auction, and (iii) the possibility that the auctioneer’s strategy for sending messages depends on past events in the auction and on the timing of past messages. In this model, we thus propose that messages influence final auction prices through a dual-path system. The model also reflects an important feature of auction messages, which is the real time interactivity between the auctioneer and auction participants. The results, obtained through Bayesian inference, support the proposed model. This doctoral dissertation globally helps better understand bidders’ behavior in view of the rules set by the seller, and estimate how this seller can maximize his/her revenues. The main original aspects of this research consist in considering the English auction as a dynamic process and in focusing on bidders’ behavior, these two elements being ignored by economists. From a managerial point of view, this research can help online auction designers to better design their auctions in order to maximize their revenue.

Page generated in 0.0577 seconds