• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Integration of beliefs and affective values in human decision-making / Intégration des croyances et valeurs affectives dans la prise de décision chez l'homme

Rouault, Marion 22 September 2015 (has links)
Le contrôle exécutif de l'action fait référence a la capacité de l'homme a contrôler et adapter son comportement de manière flexible, en lien avec ses états mentaux internes. Il repose sur l’évaluation des conséquences des actions pour ajuster les choix futurs. Les actions peuvent être renforcées ou dévalues en fonction de la valeur affective des conséquences, impliquant notamment les ganglions de la base et le cortex préfrontal médian. En outre, les conséquences des actions portent une information, qui permet d'ajuster le comportement en relation avec des croyances internes, impliquant le cortex préfrontal. Ainsi, les conséquences des actions portent deux types de signaux : (1) Une valeur affective, qui représente l’évaluation de la conséquence de l'action selon les préférences subjectives, issue de l'apprentissage par renforcement ; (2) Une valeur de croyance, mesurant comment les actions correspondent aux contingences externes, en lien avec l’inférence bayésienne. Cependant, la contribution de ces deux signaux a la prise de décision reste méconnue. Dans cette these, nous avons étudie la pertinence de cette dissociation aux niveaux comportemental et cérébral. Nous présentons plusieurs expériences comportementales permettant de dissocier ces deux signaux de valeur, sous la forme de taches d'apprentissage probabiliste avec des structures de récompense stochastiques et changeantes. Nous avons construit un modelé établissant les fondations fonctionnelles et computationnelles de la dissociation. Il combine deux systèmes en parallèle : un système d'apprentissage par renforcement modulant les valeurs affectives, et un système d’inférence bayésienne modulant les croyances. Le modèle explique mieux le comportement que de nombreux modèles alternatifs. Nous avons ensuite étudie, en IRM fonctionnelle, si les représentations dépendantes et indépendantes du choix des croyances et des valeurs affectives avaient des bases neurales distinctes. L’activité du cortex préfrontal ventromédian (VMPFC) et du cortex mid-cingulaire (MCC) corrélé avec les deux variables dépendantes du choix. Cependant, une double-dissociation a été identifiée concernant les représentations indépendantes du choix, le VMPFC étant spécifique des croyances alors que le MCC est spécifique des valeurs affectives. En outre, l’activité du cortex préfrontal latéral augmente lorsque les deux valeurs de décision sont proches et que le choix devient difficile. Ces résultats suggèrent qu'avant la décision, le cortex préfrontal ventromédian (VMPFC) et le cortex mid-cingulaire (MCC) encodent séparément les croyances et les valeurs affectives respectivement. Le cortex préfrontal latéral (LPFC) combine les deux signaux pour prendre une décision, puis renvoie l'information du choix aux régions médianes, probablement pour actualiser les deux signaux de valeur en fonction des conséquences du choix. Ces résultats contribuent a élucider les mécanismes cérébraux de la prise de décision dans le cortex préfrontal. / Executive control relates to the human ability to monitor and flexibly adapt behavior in relation to internal mental states. Specifically, executive control relies on evaluating action outcomes for adjusting subsequent action. Actions can be reinforced or devaluated given affective value of outcomes, notably in basal ganglia and medial prefrontal cortex. Additionally, outcomes convey information to adapt behavior in relation to internal beliefs, involving prefrontal cortex. Accordingly, action outcomes convey two major types of value signals: (1) Affective values, representing the valuation of action outcomes given subjective preferences and stemming from reinforcement learning; (2) Belief values about how actions map onto outcome contingencies and relating to Bayesian inference. However, how these two signals contribute to decision remains unclear, and previous experimental paradigms confounded them. In this PhD thesis, we investigated whether their dissociation is behaviorally and neurally relevant. We present several behavioral experiments dissociating these two signals, in the form of probabilistic reversal-learning tasks involving stochastic and changing reward structures. We built a model establishing the functional and computational foundations of such dissociation. It combined two parallel systems: reinforcement learning, modulating affective values, and Bayesian inference, monitoring beliefs. The model accounted for behavior better than many other alternative models. We then investigated whether beliefs and affective values have distinct neural bases using fMRI. BOLD signal was regressed against choice-dependent and choice-independent beliefs and affective values. Ventromedial prefrontal cortex (VMPFC) and midcingulate cortex (MCC) activity correlated with both choice-dependent variables. However, we found a double-dissociation regarding choice-independent variables, with VMPFC encoding choice-independent beliefs, whereas MCC encoded choice-independent affective values. Additionally, activity in lateral prefrontal cortex (LPFC) increased when decision values (i.e. mixture of beliefs and affective values) got closer to each other and action selection became more difficult. These results suggest that before decision, VMPFC and MCC separately encode beliefs and affective values respectively. LPFC combines both signals to decide, then feeds back choice information to these medial regions, presumably for updating these value signals according to action outcomes. These results provide new insight into the neural mechanisms of decision-making in prefrontal cortex.
92

High dimensional Markov chain Monte Carlo methods : theory, methods and applications / Méthodes de Monte Carlo par chaîne de Markov en grandes dimensions : théorie, méthodes et applications

Durmus, Alain 02 December 2016 (has links)
L'objet de cette thèse est l'analyse fine de méthodes de Monte Carlopar chaînes de Markov (MCMC) et la proposition de méthodologies nouvelles pour échantillonner une mesure de probabilité en grande dimension. Nos travaux s'articulent autour de trois grands sujets.Le premier thème que nous abordons est la convergence de chaînes de Markov en distance de Wasserstein. Nous établissons des bornes explicites de convergence géométrique et sous-géométrique. Nous appliquons ensuite ces résultats à l'étude d'algorithmes MCMC. Nous nous intéressons à une variante de l'algorithme de Metropolis-Langevin ajusté (MALA) pour lequel nous donnons des bornes explicites de convergence. Le deuxième algorithme MCMC que nous analysons est l'algorithme de Crank-Nicolson pré-conditionné, pour lequel nous montrerons une convergence sous-géométrique.Le second objet de cette thèse est l'étude de l'algorithme de Langevin unajusté (ULA). Nous nous intéressons tout d'abord à des bornes explicites en variation totale suivant différentes hypothèses sur le potentiel associé à la distribution cible. Notre étude traite le cas où le pas de discrétisation est maintenu constant mais aussi du cas d'une suite de pas tendant vers 0. Nous prêtons dans cette étude une attention toute particulière à la dépendance de l'algorithme en la dimension de l'espace d'état. Dans le cas où la densité est fortement convexe, nous établissons des bornes de convergence en distance de Wasserstein. Ces bornes nous permettent ensuite de déduire des bornes de convergence en variation totale qui sont plus précises que celles reportées précédemment sous des conditions plus faibles sur le potentiel. Le dernier sujet de cette thèse est l'étude des algorithmes de type Metropolis-Hastings par échelonnage optimal. Tout d'abord, nous étendons le résultat pionnier sur l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire aux densités cibles dérivables en moyenne Lp pour p ≥ 2. Ensuite, nous proposons de nouveaux algorithmes de type Metropolis-Hastings qui présentent un échelonnage optimal plus avantageux que celui de l'algorithme MALA. Enfin, nous analysons la stabilité et la convergence en variation totale de ces nouveaux algorithmes. / The subject of this thesis is the analysis of Markov Chain Monte Carlo (MCMC) methods and the development of new methodologies to sample from a high dimensional distribution. Our work is divided into three main topics. The first problem addressed in this manuscript is the convergence of Markov chains in Wasserstein distance. Geometric and sub-geometric convergence with explicit constants, are derived under appropriate conditions. These results are then applied to thestudy of MCMC algorithms. The first analyzed algorithm is an alternative scheme to the Metropolis Adjusted Langevin algorithm for which explicit geometric convergence bounds are established. The second method is the pre-Conditioned Crank-Nicolson algorithm. It is shown that under mild assumption, the Markov chain associated with thisalgorithm is sub-geometrically ergodic in an appropriated Wasserstein distance. The second topic of this thesis is the study of the Unadjusted Langevin algorithm (ULA). We are first interested in explicit convergence bounds in total variation under different kinds of assumption on the potential associated with the target distribution. In particular, we pay attention to the dependence of the algorithm on the dimension of the state space. The case of fixed step sizes as well as the case of nonincreasing sequences of step sizes are dealt with. When the target density is strongly log-concave, explicit bounds in Wasserstein distance are established. These results are then used to derived new bounds in the total variation distance which improve the one previously derived under weaker conditions on the target density.The last part tackles new optimal scaling results for Metropolis-Hastings type algorithms. First, we extend the pioneer result on the optimal scaling of the random walk Metropolis algorithm to target densities which are differentiable in Lp mean for p ≥ 2. Then, we derive new Metropolis-Hastings type algorithms which have a better optimal scaling compared the MALA algorithm. Finally, the stability and the convergence in total variation of these new algorithms are studied.
93

A Bayesian Approach for Inverse Problems in Synthetic Aperture Radar Imaging / Une approche bayésienne pour les problèmes inverses en imagerie Radar à Synthèse d'Ouverture

Zhu, Sha 23 October 2012 (has links)
L'imagerie Radar à Synthèse d'Ouverture (RSO) est une technique bien connue dans les domaines de télédétection, de surveillance aérienne, de géologie et de cartographie. Obtenir des images de haute résolution malgré la présence de bruit, tout en prenant en compte les caractéristiques des cibles dans la scène observée, les différents incertitudes de mesure et les erreurs resultantes de la modélisation, devient un axe de recherche très important.Les méthodes classiques, souvent fondées sur i) la modélisation simplifiée de la scène ; ii) la linéarisation de la modélisation directe (relations mathématiques liant les signaux reçus, les signaux transmis et les cibles) simplifiée ; et iii) l'utilisation de méthodes d'inversion simplifiées comme la Transformée de Fourier Inverse (TFI) rapide, produisent des images avec une résolution spatiale faible, peu robustes au bruit et peu quantifiables (effets des lobes secondaires et bruit du speckle).Dans cette thèse, nous proposons d'utiliser une approche bayésienne pour l'inversion. Elle permettrais de surmonter les inconvénients mentionnés des méthodes classiques, afin d'obtenir des images stables de haute résolution ainsi qu'une estimation plus précise des paramètres liés à la reconnaissance de cibles se trouvant dans la scène observée.L'approche proposée est destinée aux problèmes inverses de l'imagerie RSO mono-, bi-, et multi- statique ainsi que l'imagerie des cibles à micromouvement. Les a priori appropriés de modélisation permettant d'améliorer les caractéristiques des cibles pour des scènes de diverses natures seront présentées. Des méthodes d'estimation rapides et efficaces utilistant des a priori simples ou hiérarchiques seront développées. Le problème de l'estimation des hyperparameters sera galement traité dans le cadre bayésin. Les résultats relatifs aux données synthétiques, expérimentales et réelles démontrent l'efficacité de l'approche proposée. / Synthetic Aperture Radar (SAR) imaging is a well-known technique in the domain of remote sensing, aerospace surveillance, geography and mapping. To obtain images of high resolution under noise, taking into account of the characteristics of targets in the observed scene, the different uncertainties of measure and the modeling errors becomes very important.Conventional imaging methods are based on i) over-simplified scene models, ii) a simplified linear forward modeling (mathematical relations between the transmitted signals, the received signals and the targets) and iii) using a very simplified Inverse Fast Fourier Transform (IFFT) to do the inversion, resulting in low resolution and noisy images with unsuppressed speckles and high side lobe artifacts.In this thesis, we propose to use a Bayesian approach to SAR imaging, which overcomes many drawbacks of classical methods and brings high resolution, more stable images and more accurate parameter estimation for target recognition.The proposed unifying approach is used for inverse problems in Mono-, Bi- and Multi-static SAR imaging, as well as for micromotion target imaging. Appropriate priors for modeling different target scenes in terms of target features enhancement during imaging are proposed. Fast and effective estimation methods with simple and hierarchical priors are developed. The problem of hyperparameter estimation is also handled in this Bayesian approach framework. Results on synthetic, experimental and real data demonstrate the effectiveness of the proposed approach.
94

Influence des variations spatio-temporelles de l’environnement sur la distribution actuelle de la diversité génétique des populations / Impact of spatiotemporal environmental variations onto the current patterns of genetic diversity among populations

Tournebize, Rémi 30 November 2017 (has links)
Ce projet vise à comprendre comment la structure génétique intra-spécifique d'espèces végétales tropicales emblématiques et de l’espèce humaine a été affectée par les variations spatio-temporelles de l’environnement actuel et passé. Nous avons développé une approche d’inférence génétique basée sur la théorie de la coalescence pour évaluer l’influence potentielle des changements climatiques passés sur l’évolution de la distribution géographique et de la diversité génétique neutre et/ou adaptative d’Amborella trichopoda Baill. en Nouvelle-Calédonie (espèce-sœur des angiospermes, données NGS et microsatellites), de Coffea canephora Pierre ex A. Froehn en Afrique tropicale (caféier Robusta, données NGS) et de populations européenne et africaine (Luhya, Kenya) d’humains anatomiquement modernes (données NGS issues du Projet 1000 Génomes). Nos travaux suggèrent que les fluctuations climatiques du Pleistocène tardif ont joué un rôle majeur sur l’évolution de la diversité génétique des espèces étudiées de milieux tropicaux et tempérés, avec une empreinte remarquable du Dernier Maximum Glaciaire (DMG, 21 000 ans avant le présent). Les contractions démographiques associées à la glaciation planétaire ont vraisemblablement conduit à la divergence entre les lignées génétiques d’Amborella et participé à l’accumulation des différences génétiques entre les lignées de C. canephora. Nos résultats suggèrent que les événements de glaciation planétaire ont probablement entraîné une différenciation génétique idiosyncratique dans les forêts tropicales humides mais l’intensité de cette réponse semble avoir varié entre espèces. Nous avons également identifié de nombreux événements passés de sélection dans les génomes de la population humaine européenne qui ont été vraisemblablement provoquées par les conditions environnementales au cours du DMG. Les adaptations phénotypiques associées ont probablement assuré le maintien de l’expansion démographique en dépit des pressions de sélection nouvelles auxquelles les populations étaient confrontées au cours du dernier âge glaciaire en Europe. / This project aims at understanding how the structure of the intra-specific genetic diversity in emblematic tropical plant species and in the human species was shaped by the spatiotemporal variation of current and past environments. We developed a genetic inference approach based on the coalescent theory to assess the potential impact of past climatic change onto the evolution of the geographic range and of the neutral and/or adaptive genetic diversity in Amborella trichopoda Baill. in New Caledonia (sister-species of all extant angiosperms, NGS and microsatellite datasets), in Coffea canephora Pierre ex A. Froehn in tropical Africa (Robusta coffee, NGS dataset) and in North-Western European and African (Luhya, Kenya) human populations (NGS dataset 1000 Genomes Project). We found that the climatic fluctuations of the Late Pleistocene influenced the evolution of genetic diversity in these species distributed in temperate and tropical environments. The environmental conditions during the Last Glacial Maximum (LGM, 21.000 years before present) appear as an important factor. The demographic contraction associated with the last global glaciation influenced the divergence between Amborella genetic lineages and contributed to the accumulation of genetic differences between C. canephora lineages. Our results suggest that global glaciation events likely drove idiosyncratic genetic differentiation in tropical rain forests but the intensity of this response varied between species. We also identified multiple events of selection in the genomes of the European human population which were likely triggered by the environmental conditions during the LGM. The associated phenotypic adaptations probably allowed the paleo-populations to maintain their demographic expansion despite the new kinds of selective pressure they faced during the last glacial age in Europe.
95

Expérimentation d'un enseignement réciproque pour améliorer la formulation d'inférences en compréhension de la lecture d'élèves du 3e cycle du primaire en contexte montréalais

Tousignant, Danielle 04 1900 (has links)
No description available.
96

Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels / Analysis and optimization of software model inference algorithms

Irfan, Muhammad Naeem 19 September 2012 (has links)
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants “boîte noire”. Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d’entrées, le comportement du SUT après stimulation par ces entrées et l’état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d’exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d’orienter le test de ces systèmes.Les techniques d’inférence de modèles permettent d’extraire une information structurelle et comportementale d’une application et de la présenter sous forme d’un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l’algorithme d’inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d’utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l’exactitude des modèles obtenus. L’algorithme utilise ce que l’on appelle une table d’observation pour enregistrer les réponses du système.Le traitement d’un contre-exemple peut exiger d’envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l’apprentissage d’un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d’apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d’observation mais au final, nous n’avons pas besoin d’envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l’outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d’exclusion mutuelle et les planificateurs. / Components-Off-The-Shelf (COTS) are used for rapid and cost effective developmentof software systems. It is important to test the correct functioning of COTS in new environment. For third party software components source code, completes pecifications and models are not available. In literature such systems are referred as black box software components. Their proper functioning in new environment can be tested with black box testing techniques like, comparison testing, fuzz testing, Model based testing. For Model based software testing, software models are required, which represent the desired behavior of a system under test (SUT). A software model shows that a certain set of inputs are applicable to the SUT and how it behaves when these inputs are applied under different circumstances. For software black box systems, models can be learned from behavioral traces, available specifications, knowledge of experts and other such sources. The software models steer the testing of software systems. The model inference algorithms extractstructural and design information of a software system and present it as a formal model. The learned abstract software model is consistent with the behavior of the particular software system. However, the learned models are rarely complete and it is difficult to calculate the number of tests required to learn precise and complete model of a software system. The thesis provides analysis and improvements on the Mealy adaptation of the model inference algorithm L* [Angluin 87]. It targets at reducing the number oftests required to learn models of software systems. The Mealy adaptation of thealgorithm L* requires learning models by asking two types of tests. First type oftests are asked to construct models i.e. output queries, whereas the second type is used to test the correctness of these models i.e. counterexamples. The algorithm uses an observation table to record the answers of output queries. Processing a counterexample may require a lot of output queries. The thesis addresses this problem and proposes a technique which processes the counterexamples efficiently. We observe that while learning the models of software systems asking output queries for all of the observation table rows and columns is not required. We propose a learning algorithm that avoids asking output queries for such observationtable rows and columns. In some cases to learn a software model, searching for counterexamples may govery expensive. We have presented a technique which learns the software models without asking and processing counterexamples. But this may add many columns to the observation table and in reality we may not require to ask output queries for all of the table cells. This technique asks output queries by targeting to avoid asking output queries for such cells. These contributions reduce the number of tests required to learn software models, thus improving the worst case learning complexity. We present the tool RALT which implements our techniques and the techniques are validated by inferring the examples like buffers, vending machines, mutual exclusion protocols and schedulers.
97

Inférence de congestion et Ingénierie de Trafic dans les Réseaux

Arya, Vijay 05 July 2005 (has links) (PDF)
Résumé non disponible en français
98

Types et contraintes graphiques - polymorphisme de second ordre et inférence

Yakobowski, Boris 17 December 2008 (has links) (PDF)
MLF est un système de types combinant le polymorphisme implicite de seconde classe de ML avec le polymorphisme de première classe mais explicite du Système F. Nous proposons une représentation des types de MLF qui superpose un graphe acyclique orienté du premier ordre (encodant la structure du type avec partage) et un arbre inversé (encodant la structure de lieurs du type). Cela permet une définition simple et directe de l'instance sur les types, qui se décompose en une instance sur la structure du type, des opérations simples sur l'arbre de lieurs, et un contrôle acceptant ou rejetant ces opérations. En utilisant cette représentation, nous présentons un algorithme d'unification sur les types de MLF ayant une complexité linéaire.<br /><br />Nous étendons ensuite les types graphiques en un système de contraintes graphiques permettant l'inférence de types à la fois pour ML et MLF. Nous proposons quelques transformations préservant la sémantique de ces contraintes, et donnons une stratégie pour utiliser ces transformations afin de résoudre les contraintes de typage. Nous montrons que l'algorithme résultant a une complexité optimale pour l'inférence de types dans MLF, et que, comme pour ML, cette complexité est linéaire sous des hypothèses raisonnables.<br /><br />Enfin, nous présentons une version à la Church de MLF, appelée xMLF, dans laquelle tous les paramètres de fonctions, toutes les abstractions de type et toutes les instantiations de types sont explicites. Nous donnons des règles de réduction pour réduire les instantiations de types. Le système obtenu est confluent lorsque la réduction forte est autorisée, et vérifie la propriété de réduction du sujet. Nous montrons aussi le lemme de progression pour des stratégies faibles de réduction, dont l'appel par nom et l'appel par valeur en restreignant ou non le polymorphisme aux valeurs. Nous proposons un encodage de MLF dans xMLF qui préserve les types, ce qui assure la sureté de MLF.
99

Modèles bayésiens hiérarchiques pour le traitement multi-capteur

Dobigeon, Nicolas 19 October 2007 (has links) (PDF)
Afin de traiter la masse d'informations récoltée dans de nombreuses applications, il est nécessaire de proposer de nouvelles méthodes de traitement permettant d'exploiter le caractère « multi-capteur » des données observées. Le sujet de cette thèse consiste à étudier des algorithmes d'estimation dans un contexte multi-capteur où plusieurs signaux ou images issus d'une même application sont disponibles. Ce problème présente un grand intérêt puisqu'il permet d'améliorer les performances d'estimation par rapport à une analyse qui serait menée sur chaque signal indépendamment des autres. Nous avons développé dans ce contexte des méthodes d'inférence bayésienne hiérarchique afin de résoudre efficacement des problèmes de segmentation de signaux multiples et d'analyse d'images hyperspectrales. L'utilisation de méthodes de Monte Carlo par chaînes de Markov permet alors de surmonter les difficultés liées à la complexité calculatoire de ces méthodes d'inférence.
100

Récursion généralisée et inférence de types avec intersection

ZIMMER, Pascal 29 April 2004 (has links) (PDF)
Dans une première partie, nous définissons un nouveau langage à base fonctionnelle et avec récursion généralisée, en utilisant le système de types avec degrés de Boudol pour éliminer les récursions dangereuses. Ce langage est ensuite étendu par des enregistrements récursifs, puis par des mixins, permettant ainsi de mêler totalement les paradigmes fonctionnels et objets. Nous présentons également une implémentation, MlObj, ainsi que la machine abstraite servant à son exécution.<br /><br />Dans une deuxième partie, nous présentons un nouvel algorithme d'inférence pour les systèmes de types avec intersection, dans le cadre d'une extension du lambda-calcul. Après avoir prouvé sa correction, nous étudions sa généralisation aux références et à la récursion, nous le comparons aux algorithmes d'inférence déjà existants, notamment à celui de Système I, et nous montrons qu'il devient décidable à rang fini.

Page generated in 0.0459 seconds