• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 91
  • 53
  • Tagged with
  • 269
  • 147
  • 116
  • 101
  • 82
  • 60
  • 53
  • 45
  • 45
  • 40
  • 37
  • 36
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Étude des interventions didactiques dans l'enseignement des probabilités auprès d’élèves jugés ou non en difficulté en mathématiques en classes ordinaires du primaire

Martin, Vincent January 2014 (has links)
Au Québec, la majorité des élèves en difficulté sont scolarisés dans des classes ordinaires au primaire, mais peu de travaux ont caractérisé l’enseignement des mathématiques spécifiquement dispensé à ces élèves dans ce contexte. En prenant appui sur le concept d’intervention didactique (Vannier, 2002, 2006) et sur une analyse didactique des probabilités, notre recherche a visé à décrire et à comprendre des interventions didactiques mises en œuvre dans le cadre d’un enseignement des probabilités à des élèves de classes ordinaires du primaire jugés ou non en difficulté en mathématiques par leur enseignant. Pour atteindre cet objectif, nous avons observé deux enseignants du troisième cycle, qui sont partis d’une même ressource didactique liée aux probabilités pour concevoir et mettre en œuvre un projet didactique adapté à leurs élèves. Un enregistrement en classe et des entrevues pré-action et postaction ont été réalisés avec chacun des enseignants. Puis, une analyse quantitative a été réalisée sur les interventions faites par les enseignants, et une analyse didactique a été menée afin de mettre en relief certains faits saillants liés à l’enseignement des probabilités et aux conditions didactiques offertes aux élèves jugés en difficulté en mathématiques. Les résultats de notre étude montrent que les deux enseignants ont rencontré certaines difficultés avec la perspective probabiliste fréquentielle et les enjeux conceptuels qui lui sont associés. De plus, l’institutionnalisation des savoirs en jeu a aussi été un défi, notamment pour établir un lien entre les enjeux probabilistes sous-jacents et les solutions de l’activité. Nous avons également constaté que les conditions didactiques offertes au sein des classes observées apparaissent influencées par la gestion des échanges par l’enseignant et par sa maitrise des savoirs mathématiques en jeu. De plus, il semble que les conditions didactiques offertes aux élèves jugés en difficulté en mathématiques soient de nature similaire à celles offertes aux élèves qui ne sont pas jugés en difficulté. Néanmoins, des différences quantitatives ont été observées entre les élèves jugés en difficulté en mathématiques et ceux qui ne le sont pas en ce qui concerne le nombre d’interventions et les moments où ces interventions ont été faites durant l’activité.
72

Mélange et micro-mélange dans un réacteur à multiples jets cisaillés

Boutin, Guillaume 13 July 2010 (has links) (PDF)
Ce travail vise la description fine du mélange et en particulier du micro-mélange. Afin de caractériser le micro-mélange, les réactions chimiques se sont révélées être l'outil le plus ingénieux (Dimotakis, 2005). Pourtant, à cause des difficultés expérimentales, très peu de telles études existent. Ainsi, nous caractérisons le micro-mélange dans un écoulement dont le motif de base est un jet cisaillé entouré de 4 jets à contre courant. Nous nous intéressons à deux géométries : une pour un fort taux de confinement et une seconde pour laquelle le taux de confinement reste faible. Le premier objectif de cette thèse est de fournir une base de données fiable, pour différentes géométries d'écoulement, nombre de Reynolds et variation du taux de confinement des jets. Dans une première étape, le mélange est étudié grâce à des mesures simultanées de vitesse et de concentration sur la molécule d'acétone. La mesure de concentration est faite grâce à une méthode de Fluorescence Induite par Plan Laser, et la vitesse est estimée par Vélocimétrie par Image de Particules. Une seconde étape se focalise sur le micro-mélange qui est quantifié expérimentalement par une méthode de mesure dite "Dual Tracer" qui compare le signal de fluorescence d'une molécule traçant les zones de fluides pur à celui du fluide dans sa globalité. Le second objectif est d'utiliser cette base de données afin d'étudier l'influence du nombre de Reynolds et du taux de confinement sur la qualité du mélange et l'efficacité du micro-mélange en terme de statistiques. Il est montré que l'efficacité du micro-mélange augmente lorsque le nombre de Reynolds augmente, et lorsque le taux de confinement diminue.
73

Comportement asymptotique de processus avec sauts et applications pour des modèles avec branchement

Cloez, Bertrand 14 June 2013 (has links) (PDF)
L'objectif de ce travail est d'étudier le comportement en temps long d'un modèle de particules avec une interaction de type branchement. Plus précisément, les particules se déplacent indépendamment suivant une dynamique markovienne jusqu'au temps de branchement, où elles donnent naissance à de nouvelles particules dont la position dépend de celle de leur mère et de son nombre d'enfants. Dans la première partie de ce mémoire nous omettons le branchement et nous étudions le comportement d'une seule lignée. Celle-ci est modélisée via un processus de Markov qui peut admettre des sauts, des parties diffusives ou déterministes par morceaux. Nous quantifions la convergence de ce processus hybride à l'aide de la courbure de Wasserstein, aussi nommée courbure grossière de Ricci. Cette notion de courbure, introduite récemment par Joulin, Ollivier, et Sammer correspond mieux à l'étude des processus avec sauts. Nous établissons une expression du gradient du semigroupe des processus de Markov stochastiquement monotone, qui nous permet d'expliciter facilement leur courbure. D'autres bornes fines de convergence en distance de Wasserstein et en variation totale sont aussi établies. Dans le même contexte, nous démontrons qu'un processus de Markov, qui change de dynamique suivant un processus discret, converge rapidement vers un équilibre, lorsque la moyenne des courbures des dynamiques sous-jacentes est strictement positive. Dans la deuxième partie de ce mémoire, nous étudions le comportement de toute la population de particules. Celui-ci se déduit du comportement d'une seule lignée grâce à une formule many-to-one, c'est-à-dire un changement de mesure de type Girsanov. Via cette transformation, nous démontrons une loi des grands nombres et établissons une limite macroscopique, pour comparer nos résultats aux résultats déjà connus en théorie des équations aux dérivées partielles. Nos résultats sont appliqués sur divers modèles ayant des applications en biologie et en informatique. Parmi ces modèles, nous étudierons le comportement en temps long de la plus grande particule dans un modèle simple de population structurée en taille
74

Élaboration d’un modèle d’aide à la décision probabiliste pour l’évaluation de la performance des digues fluviales / Toward a probabilistic desicion aid model for assessment of levee's performance

Vuillet, Marc 30 November 2012 (has links)
Lors d'une crue, la défaillance d'une digue fluviale est susceptible d'avoir des conséquences en vies humaines et économiques lourdes. Dans ce contexte, la réglementation sur la sécurité des ouvrages hydrauliques a récemment été renforcée (décret du 11 décembre 2007). Elle impose dorénavant aux gestionnaires la réalisation de diagnostics périodiques et encourage l'évaluation probabiliste de la sécurité des digues. De part leur caractère à grand linéaire, la complexité de leurs mécanismes de rupture et la grande variété de données nécessaires à leur diagnostic, les digues induisent des problématiques de diagnostic particulières, nécessitant l'intervention d'un ingénieur expert. Celui-ci doit procéder à l'analyse spatiale de l'information, l'interprétation des données disponibles et la prise en compte de leurs incertitudes. Il procède ensuite, par expertise, à l'évaluation qualitative de la performance des ouvrages. L'objectif de la thèse est l'élaboration d'un modèle d'aide à la décision probabiliste pour l'évaluation de la performance des digues. Ce modèle a vocation à être utilisé par un ingénieur spécialisé, en situation de diagnostic rapide ou approfondi et en valorisant toutes les données disponibles. Le modèle apporte une aide à l'ingénieur pour : identifier les tronçons homogènes d'un linéaire de digue, évaluer la performance des ouvrages pour les différents mécanismes de ruptures et préciser les niveaux d'incertitudes des résultats produits en fonction de l'imperfection des données disponibles. Notre démarche de recherche comporte trois étapes :- le développement d'un modèle fonctionnel des mécanismes de rupture des digues, bâti à partir de méthodes issues de la Sûreté de Fonctionnement et du Raisonnement Qualitatif ;- le développement d'un modèle d'aide à la décision déterministe comprenant des indicateurs de performance pour chaque mécanisme de rupture des digues, suivant une méthode de construction de critères uniques de synthèse ;- le développement d'un modèle d'évaluation probabiliste de la performance incluant une méthode de prise en compte des incertitudes des informations d'entrée et des résultats du modèle dans le cadre des probabilités subjectives. Les résultats de nos recherches sont illustrés par des applications du modèle à des études de cas, sur des digues fluviales et torrentielles / Levee risk control is crucial, as flood defense failures may seriously affect human life or economics issues. The regulation in France relating to the safety of the hydraulic structures is recently evolved (decree of December 11, 2007) and henceforth envisages for levees the realization of regular diagnoses and studies of dangers and encourages a probabilistic evaluation of levees safety. A levee safety evaluation currently consists in appraising the work, including taking into account data stemming from various prior investigations: historical records, visual inspections, hydraulic modeling, geophysical explorations, geotechnical explorations, etc. Such investigations may be performed to a more or less comprehensive extent, according to the resources available. Levee diagnostic studies will first split the alignments into several homogenous construction and loading sections, then complete an expert quality assessment of their performance levels. The goal of our research is to develop a probabilistic model for performance assessment of river levees, for a quick or comprehensive diagnosis. The model give support for engineer and make possible to determine how much an evaluation may be trusted and will help decide which levee sections should be primarily subjected to action or investigations. This will also facilitate the decision making process regarding technical actions to be taken to improve a levee section performance. Our approach contains three main steps:- analyzing and modeling levees failure mechanisms with a functional model build up from risk analysis methods ;- construction of deterministic decision aid model including levees performance indicator, using unicriterion decision support methods ;- construction of a probabilistic-based model for evaluating levees performance. Such model taking into account the input data uncertainty by using subjective probabilities. Our research results are illustrated by model application on cases studies
75

Optimisation et analyse des résesaux intelligents et des réseaux hétérogènes / Optimization and analyze of intelligent networks and heterogeneous networks

Jabban, Ahmad 16 September 2013 (has links)
Le travail réalisé dans le cadre de cette thèse permet d’évaluer et d’optimiser la charge de signalisation dans les réseaux intelligents (RI) à grande échelle ainsi que d’analyser plusieurs aspects liés aux réseaux hétérogènes.L’objectif principal des RI est de faciliter l’introduction de nouveaux services en se basant sur plus de flexibilité et de nouvelles fonctionnalités. Les composants principaux d’un RI sont le point de commutation de services (SSP) et le point de commande de services (SCP). L’emplacement des équipements de réseau et la répartition du trafic peuvent jouer un rôle important dans la réduction du volume de la signalisation. Dans la première partie de la thèse, nous examinons plusieurs configurations du RI à grande échelledans le but d’analyser les effets du déplacement, de l’addition des nouveaux commutateurs SSP et de la redistribution du trafic au sein du réseau sur le nombre requis de liens de signalisation. Nous proposons un algorithme assurant la distribution optimale du trafic sur les commutateurs SSP avecle nombre minimum requis de liens de signalisation. Dans la deuxième partie de la thèse, nous analysons les différentes stratégies de sélection de réseaux dans un contexte de réseaux hétérogènes. En effet, dans la prochaine génération de réseaux sans fil et mobiles, les utilisateurs pourront se déplacer entre les réseaux hétérogènes en utilisant des terminaux équipés d’interfaces d’accès de plusieurs types. Dans ce contexte, les terminaux mobiles sont en mesure de choisir le lien d’accès le plus approprié parmi lesoptions disponibles. Dans notre travail, nous proposons une stratégie de sélection basée sur la valeur estimée de SINR (Rapport signal à interférence plus bruit) dans un système hétérogène composé de deux types de réseau : LTE et WiFi. Avec cette stratégie, les utilisateurs sélectionnent toujours leréseau présentant le SINR le plus élevé afin d’effectuer leurs communications. En se basant sur la méthode de Markov, nous analysons dans un premier temps, les performances de la stratégie de sélection basée sur le SINR en termes de probabilités de blocage de demandes d’accès aux services, de probabilités de blocage de handover vertical ou horizontal et de qualité de connexion. Nous comparons les résultats obtenus avec deux autres stratégies basées sur la puissance du signal reçu et sur la disponibilité de bande passante. Les performances sont analysées et comparées selon les modèles de mobilité 2D fluid flow et Random WayPoint qui sont largement utilisés dans l’analyse des réseaux sans fil et mobiles. Finalement, nous analysons les influences de l’allocation de ressources du réseau LTE aux services Multicast et Unicast sur les performances du système. / This thesis analyses the signaling load in intelligent large scale networks as well as the network selection strategies in the heterogeneous environment. The main objective of Intelligent Networks (IN) is to simplify the introduction of new services based on new features and more flexibility. The main components of the IN are the Service Switching Point (SSP) and the Service Control Point (SCP).The location of intelligent large-scale network equipments and the distribution of traffic on them can play an important role in reducing the volume of signaling in the network. In the firstpart of this thesis, we examine various configurations of the IN in order to study the effect of displacement or addition of new SSP and redistribution of traffic within the network on therequired number of signaling links. Finally, we propose a new algorithm giving the optimal distribution of traffic on the SSPs with a minimum required number of signaling links.In the second part of the thesis, we analyze the different network selection strategies as well as simulate other approaches related to heterogeneous wireless environment. Indeed, in the next generation of wireless heterogeneous networks, mobile users can move between several types ofnetworks, using terminals with multiple access interfaces. In this environment, the mobile terminals are able to choose the most appropriate access link among the available alternatives. In our work, we propose a network selection strategy based on the estimated SINR value (Signal to Interference-plus-NoiseRatio) in a heterogeneous system composed of two types of network: LTE and WiFi. According to this strategy, users always select the network presenting the highest SINR value. Based on the Markov method, we analyze the system performance in terms of blocking probabilities of calls, blocking probabilities of vertical or horizontal handover and connection quality. We compare our results with two other strategies based on the received signal strength and on the bandwidth availability.The performances are analyzed and compared according to the 2D fluid flow and the Random Waypoint mobility models which are widely used in the analysis of wireless and mobile networks. Finally, we analyze the influence of the resource blocks allocation to services Multicast and Unicast on the system performance.
76

Evènements météo-océaniques extrêmes / Extreme meteo-oceanic events

Mazas, Franck 17 November 2017 (has links)
Cette thèse sur travaux vise à rassembler et unifier les travaux réalisés sur le sujet des évènements météo-océaniques extrêmes depuis 2009, dans le cadre de mon travail à SOGREAH, devenu depuis ARTELIA. À mesure que progressaient ces travaux, un thème central a progressivement apparu : la notion d'évènement, tel qu'une tempête. Ce concept fournit un cadre robuste et pertinent, en particulier dans le cas des extrêmes multivariés (par exemple, la probabilité d'occurrence conjointe des vagues et des niveaux marins), ainsi qu'une meilleure compréhension de la notion de période de retour, très utilisée dans le domaine de l'ingénierie.Les principaux résultats des travaux réalisés au cours de la décennie écoulée sont les suivants :- mise à jour de la méthodologie de détermination des houles ou vents extrêmes :- développement et justification d'un cadre en deux étapes pour la modélisation sup-seuil des extrêmes univariés (méthode du renouvellement), introduisant la notion d'évènement et la séparation des seuils physique et statistique,- proposition d'outils pratiques pour le choix du seuil statistique,- introduction de la méthode du bootstrap paramétrique pour le calcul des intervalles de confiance,- identification d'un comportement problématique de l'Estimateur du Maximum de Vraisemblance et proposition d'une solution : utilisation de distributions à trois paramètres avec l'estimateur des L-moments,- application du cadre POT (Peaks-Over-Threshold) à la Méthode des Probabilités Jointes (JPM) pour la détermination des niveaux marins extrêmes :- distinction entre les valeurs séquentielles et les pics des évènements à l'aide d'indices extrémaux pour les surcotes et les niveaux marins,- construction d'un modèle mixte pour la distribution des surcotes,- raffinements pour le traitement de la dépendance marée-surcote,- application du cadre POT-JPM pour l'analyse conjointe des hauteurs de vagues et des niveaux marins :- proposition d'une procédure alternative d'échantillonnage,- analyse séparée de la marée et de la surcote dans le but de modéliser la dépendance entre la hauteur de vagues et la surcote ; avec incorporation dans la distribution conjointe de la hauteur de vagues et du niveau marin à l'aide d'une opération de convolution 2D1D,- utilisation de copules des valeurs extrêmes,- présentation améliorée du chi-plot,- introduction d'une nouvelle classification pour les analyses multivariées :- Type A : un phénomène unique décrit par différentes grandeurs physiques qui ne sont pas du même type,- Type B : un phénomène fait de différentes composantes, décrits par des grandeurs physiques du même type d'un composant à l'autre,- Type C : plusieurs phénomènes décrits par des grandeurs physiques qui ne sont pas du même type,- interprétation de la signification des évènements multivariés :- lien avec l'échantillonnage,- lien avec les différentes définitions de la période de retour,- dans le cas bivarié : transformation d'une distribution conjointe de variables descriptives de l'évènement vers la distribution des couples de variables séquentielles,- génération de graphes de srotie alternatifs tels que les contours d'iso-densité pour les couples de variables séquentielles,- un package R dédié, artextreme, pour l'implémentation des méthodes ci-dessus / This PhD on published works aims at unifying the works carried out on the topic of extreme metocean events since 2009, while working for SOGREAH then ARTELIA.As these works went along, a leading theme progressively appeared: the notion of event, such as a storm. This concept provides a sound and relevant framework in particular in the case of multivariate extremes (such as joint probabilities of waves and sea levels), as well as a better understanding of the notion of return period, much used for design in the field of engineering.The main results of the works carried out in the last decade are as follows:- updating of the methodology for determining extreme wave heights or wind speeds:- development and justification of a two-step framework for extreme univariate over-threshold modelling introducing the concept of event and the separation of the physical and statistical thresholds,- proposal of practical tools for choosing the statistical threshold,- introduction of the parametric bootstrap approach for computing confidence intervals,- identification of a problematic issue in the behaviour of the Maximum Likelihood Estimator and proposal of a solution: use of 3-parameter distributions along with the L-moments estimator,- application of the POT framework to the Joint Probability Method for determining extreme sea levels:- distinction between sequential values and event peaks through extremal indexes for surge and sea level,- construction of a mixture model for the surge distribution,- refinements for handling tide-surge dependence,- application of the POT-JPM framework for the joint analysis of wave height and sea level:- proposal of an alternative sampling procedure,- separate analysis of tide and surge in order to model the dependence between wave height and surge to be incorporated in the joint distribution of wave height and sea level thanks to a 2D1D convolution operation,- use of extreme-value copulas,- improved presentation of the chi-plot,- introduction of a new classification for multivariate analyses:- Type A: a single phenomenon described by different physical quantities that are not of the same kind,- Type B: a phenomenon made of different components, described by physical quantities of the same kind between one component and another,- Type C: several phenomena described by physical quantities that are not of the same kind,- interpretation of the meaning of multivariate events:- link with the sampling procedure,- link with the different definitions of the return period,- in the bivariate case: transformation of the joint distribution of event-describing variables into the joint distribution of sequential pairs,- generation of alternative output plots such as contours of density for sequential pairs;- a dedicated R package, artextreme, for implementing the methodologies presented above
77

Fondements métaphysiques des probabilités leibniziennes par le degré de perfection des mondes possibles

Boucher, Jean-Philippe 08 1900 (has links)
No description available.
78

Modèles probabilistes de populations : branchement avec catastrophes et signature génétique de la sélection / Probabilistic population models : branching with catastrophes and genetic signature of selection

Smadi, Charline 05 March 2015 (has links)
Cette thèse porte sur l'étude probabiliste des réponses démographique et génétique de populations à certains événements ponctuels. Dans une première partie, nous étudions l'impact de catastrophes tuant une fraction de la population et survenant de manière répétée, sur le comportement en temps long d'une population modélisée par un processus de branchement. Dans un premier temps nous construisons une nouvelle classe de processus, les processus de branchement à états continus avec catastrophes, en les réalisant comme l'unique solution forte d'une équation différentielle stochastique. Nous déterminons ensuite les conditions d'extinction de la population. Enfin, dans les cas d'absorption presque sûre nous calculons la vitesse d'absorption asymptotique du processus. Ce dernier résultat a une application directe à la détermination du nombre de cellules infectées dans un modèle d'infection de cellules par des parasites. En effet, la quantité de parasites dans une lignée cellulaire suit dans ce modèle un processus de branchement, et les "catastrophes" surviennent lorsque la quantité de parasites est partagée entre les deux cellules filles lors des divisions cellulaires. Dans une seconde partie, nous nous intéressons à la signature génétique laissée par un balayage sélectif. Le matériel génétique d'un individu détermine (pour une grande partie) son phénotype et en particulier certains traits quantitatifs comme les taux de naissance et de mort intrinsèque, ou sa capacité d'interaction avec les autres individus. Mais son génotype seul ne détermine pas son ``adaptation'' dans le milieu dans lequel il vit : l'espérance de vie d'un humain par exemple est très dépendante de l'environnement dans lequel il vit (accès à l'eau potable, à des infrastructures médicales,...). L'approche éco-évolutive cherche à prendre en compte l'environnement en modélisant les interactions entre les individus. Lorsqu'une mutation ou une modification de l'environnement survient, des allèles peuvent envahir la population au détriment des autres allèles : c'est le phénomène de balayage sélectif. Ces événements évolutifs laissent des traces dans la diversité neutre au voisinage du locus auquel l'allèle s'est fixé. En effet ce dernier ``emmène'' avec lui des allèles qui se trouvent sur les loci physiquement liés au locus sous sélection. La seule possibilité pour un locus de ne pas être ``emmené'' est l'occurence d'une recombination génétique, qui l'associe à un autre haplotype dans la population. Nous quantifions la signature laissée par un tel balayage sélectif sur la diversité neutre. Nous nous concentrons dans un premier temps sur la variation des proportions neutres dans les loci voisins du locus sous sélection sous différents scénarios de balayages. Nous montrons que ces différents scenari évolutifs laissent des traces bien distinctes sur la diversité neutre, qui peuvent permettre de les discriminer. Dans un deuxième temps, nous nous intéressons aux généalogies jointes de deux loci neutres au voisinage du locus sous sélection. Cela nous permet en particulier de quantifier des statistiques attendues sous certains scenari de sélection, qui sont utilisées à l'heure actuelle pour détecter des événements de sélection dans l'histoire évolutive de populations à partir de données génétiques actuelles. Dans ces travaux, la population évolue suivant un processus de naissance et mort multitype avec compétition. Si un tel modèle est plus réaliste que les processus de branchement, la non-linéarité introduite par les compétitions entre individus en rend l'étude plus complexe / This thesis is devoted to the probabilistic study of demographic and genetical responses of a population to some point wise events. In a first part, we are interested in the effect of random catastrophes, which kill a fraction of the population and occur repeatedly, in populations modeled by branching processes. First we construct a new class of processes, the continuous state branching processes with catastrophes, as the unique strong solution of a stochastic differential equation. Then we describe the conditions for the population extinction. Finally, in the case of almost sure absorption, we state the asymptotical rate of absorption. This last result has a direct application to the determination of the number of infected cells in a model of cell infection by parasites. Indeed, the parasite population size in a lineage follows in this model a branching process, and catastrophes correspond to the sharing of the parasites between the two daughter cells when a division occurs. In a second part, we focus on the genetic signature of selective sweeps. The genetic material of an individual (mostly) determines its phenotype and in particular some quantitative traits, as birth and intrinsic death rates, and interactions with others individuals. But genotype is not sufficient to determine "adaptation" in a given environment: for example the life expectancy of a human being is very dependent on his environment (access to drinking water, to medical infrastructures,...). The eco-evolutive approach aims at taking into account the environment by modeling interactions between individuals. When a mutation or an environmental modification occurs, some alleles can invade the population to the detriment of other alleles: this phenomenon is called a selective sweep and leaves signatures in the neutral diversity in the vicinity of the locus where the allele fixates. Indeed, this latter "hitchhiking” alleles situated on loci linked to the selected locus. The only possibility for an allele to escape this "hitchhiking" is the occurrence of a genetical recombination, which associates it to another haplotype in the population. We quantify the signature left by such a selective sweep on the neutral diversity. We first focus on neutral proportion variation in loci partially linked with the selected locus, under different scenari of selective sweeps. We prove that these different scenari leave distinct signatures on neutral diversity, which can allow to discriminate them. Then we focus on the linked genealogies of two neutral alleles situated in the vicinity of the selected locus. In particular, we quantify some statistics under different scenari of selective sweeps, which are currently used to detect recent selective events in current population genetic data. In these works the population evolves as a multitype birth and death process with competition. If such a model is more realistic than branching processes, the non-linearity caused by competitions makes its study more complex
79

L'entre-deux-guerres mathématique à travers les thèses soutenues en France

Leloup, Juliette 17 June 2009 (has links) (PDF)
L'entre-deux-guerres mathématique est étudié à partir des 242 thèses en sciences mathématiques soutenues en France. Ce corpus est analysé à trois niveaux différents. L'analyse de premier niveau consiste en une analyse quantitative de l'ensemble des doctorats. Elle permet de mettre en évidence les équilibres entre les différents domaines des sciences mathématiques et les différentes facultés de France, celle de Paris et celles de province. Les thèses soutenues en province sont alors étudiées séparément et révèlent les vies mathématiques de plusieurs facultés : celles de Strasbourg, Poitiers, Lyon et Montpellier. Le deuxième niveau d'analyse est fondé sur l'étude des introductions et des rapports de thèses, le troisième sur celle des thèses en elles-mêmes et des rapports. Le deuxième niveau est appliqué aux thèses soutenues à Paris et classées dans les domaines de l'arithmétique et de l'algèbre, de la géométrie et de la théorie des fonctions. Un ensemble de doctorats classés en théorie des fonctions de la variable complexe et les thèses de probabilités sont étudiées avec le troisième niveau d'analyse. Ces deux dernière échelles permettent de mettre en lumière le rôle joué par certains mathématiciens, comme Élie Cartan, de montrer les méthodes et les résultats qui sont repris et travaillés dans les thèses, et de saisir quelques dynamiques de recherche.
80

La représentation contingente : vers une réconciliation des approches fonctionnelles et structurelles de la robotique autonome

Dedieu, Eric 12 September 1995 (has links) (PDF)
L'objet de la robotique autonome est d'éliminer l'intervention du concepteur humain dans le fonctionnement d'un robot en environnement "complexe". Or, la programmation traditionnelle d'un robot repose sur l'utilisation de modèles dont le domaine de validité est assez restreint. Quand on sort du domaine de validité, on tombe sur le problème de l'imprévu, objet de cette thèse. Nous affirmons d'abord que l'autonomie d'un robot ne peut être obtenue sans une gestion systématique de l'imprévu, et que les approches habituelles de la robotique (hiérarchiques, comportementales, adaptatives) ne sont pas adéquates pour aborder cette question dans des environnements naturels non précisement controlés. Nous proposons alors trois pistes pour contourner ces limites. Sur le plan théorique, nous défendons la nécessité d'une reconnaissance explicite par un robot de sa propre ignorance, et donc d'une gestion systématique de l'incertitude, et adoptons pour cela une théorie de la logique probabiliste (Jaynes 1995). Sur le plan méthodologique, nous complétons le tandem conception-adaptation par une démarche incrémentale, i.e. la systématisation d'une évolution structurelle en réponse à certains imprévus. Nous mettons ainsi l'accent sur l'origine et la génèse des représentations plus que sur leurs performances. Sur le plan conceptuel, enfin, nous proposons la notion de "représentation contingente", qui définit une représentation non par sa fonction mais par sa structure : la capacité de représentation est intrinsèque à cette structure, mais son interprétation effective est contingente au contexte. Les problèmes liés à la représentation classique avaient conduit certains auteurs à rejeter la notion même de représentation, et avec elle un guide de conception incontournable. La représentation contingente est une tentative permettant d'aborder le problème de la conception au sein d'approches non encore exploitées en IA, telles que la clotûre opérationnelle.

Page generated in 0.4593 seconds