121 |
Spatial aggregation issues in traffic assignment models / Bias d'agrégation spatiale dans les modèles d'affectation des déplacementsManout, Ouassim 08 April 2019 (has links)
Les villes sont des systèmes complexes que les modèles urbains peuvent aider à comprendre. Des modèles les plus simplistes aux modèles les plus sophistiqués, la modélisation urbaine a permis de mieux comprendre la question urbaine et ses implications sociétales. Dans ce contexte, les modèles peuvent avoir une valeur-ajoutée appréciable dans le processus de décision publique. Encore faut-il que ces modèles deviennent pratiques et répondent aux contraintes opérationnelles de la chaîne de décision. Dans ce sens, peu de recherches s’est intéressée à la question de praticité des modèles urbains et leur utilisation en situation opérationnelle. À ce jour, les modèles urbains standard qui reposent sur une description agrégée de l’espace sont parmi les approches de modélisation les plus opérationnelles et aussi les plus répandues. De par sa relative praticité, cette approche standard est attractive et simple à mettre en oeuvre. Toutefois, l’agrégation spatiale peut aussi être une source de biais statistiques préjudiciables à la qualité de la modélisation. C’est en particulier, le cas des modèles intégrés Transport-Urbanisme ou des modèles de transport à quatre étapes.La présente thèse a pour objectif d’étudier la question de l’agrégation spatiale dans les modèles transport et plus particulièrement dans les modèles d’affectation des déplacements. Les modèles d’affectation servent à calculer les temps de parcours et les conditions de déplacement sous congestion, présents et futurs, des personnes et des marchandises. Ils servent aussi à calculer les accessibilités nécessaires aux modèles d’usage des sols dont les modèles de choix de localisation des ménages et des entreprises. Toute erreur ou biais dans l’affectation des déplacements peut compromettre la validité et la qualité globales de la modélisation. Dans ce cadre, une attention particulière doit être allouée au problème d’agrégation spatiale dans les modèles d’affectation. Dans ces modèles, l’agrégation spatiale consiste à regrouper les observations individuelles enutilisant une description agrégée de l’espace, i.e. des zones. Par nature, l’utilisation d’une description agrégée à la place d’une représentation continue engendre une omission de l’information et de sa variabilité et donc un biais statistique dans la modélisation. C’est le cas par exemple avec l’utilisation des connecteurs de zones ou avec l’omission des trafics intrazones dans les modèles d’affectation.En reposant sur les zones comme unité spatiale de base, les modèles de transport recourent à l’utilisation des connecteurs de zones pour relier les centroïdes de zones au réseau de transport. Les connecteurs sont des liens fictifs qui modélisent les conditions moyennes d’entrée et de sortie du réseau de transport. Pour ce faire, la majorité des modèles de transport reposent sur une méthode simpliste sujette au problème d’agrégation spatiale. La présente thèse examine en détail l’impact de cette description simpliste sur les résultats et la qualité d’un modèle d’affectation des déplacements en transports en commun. Cette thèse propose aussi une nouvelle méthode de modélisation des connecteurs de zones afin de s’affranchir partiellement du biaisd’agrégation spatiale dans la modélisation des conditions d’accès au réseau des transports en commun.L’utilisation des zones comme unité spatiale de base a aussi pour conséquence l’omission des trafics intrazones de l’affectation des déplacements. Les trafics intrazones ont pour origine et pour destination la même zone et de ce fait ne sont pas pris en compte par les modèles standard d’affectation. Cette omission a souvent été ignorée et son impact sur la qualité de la modélisation demeure non évalué. Cette thèse développe une méthode stochastique pour l’évaluation de cet impact... / Cities are complex systems that urban models can help to comprehend. From simplistic models to more sophisticated ones, urban models have pushed forward our understanding the urban phenomenon and its intricacies. In this context, models can be of great value to policy makers providing that these tools become practical. In this regard, research has put little emphasis on the practicality of urban models and their use under operational conditions.To date, urban models which rely on spatial aggregation are the closest possibility to come to practical models. For this reason, the spatially aggregated modeling framework is widely used. This framework is relatively practical when compared to other modeling frameworks like microsimulation. Nevertheless, spatial aggregation is a serious source of bias in these models. This is especially the case of Land-Use and Transport Interaction (LUTI) models and more particularly of Four Step Models.The current PhD is committed to the study of spatial aggregation issues in traffic assignment models. Traffic assignment is responsable for the computation of travel times and travel conditions of present and future travel demand. Accessibility measurement, which is at the core of LUTI models, is tightly dependent on traffic assignment modeling and outcomes. Any bias in traffic assignment is likely to corrupt the overall modeling framework. In this context, a special attention is to be paid to spatial aggregation in traffic assignment models.In traffic assignment, spatial aggregation consists in grouping observations using zones or traffic analysis zones instead of using a continuous representation of space. By design, aggregation bears an implicit omission in data variability and thus a potential bias if this omission is not random. This is the case with the definition of centroid connectors and the omission of intrazonal demand in traffic assignment. With the use of zones as the basic spatial units, transport models require the use of centroid connectors to attach zones to the transportation network. Centroid connectors are introduced to model average access and egress conditions to and from the network. Nevertheless, average accessibility conditions are found to be too crude to render accurately accessibility conditions as encountered by trip makers. The current PhD explores the extent of the impact of this spatial aggregation bias in the case of transit models and suggests a new modeling strategy to overcome such modeling errors.The use of zones as spatial units induces a loss of intrazonal data. The omission of intrazonal trips in traffic assignment models is an example of such omission. This research introduces an uncertainty framework to study the statistical impact of ignoring intrazonal trips in traffic assignment models. Findings from this research are used to design new assignment strategies that are more robust towards the omission bias and more generally towards the spatial aggregation bias.
|
122 |
Flux géniques et dispersion chez un rongeur à démographie cyclique dans un paysage agricole intensifGauffre, Bertrant 03 February 2009 (has links) (PDF)
La dispersion est un trait d'histoire de vie qui joue un rôle majeur dans le fonctionnement des populations naturelles. Comprendre ce phénomène et son évolution est aujourd'hui déterminant pour la gestion des populations dans des écosystèmes de plus en plus anthropisés. Cette étude s'est attachée à caractériser la dispersion et ses déterminants chez le campagnol des champs, Microtus avalis, dans un paysage agricole de l'Ouest de la France. L'instabilité spatio-temporelle des agroécosystèmes et la démographie cyclique de ce petit rongeur colonial en font un modèle exceptionnel pour aborder cette problématique. La constitution d'une banque de marqueurs microsatellites nous a permis d'utiliser des approches de génétique des populations et de génétique paysagère. Une seule entité génétiquement homogène couvre les 500 km² du site d'étude et le patron d'isolement par la distance qui caractérise cette « population » indique que seule la distance limite le flux génique dans ce paysage. Les variations des patrons génétiques au cours des cycles reflètent l'instabilité de la balance entre dérive génétique et dispersion et montrent que le flux génique est positivement lié à la densité. Les patrons de dispersion, différents entre mâles et femelles (dispersion biaisée vers les mâles), suggèrent que la dispersion n'est pas déterminée par les mêmes causes évolutives selon le sexe. La colonisation par les femelles des habitats temporaire (les cultures annuelles), particulièrement massive lors des pullulations, permet la cohésion spatiale de la population. Sa cohésion génétique est assurée par les migrations répétées des mâles entre colonies pour la reproduction. Ce fonctionnement est rendu possible par l'extrême rapidité cycle de vie du campagnol des champs qui compense l'instabilité du paysage. L'intégration des différents résultats de cette étude dans un modèle de dispersion couplé à un modèle dynamique de paysage devrait permettre d'évaluer l'impact de l'évolution de l'agriculture sur cette espèce emblématique de la biodiversité de ces paysages.
|
123 |
Approche non-paramétrique par noyaux associés discrets des données de dénombrementSenga Kiessé, Tristan 15 October 2008 (has links) (PDF)
Nous introduisons une nouvelle approche non-paramétrique, par noyaux associés discrets, pour les données de dénombrement. Pour cela, nous définissons la notion de noyaux associés discrets à partir d'une loi de probabilité discrète donnée et nous étudions leurs propriétés. De là, nous construisons l'estimateur à noyau discret lequel est l'analogue de certains estimateurs à noyau continu de cette dernière décennie. Nous examinons ses propriétés fondamentales ; en particulier, nous montrons la convergence ponctuelle en moyenne quadratique de l'estimateur. Le choix de fenêtre du lissage discret s'effectue essentiellement par validation croisée et excès de zéros. Nous étudions également le comportement des lois classiques de dénombrement comme noyau associé, par exemple, Poisson, binomiale et binomiale négative. Ainsi, il s'est révélé nécessaire de construire une nouvelle famille de lois discrètes dites triangulaires pour servir de noyaux associés symétriques. Cette méthode des noyaux associés discrets est utilisée dans l'estimation semi-paramétrique des distributions de données de dénombrement, ainsi que pour la régression non-paramétrique sur une variable explicative de dénombrement. Tout au long de ce travail, nous illustrons les résultats à travers des simulations et des jeux de données réelles. Dans le cas d'échantillons de tailles petites et modérées, l'importance et les très bonnes performances des noyaux associés discrets sont mises en évidence, en comparaison avec le noyau du type Dirac et parfois les noyaux continus.
|
124 |
Modèles variationnels et bayésiens pour le débruitage d'images : de la variation totale vers les moyennes non-localesLouchet, Cécile 10 December 2008 (has links) (PDF)
Le modèle ROF (Rudin, Osher, Fatemi), introduit en 1992 en utilisant la variation totale comme terme de régularisation pour la restauration d'images, a fait l'objet de nombreuses recherches théoriques et numériques depuis. Dans cette thèse, nous présentons de nouveaux modèles inspirés de la variation totale mais construits par analogie avec une méthode de débruitage beaucoup plus récente et radicalement différente : les moyennes non locales (NL-means). Dans une première partie, nous transposons le modèle ROF dans un cadre bayésien, et montrons que l'estimateur associé à un risque quadratique (moyenne a posteriori) peut être calculé numériquement à l'aide d'un algorithme de type MCMC (Monte Carlo Markov Chain), dont la convergence est soigneusement contrôlée compte tenu de la dimension élevée de l'espace des images. Nous montrons que le débruiteur associé permet notamment d'éviter le phénomène de "staircasing", défaut bien connu du modèle ROF. Dans la deuxième partie, nous proposons tout d'abord une version localisée du modèle ROF et en analysons certains aspects : compromis biais-variance, EDP limite, pondération du voisinage, etc. Enfin, nous discutons le choix de la variation totale en tant que modèle a priori, en confrontant le point de vue géométrique (modèle ROF) au cadre statistique (modélisation bayésienne).
|
125 |
Rôle de l'information dans l'acquisition des partenaires sexuels et le choix du sexe de la descendance chez les hyménoptères parasitoïdes – Exemple de Venturia Canescens Gravenhorst (Hymenoptera : Ichneumonidae)Metzger, Marie 09 June 2008 (has links) (PDF)
Les processus de prises de décisions, et les comportements que les animaux adoptent à l'issue de ces processus, ont nécessairement des conséquences sur leurs chances de survivre et de se reproduire. Dans un environnement variable, l'utilisation d'informations fiables apparaît donc comme essentielle pour maximiser sa valeur adaptative. Dans le cadre théorique de la sélection sexuelle, l'objectif principal de la thèse est de comprendre les informations utilisées par les hyménoptères parasitoïdes lors des différentes étapes de la séquence d'appariement et de l'allocation aux sexes. Le manuscrit débute par une importante synthèse bibliographique puis présente les expériences menées en laboratoire et sur le terrain, en prenant l'exemple du parasitoïde solitaire Venturia canescens. Les résultats soulignent l'importance cruciale des informations liées aux conspécifiques lors de la phase d'acquisition des partenaires. Lors de la localisation du partenaire sexuel, les mâles augmentent leur efficacité de recherche en combinant l'information olfactive émise par les femelles à celle reliée à leurs habitats. Lors du choix du partenaire sexuel, les femelles reconnaissent et évitent de s'accoupler avec leurs frères, probablement sur la base d'une signature chimique, ce qui s'explique par le coût délétère des accouplements consanguins chez cette espèce. Comme chez de nombreuses espèces de parasitoïdes, la sex-ratio est biaisée en faveur des femelles, mais contrairement aux prédictions des modèles théoriques, le choix du sexe de la descendance ne semble pas dépendre des informations liées aux conspécifiques. Des contraintes physiologiques pourraient être responsables de ce biais.
|
126 |
Contribution à l'amélioration de la prévision hydrométéorologique opérationnelle. Pour l'usage des probabilités dans la communication entre acteurs.Houdant, Benoît January 2004 (has links) (PDF)
Les travaux présentés portent sur l'évaluation de la performance des centres opérationnels de prévision hydrométéorologique d'EDF. Une première approche consiste à calculer la valeur économique de l'information de prévision pour l'usager en charge de l'optimisation de la production hydroélectrique. La prévision probabiliste permet ensuite de formaliser une partie du savoir du prévisionniste qui n'était jusqu'alors fournie à l'usager que de manière qualitative et occasionnelle: les informations concernant les incertitudes de prévision, particulièrement en ce qui concerne la prévision d'événements rares et sévères (précipitations intenses, crues, tempêtes, etc.). Un protocole mis en place de manière semi-opérationnelle amène le prévisionniste à exprimer sa prévision courante dans la langue des probabilités: il traduit alors ses incertitudes de prévision en termes quantitatifs. Les prévisions probabilistes ainsi obtenues apportent une information plus riche et mieux adaptée aux enjeux de l'usager en charge de la sûreté des installations hydroélectriques. La prévision probabiliste permet également de révéler le comportement de l'expert confronté aux limites de son savoir. Nous analysons plusieurs défauts qui entachent le jugement du prévisionniste, tels que la "surconfiance" (sous-estimation par l'expert de ses propres incertitudes), le biais (surestimation ou sous-estimation systématique de certaines variables à prévoir), et l'aversion à l'incertitude (difficulté pour l'expert de parier sur ses propres incertitudes). Si la prévision probabiliste est encore peu usitée dans la plupart des centres de prévisions, elle s'avère pourtant applicable dans un contexte opérationnel. Nous donnons donc des préconisations pratiques pour dépasser les réticences des prévisionnistes et usagers à l'égard de ce nouveau mode de communication des incertitudes.
|
127 |
Méthode d'évaluation contingente et Evaluation économique d'un projet de réserves naturelles dans le Golfe du Morbihan (France)Voltaire, Louinord 28 June 2011 (has links) (PDF)
Cette thèse s'inscrit dans la perspective de la création de réserves naturelles dans le Golfe du Morbihan. Appliquant la méthode d'évaluation contingente (MEC), elle évalue les bénéfices associés à ces dernières du point de vue de la population touristique, et discute des moyens permettant de capter les bénéfices et les transformer en revenu pour le producteur des futures réserves naturelles. On évalue les bénéfices en tenant compte de deux phénomènes relativement peu considérés dans la littérature relative à la MEC: (1) la sensibilité éventuelle des agents enquêtés aux supports de paiement proposés; (2) l'existence possible d'un biais de sélection lié à un ou plusieurs facteurs explicatifs du consentement à payer (CAP), biais de sélection qui s'ajoute à celui généralement contrôlé dans les études contingentes, à savoir celui correspondant au choix des individus d'accepter de payer ou non. Une enquête contingente a été réalisée durant l'été 2007 au cours de laquelle un groupe de touristes a donné son CAP par le biais d'une taxe d'hébergement, et un autre par l'intermédiaire d'un ticket d'entrée. Les résultats montrent que les modes de paiement influent sur la décision des individus d'accepter de payer, d'une part, et sur les montants indiqués, d'autre part. Ils confirment de plus l'existence des deux types de biais de sélection suspectés, et donc la nécessité de les contrôler lors de l'estimation économétrique du CAP. Au-delà de ces deux questions (impact des vecteurs de paiement sur les préférences individuelles et double biais de sélection), la thèse montre que, du point de vue de la population touristique, il y a bien un bénéfice à protéger la nature du Golfe du Morbihan au travers des réserves naturelles. Enfin, s'inscrivant dans un cadre fictif de financement de ces espaces naturels à l'aide du droit d'entrée, dont le montant serait estimé à partir des CAP obtenus, la thèse discute de la pratique d'un tarif unique, dans une logique de maximisation des recettes, et d'un tarif différencié, dans une logique d'équité.
|
128 |
étude de la symétrie bilatérale en imagerie cérébrale volumiquePrima, Sylvain 07 March 2001 (has links) (PDF)
Le cerveau humain est une structure anatomique à symétrie bilatérale : il existe un plan, appelé plan médian sagittal, par rapport auquel il est (approximativement) symétrique. Certaines structures ou aires cérébrales sont pourtant systématiquement asymétriques. L'étude de ces asymétries et de leurs anomalies est d'un intérêt majeur pour la compréhension de certaines pathologies comme la schizophrénie. Dans cette thèse, nous présentons une méthode permettant de quantifier ces déviations locales par rapport à une symétrie bilatérale parfaite et d'en effectuer une analyse statistique dans des populations de sujets. En raison du positionnement arbitraire de la tête dans l'appareil d'acquisition, le plan médian sagittal est rarement situé au centre des images médicales tridimensionnelles anatomiques (IRM, scanner) ou fonctionnelles (TESP, TEP). Nous proposons une définition objective de ce plan, fondée sur un critère mathématique robuste de type moindres carrés tamisés. Ensuite, après calcul et réalignement du plan médian sagittal, nous montrons comment obtenir en chaque point de l'image un vecteur caractéristique de l'asymétrie de la structure anatomique sous-jacente. Ce champ d'asymétrie est obtenu au moyen d'un outil de recalage non-rigide, qui est également utilisé pour fusionner dans un référentiel géométrique commun les champs calculés sur une population d'individus. Des techniques statistiques classiques (de type test de Hotteling) permettent alors d'étudier l'asymétrie d'une population ou de comparer l'asymétrie entre deux populations. Un problème spécifique aux IRM est celui des variations lentes des intensités de l'image, induites par les interactions du sujet avec le champ magnétique, et qui ne reflétent pas les propriétés physiques des tissus sous-jacents. La structure géométrique de ce champ de biais est elle-même asymétrique, et perturbe substantiellement le calcul de l'asymétrie anatomique. Nous proposons différents algorithmes pour corriger ce biais, fondés sur des modélisations mathématiques du processus d'acquisition de l'image.
|
129 |
Essais sur les jugements et la prise de décision des consommateurs en situation d'incertitudeLaporte, Sandra 08 July 2010 (has links) (PDF)
La thèse étudie, dans des situations concrètes caractérisées par l'incertitude, plusieurs facteurs qui influencent les jugements de probabilités et les décisions. Les deux premiers essais portent sur la décision de participer à une loterie dont le nombre de participants est inconnu. La décision n'est pas influencée par le nombre de prix, c'est-à-dire le nombre de gagnants qui seront récompensés (Essai 1), alors qu'elle l'est par la similarité avec les gagnants précédents, un facteur logiquement non pertinent (Essai 2). L'insensibilité des consommateurs au nombre de prix découle de l'effet combiné de la faible évaluabilité de cet attribut et de la prise de décision sans estimation de probabilité. La similarité avec les gagnants précédents augmente l'intention de participer en raison du biais de " Hot Hand " interpersonnelle : les consommateurs pensent que leurs chances de gagner le prochain tirage sont plus élevées quand ils sont semblables aux gagnants précédents que quand ils sont dissemblables. L'essai final montre comment le fait de regretter une décision avant que ses conséquences soient connues peut conduire à être optimiste sur ces conséquences, pourvu que l'importance de cette décision pour la personne reste limitée
|
130 |
Modélisation des évènements rares et estimation des quantiles extrêmes, méthodes de sélection de modèles pour les queues de distributionGarrido, Myriam 12 June 2002 (has links) (PDF)
Cette thèse étudie la modélisation d'événements rares et l'estimation de quantiles extrêmes, à travers différents types de modèles et le choix de ces modèles. La théorie des valeurs extrêmes, et en particulier la méthode des excès (POT, Peaks Over Threshold), permettent une estimation non paramétrique, mais biaisée, des queues de distribution. Nous souhaitons donc utiliser des modèles paramétriques classiques. Cependant, ces modèles étant estimés et sélectionnés par des tests usuels à partir de l'échantillon complet, les résultats sont surtout influencés par les valeurs les plus probables de la variable. Nous proposons deux tests d'adéquation pour la queue de distribution, le test ET (Exponential Tail) et le test GPD (Generalised Pareto Distribution), pour sélectionner, par comparaison avec la méthode POT, les modèles produisant de bonnes estimations de la queue de distribution. Lorsqu'on souhaite reconstituer la loi dont sont issues les observations aussi bien dans la région centrale que dans la région extrême, on applique d'abord à un ensemble de modèles un test usuel (d'adéquation aux valeurs les plus probables), puis un test d'adéquation de la queue de distribution. Si aucune loi n'est acceptée par les deux types de tests, nous proposons une procédure de régularisation bayésienne qui, à partir d'un modèle adapté aux valeurs les plus probables, permet d'améliorer l'adéquation extrême grâce à un avis d'expert sur la queue de distribution. Enfin, si on revient à la méthode POT, il faut en réduire le biais d'estimation, notamment pour l'estimation des quantiles extrêmes. Cette méthode étant fondée sur l'approximation de la loi des excès au-delà d'un seuil par une loi GPD, nous cherchons à mieux en estimer les paramètres. L'inférence bayésienne sur les paramètres de la loi GPD permet de réduire le biais d'estimation des quantiles extrêmes par la méthode POT, en particulier quand on introduit un avis d'expert sur la queue de distribution.
|
Page generated in 0.0375 seconds