• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 31
  • 20
  • 13
  • 7
  • 6
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 223
  • 47
  • 39
  • 38
  • 30
  • 29
  • 29
  • 28
  • 25
  • 24
  • 23
  • 21
  • 21
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Eco-cooperative adaptive cruise control at multiple signalized intersections

Almutairi, Fawaz 30 January 2017 (has links)
Consecutive traffic signals produce vehicle stops and acceleration/deceleration maneuvers on arterial roads, which may increase vehicle fuel consumption levels significantly. Eco-cooperative adaptive cruise control (Eco-CACC) systems can improve vehicle energy efficiency using connected vehicle (CV) technology. In this thesis, an Eco-CACC system is proposed to compute a fuel-optimized vehicle trajectory while traversing multiple signalized intersections. The proposed system utilizes signal phasing and timing (SPaT) information together with real-time vehicle dynamics data to compute the optimal acceleration/deceleration levels and cruise speeds for connected-technology-equipped vehicles while approaching and leaving signalized intersections, while considering vehicle queues upstream of the intersections. The INTEGRATION microscopic traffic simulation software was used to conduct a comprehensive sensitivity analysis of a set of variables, including different levels of CV market penetration rates (MPRs), demand levels, phase splits, offsets, and distances between intersections to assess the benefits of the proposed algorithm. Based on the analysis, fuel consumption saving increase with an increase in MPRs and a decrease in the cycle length. At a 100% equipped-vehicle MPR, the fuel consumption is reduced by as much as 13.8% relative to the base no Eco-CACC control. The results demonstrate an existence of optimal values for demand levels and the distance between intersections to reach the maximum fuel consumption reduction. Moreover, if the offset is near the optimal values for that specific approach, the benefits from the algorithm are reduced. The algorithm is limited to under-saturated conditions, so the algorithm should be enhanced to deal with over-saturated conditions. / Master of Science
112

Contributions à l'estimation de quantiles extrêmes. Applications à des données environnementales / Some contributions to the estimation of extreme quantiles. Applications to environmental data.

Methni, Jonathan El 07 October 2013 (has links)
Cette thèse s'inscrit dans le contexte de la statistique des valeurs extrêmes. Elle y apporte deux contributions principales. Dans la littérature récente en statistique des valeurs extrêmes, un modèle de queues de distributions a été introduit afin d'englober aussi bien les lois de type Pareto que les lois à queue de type Weibull. Les deux principaux types de décroissance de la fonction de survie sont ainsi modélisés. Un estimateur des quantiles extrêmes a été déduit de ce modèle mais il dépend de deux paramètres inconnus, le rendant inutile dans des situations pratiques. La première contribution de cette thèse est de proposer des estimateurs de ces paramètres. Insérer nos estimateurs dans l'estimateur des quantiles extrêmes précédent permet alors d'estimer des quantiles extrêmes pour des lois de type Pareto aussi bien que pour des lois à queue de type Weibull d'une façon unifiée. Les lois asymptotiques de nos trois nouveaux estimateurs sont établies et leur efficacité est illustrée sur des données simulées et sur un jeu de données réelles de débits de la rivière Nidd se situant dans le Yorkshire en Angleterre. La seconde contribution de cette thèse consiste à introduire et estimer une nouvelle mesure de risque appelé Conditional Tail Moment. Elle est définie comme le moment d'ordre a>0 de la loi des pertes au-delà du quantile d'ordre p appartenant à ]0,1[ de la fonction de survie. Estimer le Conditional Tail Moment permet d'estimer toutes les mesures de risque basées sur les moments conditionnels telles que la Value-at-Risk, la Conditional Tail Expectation, la Conditional Value-at-Risk, la Conditional Tail Variance ou la Conditional Tail Skewness. Ici, on s'intéresse à l'estimation de ces mesures de risque dans le cas de pertes extrêmes c'est-à-dire lorsque p tend vers 0 lorsque la taille de l'échantillon augmente. On suppose également que la loi des pertes est à queue lourde et qu'elle dépend d'une covariable. Les estimateurs proposés combinent des méthodes d'estimation non-paramétrique à noyau avec des méthodes issues de la statistique des valeurs extrêmes. Le comportement asymptotique de nos estimateurs est établi et illustré aussi bien sur des données simulées que sur des données réelles de pluviométrie provenant de la région Cévennes-Vivarais. / This thesis can be viewed within the context of extreme value statistics. It provides two main contributions to this subject area. In the recent literature on extreme value statistics, a model on tail distributions which encompasses Pareto-type distributions as well as Weibull tail-distributions has been introduced. The two main types of decreasing of the survival function are thus modeled. An estimator of extreme quantiles has been deduced from this model, but it depends on two unknown parameters, making it useless in practical situations. The first contribution of this thesis is to propose estimators of these parameters. Plugging our estimators in the previous extreme quantiles estimator allows us to estimate extreme quantiles from Pareto-type and Weibull tail-distributions in an unified way. The asymptotic distributions of our three new estimators are established and their efficiency is illustrated on a simulation study and on a real data set of exceedances of the Nidd river in the Yorkshire (England). The second contribution of this thesis is the introduction and the estimation of a new risk measure, the so-called Conditional Tail Moment. It is defined as the moment of order a>0 of the loss distribution above the quantile of order p in (0,1) of the survival function. Estimating the Conditional Tail Moment permits to estimate all risk measures based on conditional moments such as the Value-at-Risk, the Conditional Tail Expectation, the Conditional Value-at-Risk, the Conditional Tail Variance or the Conditional Tail Skewness. Here, we focus on the estimation of these risk measures in case of extreme losses i.e. when p converges to 0 when the size of the sample increases. It is moreover assumed that the loss distribution is heavy-tailed and depends on a covariate. The estimation method thus combines nonparametric kernel methods with extreme-value statistics. The asymptotic distribution of the estimators is established and their finite sample behavior is illustrated both on simulated data and on a real data set of daily rainfalls in the Cévennes-Vivarais region (France).
113

Contrôle de trafic et gestion de la qualité de service basée sur les mécanismes IP pour les réseaux LTE / QoS management and traffic control in LTE networks based on IP centric approach

Diego Maza, William David 03 October 2016 (has links)
Depuis quelques années le trafic de l'internet mobile ne cesse d'augmenter. Cette croissance soutenue est liée à plusieurs facteurs, parmi lesquels l'évolution des terminaux, la grande diversité des services et des applications disponibles et le déploiement des nouvelles technologies d'accès radio mobile (3G/4G). À cet égard, le standard 3GPP pour les réseaux LTE propose une architecture offrant une gestion fine de la QoS (par flux). Ce modèle, hérité des réseaux mobiles traditionnels orientés connexion, soulève des problèmes en termes de scalabilité, efficacité et performances. Les travaux entrepris dans cette thèse ont pour objectif principal de proposer des solutions plus simples et moins coûteuses pour la gestion de la QoS dans les réseaux mobiles. À cette fin, à l'issue d'une étude et de l'évaluation de l'impact de la signalisation associée au modèle de QoS standard, deux modèles alternatifs ont été proposés. Nous proposons tout d'abord un modèle basée sur les mécanismes IP inspiré de l'approche DiffServ (par agrégat) largement étudié dans les réseaux IP fixes. Ce modèle fournit une gestion de la QoS simple, efficiente et rentable, tout en garantissant des performances équivalentes au modèle standard. Cependant, elle nécessite une remise à niveau de tous les eNB, et donc une longue phase de transition. En conséquence, nous proposons SloMo qui vise à améliorer l'expérience des clients mobiles, mais avec un objectif de déploiement plus rapide. SloMo est une solution de gestion implicite de la QoS depuis un point unique situé sur le chemin des communications. SloMo exploite la dynamique instaurée par le mécanisme de contrôle de flux de TCP. Il vise à recréer un goulot d'étranglement dynamique dans un équipement contrôlé par l'opérateur lorsque les points de congestion réels ne sont pas accessibles. Une fois ce goulot d'étranglement déporté, il est alors aisé d'effectuer une gestion de la qualité IP classique dans l'équipement supportant Slo-Mo. / The mobile data landscape is changing rapidly and mobile operators are today facing the daunting challenge of providing cheap and valuable services to ever more demanding customers. As a consequence, cost reduction is actively sought by operators as well as Quality of Service (QoS) preservation. Current 3GPP standards for LTE/EPC networks offer a fine tuning QoS (per-flow level), which inherits many characteristics of legacy telco networks. In spite of its good performance, such a QoS model reveals costly and cumbersome and finally, it remains very rarely deployed, thereby giving way to basic best-effort hegemony. This thesis aims at improving QoS in mobile networks through cost-effective solutions; To this end, after an evaluation of the impact and cost of signaling associated with the standard QoS model, alternative schemes are proposed, such as the IP-centric QoS model (per aggregate) inspired from the DiffServ approach widely used in fixed IP networks. This model provides a simple, efficient and cost-effective IP level QoS management with a performance level similar to standardized solutions. However, as it requires enhancements in the eNB, this scheme cannot be expected in mobile networks before a rather long time.Thus, we introduce Slo-Mo, which is a lightweight implicit mechanism for managing QoS from a distant point when the congestion point (e.g. eNB) is not able to do it. Slo-Mo creates a self-adaptive bottleneck which adjusts dynamically to the available resources taking advantage of TCP native flow control. Straightforward QoS management at IP level is then performed in the Slo-Mo node, leading to enhanced customer experience at a marginal cost and short term.
114

Metascheduling of HPC Jobs in Day-Ahead Electricity Markets

Murali, Prakash January 2014 (has links) (PDF)
High performance grid computing is a key enabler of large scale collaborative computational science. With the promise of exascale computing, high performance grid systems are expected to incur electricity bills that grow super-linearly over time. In order to achieve cost effectiveness in these systems, it is essential for the scheduling algorithms to exploit electricity price variations, both in space and time, that are prevalent in the dynamic electricity price markets. Typically, a job submission in the batch queues used in these systems incurs a variable queue waiting time before the resources necessary for its execution become available. In variably-priced electricity markets, the electricity prices fluctuate over discrete intervals of time. Hence, the electricity prices incurred during a job execution will depend on the start and end time of the job. Our thesis consists of two parts. In the first part, we develop a method to predict the start and end time of a job at each system in the grid. In batch queue systems, similar jobs which arrive during similar system queue and processor states, experience similar queue waiting times. We have developed an adaptive algorithm for the prediction of queue waiting times on a parallel system based on spatial clustering of the history of job submissions at the system. We represent each job as a point in a feature space using the job characteristics, queue state and the state of the compute nodes at the time of job submission. For each incoming job, we use an adaptive distance function, which assigns a real valued distance to each history job submission based on its similarity to the incoming job. Using a spatial clustering algorithm and a simple empirical characterization of the system states, we identify an appropriate prediction model for the job from among standard deviation minimization method, ridge regression and k-weighted average. We have evaluated our adaptive prediction framework using historical production workload traces of many supercomputer systems with varying system and job characteristics, including two Top500 systems. Across workloads, our predictions result in up to 22% reduction in the average absolute error and up to 56% reduction in the percentage prediction errors over existing techniques. To predict the execution time of a job, we use a simple model based on the estimate of job runtime provided by the user at the time of job submission. In the second part of the thesis, we have developed a metascheduling algorithm that schedules jobs to the individual batch systems of a grid, to reduce both the electricity prices for the systems and response times for the users. We formulate the metascheduling problem as a Minimum Cost Maximum Flow problem and leverage execution period and electricity price predictions to accurately estimate the cost of job execution at a system. The network simplex algorithm is used to minimize the response time and electricity cost of job execution using an appropriate flow network. Using trace based simulation with real and synthetic workload traces, and real electricity price data sets, we demonstrate our approach on two currently operational grids, XSEDE and NorduGrid. Our experimental setup collectively constitute more than 433K processors spread across 58 compute systems in 17 geographically distributed locations. Experiments show that our approach simultaneously optimizes the total electricity cost and the average response time of the grid, without being unfair to users of the local batch systems. Considering that currently operational HPC systems budget millions of dollars for annual operational costs, our approach which can save $167K in annual electricity bills, compared to a baseline strategy, for one of the grids in our test suite with over 76000 cores, is very relevant for reducing grid operational costs in the coming years.
115

Push-based low-latency solution for Tracked Resource Set protocol : An extension of Open Services for Lifecycle Collaboration specification

Ning, Xufei January 2017 (has links)
Currently, the development of embedded system requires a variety of software and tools. Moreover, most of this software and tools are standalone applications, thus they are unconnected and their data can be inconsistent and duplicated. This increase both heterogeneity and the complexity of the development environment. To address this situation, tool integration solutions based on Linked Data are used, as they provide scalable and sustainable integration across different engineering tools. Different systems can access and share data by following the Linked-Data-based Open Service for Lifecycle Collaboration (OSLC) specification. OSLC uses the Tracked Resource Set (TRS) protocol to enable a server to expose a resource set and to enable a client to discover a resource in the resource set. Currently, the TRS protocol uses a client pull for the client to update its data and to synchronize with the server. However, this method is inefficient and time consuming. Moreover, high-frequency pulling may introduce an extra burden on the network and server, while low-frequency pulling increases the system’s latency (as seen by the client). A push-based low-latency solution for the TRS protocol was implemented using Message Queue Telemetry Transport (MQTT) technology. The TRS server uses MQTT to push the update patch (called a ChangeEvent) to the TRS client, then the client updates its content according to this ChangeEvent. As a result, the TRS client synchronizes with the TRS server in real time. Furthermore, a TRS adaptor was developed for Atlassian’s JIRA, a widely-used project and issue management tool. This JIRA-TRS adaptor provides a TRS provider with the ability to share data via JIRA with other software or tools which utilize the TRS protocol. In addition, a simulator was developed to simulate the operations in JIRA for a period of time (specifically the create, modify, and delete actions regarding issues) and acts as a validator to check if the data in TRS client matches the data in JIRA. An evaluation of the push-based TRS system shows an average synchronization delay of around 30 milliseconds. This is a huge change compared with original TRS system that synchronized every 60 seconds. / Nuvarande inbyggda system kräver en mängd olika program och verktyg för att stödja dess utveckling. Dessutom är de flesta av dessa programvara och verktyg fristående applikationer. De är oanslutna och deras data kan vara inkonsistent och duplicerad. Detta medför ökad heterogenitet och ökar komplexiteten i utvecklingsmiljön. För att hantera denna situation används verktygsintegrationslösningar baserade på Länkad Data, eftersom de ger en skalbar och hållbar integrationslösning för olika tekniska verktyg. Olika system kan komma åt och dela data genom att följa den Länkad Data-baserade tjänsten Open Service for Lifecycle Collaboration (OSLC). OSLC använder TRS-protokollet (Tracked Resource Set) så att en server kan exponera en resursuppsättning och för att möjliggöra för en klient att upptäcka en resurs i resursuppsättningen. TRS-protokollet använder för tillfället pull-metoden så att klienten kan uppdatera sin data och synkronisera med servern. Denna metod är emellertid ineffektiv och tidskrävande. Vidare kan en högfrekvensdriven pull-metod införa en extra börda på nätverket och servern, medan lågfrekvensdriven ökar systemets latens (som ses av klienten). I det här examensprojektet implementerar vi en pushbaserad låg latenslösning för TRS-protokollet. Den teknik som används är Message Queue Telemetry Transport (MQTT). TRS-servern använder MQTT för att pusha uppdateringspatchen (som kallas ChangeEvent) till TRS-klienten. Därefter uppdaterar klienten dess innehåll enligt denna ChangeEvent. Vilket resulterar i att TRS-klienten synkroniseras med TRS-servern i realtid. Dessutom utvecklas en TRS-adapter för Atlassians JIRA som är ett välanvänt projekt och problemhanteringsverktyg. JIRA-TRS-adaptern tillhandahåller en TRS-leverantör med möjlighet att dela data via JIRA med annan programvara eller verktyg som använder TRS-protokollet. Dessutom utvecklade vi en simulator för att simulera verksamheten i JIRA under en tidsperiod (specifikt skapa, ändra och ta bort åtgärder rörande problem) och en validator för att kontrollera om data i TRS-klienten matchar data i JIRA. En utvärdering av det pushbaserade TRS-systemet visar en genomsnittlig synkroniseringsfördröjning på cirka 30 millisekunder. Detta är en stor förändring jämfört med det ursprungliga TRS-systemet som synkroniseras var 60:e sekund.
116

Wait Time Estimation in Distributed Multitenant Systems : Using Queuing Theory / Väntetids Estimering i Distribuerade Multitenanta System : Med Användning av Köteori

Alsaadi, Zainab January 2022 (has links)
Queueing theory is widely used in practical queuing applications. It can be applied for specific models of queuing systems, especially the ones that follow the Markovian property. Its purpose is to predict system behaviour in order to be used for performance optimization. In this case study, it was used to evaluate an extended queuing model with agents serving multiple queues. The purpose was to try to capture more variability and input factors into the theoretical model and test its applicability on more extended models. The main objective was to use relevant queuing theory models to estimate the wait time using real contact center data. Different from the theoretical model, the service rates of the system model depended on how many queues an agent served concurrently, which increased the complexity of the model. The obtained results demonstrated some limitations that made the models too restrictive to be applied to a model with multi-skilled agents that were not equally available. Moreover, it was shown that heuristical approaches might be more suitable for more complex queuing systems that are not covered in queueing theory models. / Köteori används i stor utsträckning i praktiska kö-applikationer. Den kan tillämpas för specifika modeller av kö-system, speciellt de som följer Markovegenskapen. Dess syfte är att förutse systembeteende för att kunna användas för prestandaoptimering. I denna fallstudie användes den för att utvärdera en utökad kömodell med agenter som betjänade flera köer. Syftet var att försöka fånga mer variabilitet och inputfaktorer i den teoretiska modellen och testa dess tillämplighet för mer utökade modeller. Huvudmålet var att använda relevanta kö-teorimodeller för att estimera väntetiden med användning av riktiga contact center data. Till skillnad från den teoretiska modellen, betjäningsintensiteten för systemmodellen berodde på hur många köer en agent betjänade samtidigt, vilket ökade komplexiteten av modellen. De erhållna resultaten visade begränsningar som gjorde modellen för restriktiv för att appliceras på en modell med fler-kvalificerade agenter som inte var lika tillgängliga. Utöver detta så visade det sig att heuristiska metoder kan vara mer lämpliga för mer komplicerade system som inte täcks av kö-teori modeller.
117

Parcours des étudiants de l'université : les files d'attente pour l'éducation et l'emploi à l'aune de Sen et Bourdieu / Pathways of university students : queues for education and employment drawing on Sen and Bourdieu theories

Ménard, Boris 05 December 2017 (has links)
Cette thèse a pour objet l’analyse des inégalités appliquées d’une part aux parcours éducatifs des jeunes et, d’autre part, à leurs répercussions sur l’emploi. En effet, les inégalités à l’insertion s’accentuent, non seulement entre détenteurs de diplômes distincts, mais aussi comparables. Pour expliquer les déterminants des choix individuels dans un contexte de file d’attente, nous mobilisons une approche socioéconomique originale autour des concepts de Sen et Bourdieu pour décrire les espaces d’opportunités dont disposent les jeunes. Une telle démarche nécessite dans une première partie une revue critique des théories usuelles de l’offre. Les théories de la demande offrent une prise en compte plus complète des caractéristiques des emplois, mais sont limitées pour expliquer le rôle des parcours éducatifs sur l’accès à l’emploi. Les conceptualisations de Sen et Bourdieu sont alors associées pour expliquer les situations de reproduction sociale comme de non-reproduction. Dans une seconde partie, les analyses s’intéressent en premier lieu aux parcours des diplômés en sciences à l’issue de l’obtention de la licence générale. La pondération des parcours par les capitaux économiques et culturels permet de caractériser les éléments qui contrecarrent ou renforcent une reproduction qui n’en demeure pas moins dominante. Les investigations sur les parcours sont prolongées autour du décrochage, à partir des données Génération 2010. Une lecture à l’aune des capabilités permet d’illustrer son caractère protéiforme et l’influence du milieu social. La dernière partie élargit la perspective à la transition sur le marché du travail. La pondération sociale est cette fois appliquée aux trajectoires de sortie du supérieur qui ne produisent pas les mêmes effets sur les capabilités pour l’emploi suivant le milieu social. In fine, les investigations sur les dispositifs d’accompagnement à l’insertion suggèrent qu’ils peuvent faciliter les transitions mais peinent à réduire les inégalités. / This thesis aims to analyze the inequalities in the educational pathways and their implications for access to the labor market. Indeed, integration inequalities are increasing, not only between holders of distinct degrees but also comparable. To explain the determinants of individual choices, we’re drawing on an original socio-economic approach mixing Sen and Bourdieu concepts to describe the opportunities available to young people in an institutional context marked by a queue.Such an approach requires, in a first part, a review of the usual theories around the labor supply. The labor queue and segmentation theories offer a more comprehensive view of the determinants of demand and job characteristics but are limited to explain the role of education on employment. Sen and Bourdieu conceptualizations are associated to overcome these limitations. This association makes it possible to explain situations of social reproduction as well as non-reproduction. Empirical investigations to operationalize the approach focus first deal with science graduates’ paths after obtaining the general bachelor. The weighting by economic and cultural capital of the courses helps characterize the elements which either stymie or reinforce a nonetheless dominant reproduction. Investigations on pathways are extended in a subsequent chapter on the issue of dropping out, using Generation 2010 data. A reading by capability yardsticks illustrates its protean character, varying with the social milieu. The last part broadens the Seno-Bourdieusian perspective to the transition to the labor market. This time, the social weighting is applied to trajectories in higher education and shows that these paths do not have the same effects on the "capabilities for work" following social milieu. Ultimately, investigations into the integration support devices suggest that if they can facilitate professional transitions, they are struggling to reduce the "capability gap".
118

Methods for Utilizing Connected Vehicle Data in Support of Traffic Bottleneck Management

Khazraeian, Samaneh 27 October 2017 (has links)
The decision to select the best Intelligent Transportation System (ITS) technologies from available options has always been a challenging task. The availability of connected vehicle/automated vehicle (CV/AV) technologies in the near future is expected to add to the complexity of the ITS investment decision-making process. The goal of this research is to develop a multi-criteria decision-making analysis (MCDA) framework to support traffic agencies’ decision-making process with consideration of CV/AV technologies. The decision to select between technology alternatives is based on identified performance measures and criteria, and constraints associated with each technology. Methods inspired by the literature were developed for incident/bottleneck detection and back-of-queue (BOQ) estimation and warning based on connected vehicle (CV) technologies. The mobility benefits of incident/bottleneck detection with different technologies were assessed using microscopic simulation. The performance of technology alternatives was assessed using simulated CV and traffic detector data in a microscopic simulation environment to be used in the proposed MCDA method for the purpose of alternative selection. In addition to assessing performance measures, there are a number of constraints and risks that need to be assessed in the alternative selection process. Traditional alternative analyses based on deterministic return on investment analysis are unable to capture the risks and uncertainties associated with the investment problem. This research utilizes a combination of a stochastic return on investment and a multi-criteria decision analysis method referred to as the Analytical Hierarchy Process (AHP) to select between ITS deployment alternatives considering emerging technologies. The approach is applied to an ITS investment case study to support freeway bottleneck management. The results of this dissertation indicate that utilizing CV data for freeway segments is significantly more cost-effective than using point detectors in detecting incidents and providing travel time estimates one year after CV technology becomes mandatory for all new vehicles and for corridors with moderate to heavy traffic. However, for corridors with light, there is a probability of CV deployment not being effective in the first few years due to low measurement reliability of travel times and high latency of incident detection, associated with smaller sample sizes of the collected data.
119

Cavitation et phénomènes dissipatifs en turbulence de Langmuir forte

Roubaud, Robert 18 May 1984 (has links) (PDF)
La turbulence de Langmuir Forte dans les plasmas a de nombreuses conséquences tant dans les applications à la fusion rapide qu'à l'astrophysique. La déduction des équations couplant le spectre turbulent de Langmuir des cavités en effondrement et la fonction de distribution des particules se trouve exposée en détail dans ce mémoire. Le traitement numérique de ces équations confirme le développement d'une queue de particules suprathermiques prédite théoriquement. Par ailleurs, l'importance du rôle du rayonnement d'ondes sonores est mise en évidence . Il est montré que ce rayonnement se manifeste par une réaction sur la source de la turbulence, lorsque la queue d'électrons chauds s'est étendue, par l'intermédiaire du phénomène de conversion aléatoire. La prise en compte de ce dernier phénomène conduit à une sorte d'intermittence, cette tendance a été confirmée numériquement d'abord par une modélisation à 3 et 4 degrés de liberté puis sur l'ensemble des équations spectrales.
120

Marches aléatoires en milieux aléatoires et phénomènes de ralentissement

Fribergh, Alexander 03 June 2009 (has links) (PDF)
Les marches aléatoires en milieux aléatoires constituent un modèle permettant de décrire des phénomènes de diffusion en milieux inhomogènes, possédant des propriétés de régularité à grande échelle. La thèse comportent 6 chapitres. Les trois premiers sont introductifs : le chapitre 1 est une courte introduction générale, le chapitre 2 donne une présentation des modèles considérés par la suite et le chapitre 3 un bref aperçu des résultats obtenus. Les preuves sont renvoyées aux chapitres 4, 5 et 6. Le contenu du chapitre 4 porte sur les théorèmes limites pour une marche aléatoire avec biais sur un arbre de Galton-Watson avec des feuilles dans un régime transient sous-balistique. Le chapitre 5 porte sur le comportement de la vitesse d'une marche aléatoire avec biais sur un amas de percolation quand le paramètre de percolation se rapproche de 1. Un développement asymptotique de la vitesse en fonction du paramètre de percolation est obtenu. On en déduit que la vitesse est croissante en $p=1$. Finalement le chapitre 6 porte sur des estimées de déviations modérées pour une marche aléatoire en milieu aléatoire unidimensionnel.

Page generated in 0.0557 seconds