Return to search

Cross-Layer Congestion Control with Deep Neural Network in Cellular Network

A significant fraction of data traffic is transmitted via cellular networks. When introducing fifth-generation (5G) radio access technology, the maximum bitrate of the radio link increases significantly, and the delay is lowered. Network congestion occurs when the sender attempts to send data at a higher rate than the network link or nodes can handle. In order to improve the performance of the mobile networks, many congestion control techniques and approaches have been developed over the years. Varying radio conditions in mobile networks make it challenging to indicate the occurrence of the congestion using packet loss as congestion indicator. This master thesis develops a congestion control algorithm based on Artificial Intelligence (AI) technologies, evaluates and compares it with existing state-of-the-art congestion control algorithms that are used with TCP today.In this study, we use the abundant readable physical layer information exchanged between the base stations and the user equipment to predict the available bandwidth. Two neural network models, Multi-Layer Perceptron (MLP) and Long Short-Term Memory (LSTM), are introduced as congestion control algorithms based on cross-layer information in order to improve user throughput and utilize the available capacity as much as possible.Evaluation in a Long-Term Evolution (LTE) network system simulator confirms that the estimation of LSTM model is able to track the varying link capacity, while MLP is less accurate and induces higher delay. The sender uses the estimated link capacity to adjust its packet sending behavior. Our evaluation reveals that for large flows, the LSTM model can attain higher throughput than state-of-the-art congestion control algorithms, which are the Google Bottleneck Bandwidth and Round-trip propagation time (BBR) algorithm and the Data Center TCP (DCTCP) algorithm. However, it has higher latency than that of these two algorithms. The MLP based model provides unstable performance compared to LSTM; its prediction is not accurate enough and has the highest latency among the algorithms.In conclusion, the LSTM does not underperform the state-of-the-art congestion control algorithms. However, it does not provide additional performance gains in current settings. The MLP model underperforms BBR and DCTCP with L4S and it is not stable enough to be used as a congestion control algorithms. / En betydande del av datatrafiken överförs via mobilnät. Vid introduktion av femte generationens (5G) radioåtkomstteknik ökar den maximala bithastigheten för radiolänken betydligt och förseningen sänks. Nätstockning uppstår när avsändaren försöker skicka data med högre hastighet än nätverkslänken eller noderna kan hantera. För att förbättra prestandan i mobilnät har många tekniker för trängselkontroll utvecklats under åren. Varierande radioförhållanden i mobilnätet gör det utmanande att indikera förekomsten av trängseln med hjälp av paketförlust som trängselindikator. Detta examensarbete utvecklar en trängselkontrollalgoritm baserad på AI-teknik (Artificial Intelligence), utvärderar och jämför den med befintliga toppmoderna trängselkontrollalgoritmer som används med TCP idag.I denna studie använder vi den rikliga läsbara informationen om fysiskt lager som utbyts mellan basstationerna och användarutrustningen för att förutsäga den tillgängliga bandbredden. Två neurala nätverksmodeller, Multi-Layer Perceptron (MLP) och Long Short-Term Memory (LSTM), introduceras som trängselkontrollalgoritmer baserade på tvärskiktsinformation för att förbättra användarens genomströmning och utnyttja den tillgängliga kapaciteten så mycket som möjligt.Utvärdering i en LTE-nätverkssystemsimulator (Long Term Evolution) bekräftar att uppskattningen av LSTM-modellen kan spåra den varierande länkkapaciteten, medan MLP är mindre exakt och inducerar högre fördröjning. Avsändaren använder den uppskattade länkkapaciteten för att justera sitt paketets sändningsbeteende. Vår utvärdering avslöjar att för stora flöden kan LSTM-modellen uppnå högre genomströmning än modernaste trängselkontrollalgoritmer, som är Google Bottleneck Bandbredd och BBR-algoritm och Data Center TCP (DCTCP) ) algoritm. Men det har högre latens än för dessa två algoritmer. Den MLP-baserade modellen ger instabil prestanda jämfört med LSTM; dess förutsägelse är inte nog noggrann och har den högsta latensen bland algoritmerna.Sammanfattningsvis underpresterar LSTM inte de senaste toppkontrollalgoritmerna. Det ger emellertid inte ytterligare prestationsvinster i de aktuella inställningarna. MLP-modellen underpresterar BBR och DCTCP med L4S och den är inte tillräckligt stabil för att användas som en överbelastningskontrollalgoritm.

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:kth-264239
Date January 2019
CreatorsHuang, Shimin
PublisherKTH, Skolan för elektroteknik och datavetenskap (EECS)
Source SetsDiVA Archive at Upsalla University
LanguageEnglish
Detected LanguageSwedish
TypeStudent thesis, info:eu-repo/semantics/bachelorThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess
RelationTRITA-EECS-EX ; 2019:656

Page generated in 0.0026 seconds