21 |
Evaluation de performances sur le standard IEEE802.16e WiMAXPeyre, Thierry 09 December 2008 (has links) (PDF)
Les dernières décennies ont connu l'apogée des transmissions hertziennes, et celles à venir connaîtront incontestablement le développement et le déploiement intense de systèmes de communications sans-fil. Dès à présent, il est possible de communiquer par onde sur petite et très petite distance (LAN et PAN). Les populations se sont familiariséesavec les interfaces bluetooth (IEEE802.15) présentes dans la majorité des objetscommuniquant (ordinateur portable, téléphone, PDA, etc...). Les foyers s'équipentmaintenant facilement et à bas prix d'interfaceWi-Fi (IEEE802.11), afin de profiter d'uneutilisation nomade de leur accès internet. Ainsi, la forte croissance dumarché des offresinternet combinée avec celle du marché des téléphones mobiles ont habitués un large spectre d'utilisateurs à communiquer sans fil. Ce contexte sociologique et financier encourage donc l'arrivée de solutions nouvelles répondant à des besoins latents. Parmi ceux-là, le marché met en évidence le manque de système de communication sur moyenne distance (MAN). Les réseaux ad-hoc peuvent répondre à ce genre de besoin. Mais àce jour, les performances sont trop faibles pour les besoins des utilisateurs et elles dépendenttrop fortement de la densité desmachines nomades. Aussi, le consortiumIEEEcherche au travers de sa norme IEEE802.16 à fournir un système complet de communicationsans-fil sur moyenne distance (MAN). Appelé aussiWiMAX, ce système se basesur une architecture composée d'une station de base (BS) et de nombreux mobiles utilisateurs(SS). Le standard IEEE802.16 définit les caractéristiques de la couche physiqueet de la couche MAC. Il décrit l'ensemble des interactions et événements pouvant avoirlieu entre la station de base et les stations mobiles. Enfin, le standard fournit différents paramètres et variables servant aux mécanismes de communication. Comme tout nouveau standard émergeant, la norme IEEE802.16 ne profite pas d'un état de l'art aussi développé que celui du IEEE802.11 par exemple. Aussi, de nombreuses études et idées sont à développer.En premier lieu, nous effectuons un large rappel de la norme WiMAX et en particulier le IEEE802.16e. Associé à cela, nous dressons un état de l'art des travaux traitant des aspects et perspectives liés au sujet de notre étude.Par la suite, nous proposons un modèle novateur de performance des communicationsIEEE802.16e. Au travers de ce modèle, nous développons une étude générale et exhaustive des principaux paramètres de communication. L'étude explicite l'impact deces paramètres ainsi que l'influence de leur évolutions possibles. De cela, nous critiquonsla pertinence de chacun d'eux en proposant des alternatives de configurations.5En sus, nous proposons un mécanisme novateur favorisant le respect de qualité de service(QoS) sur couche AC.Nous développons un principe original d'établissement de connexion favorisant l'accès aux communications sensibles aux délais de transmission.Dans une dernière partie, nous déterminons la capacité d'un système IEEE802.16 à gérer les arrivées et départs des utilisateurs. Tout en y associant une étude de performance d'un nouvel algorithme de contrôle d'admission. Cet algorithme d'admission vise à remplir des objectifs multiples : empêcher les famines de ressources sur les trafics les moins prioritaires, favoriser l'admission des utilisateurs en maintenant une gestion optimale de la ressource radio. Notre étude aboutit à une modélisation et une critique des variations de paramètre associés à ce nouvel algorithme. Nous y intégrons par la suite le principe de mobilité où les utilisateurs ont la capacité de se mouvoir au sein d'une cellule. Cette intégration se fait en y associant des mécanismes originaux afin d'assurer la pérennité du service aux utilisateurs mobiles.
|
22 |
Conception et validation d'AeroRing - un réseau de communication Ethernet en double anneau pour les systèmes avioniques de nouvelle génération / Specification and Analysis of AeroRing - A Full Duplex Ethernet Ring Network for New Generation Avionics SystemsAmari, Ahmed 21 September 2017 (has links)
La complexité et le besoin en bande passante des architectures de communication avioniquene cessent de croitre avec le nombre des calculateurs et l’expansion des données échangées. Latechnologie AFDX a été introduite pour offrir des communications haut débit (100Mbps) pourles avions de nouvelle génération. Cependant, ce réseau commuté est déployé de manièreentièrement redondante, ce qui conduit à des quantités importantes de câbles, augmentant lepoids et les coûts d’intégration. Pour faire face à ces problèmes, on propose dans cette thèsel’intégration d’un réseau Ethernet en anneau comme une solution principale pour diminuerle poids et la complexité liés au câblage. Dans ce contexte, notre objectif est de concevoir etvalider un nouveau réseau de communication avionique, AeroRing, basé sur de l’EthernetGigabit avec une topologie anneau. / The inherent complexity and bandwidth requirement of avionics communication architecturesare increasing due to the growing number of interconnected end-systems and theexpansion of exchanged data. The Avionics Full Duplex Switched Ethernet (AFDX) has beenintroduced to provide high-speed communication (100Mbps) for new generation aircraft.However, this switched network is deployed in a fully redundant way, which leads to significantquantities of wires, and thus increases weight and integration costs. To cope with thesearising issues, integrating ring-based Ethernet network in avionics context is proposed in thisthesis as a main solution to decrease the wiring-related weight and complexity. In this context,our main objective is to design and validate a new avionic communication network, calledAeroRing, based on a Gigabit Ethernet technology and supporting a Full Duplex ring topology.To achieve this aim, first, a benchmarking of the most relevant Real-Time Ethernet (RTE)solutions supporting ring topologies vs avionics requirements has been conducted, and weparticularly assess the main Performance Indicators (PIs), specified in IEC 61784-2. Thisbenchmarking reveals that each existing RTE solution satisfies some requirements better thanothers, but there is no best solution in terms of all the requirements.
|
23 |
A Reproducible Research Methodology for Designing and Conducting Faithful Simulations of Dynamic HPC Applications / Méthodologie de recherche reproductible adaptée à la conception et à la conduite de simulations d'applications scientifique multitâche dynamiquesStanisic, Luka 30 October 2015 (has links)
L'évolution de l'informatique haute performance s'est réorientée au cours de cette dernière décennie. L'importante consommation énergétique des plates-formes modernes limite fortement la miniaturisation et l'augmentation des fréquences des processeurs. Cette contrainte énergétique a poussé les fabricants de matériels à développer de nombreuses architectures alternatives afin de répondre au besoin croissant de performance imposé par la communauté scientifique. Cependant, programmer efficacement sur une telle diversité de plate-formes et exploiter l'intégralité des ressources qu'elles offrent s'avère d'une grande difficulté. La tendance générale de conception d'application haute performance, basée sur un gros code monolithique offrant de nombreuses opportunités d'optimisation, est ainsi devenu de plus en plus difficile à appliquer en raison de la difficulté d'implémentation et de maintenance de ces codes complexes. Par conséquent, les développeurs de telles applications considèrent maintenant une approche plus modulaire et une exécution dynamique de celles-ci. Une approche populaire est d'implémenter ces applications à plus haut niveau, indépendamment de l'architecture matérielle, suivant un graphe de tâches où chacune d'entre elles correspond à un noyau de calcul soigneusement optimisé pour chaque architecture. Un système de runtime peut ensuite être utilisé pour ordonnancer dynamiquement ces tâches sur les ressources de calcul.Développer ces solutions et assurer leur bonne performance sur un large spectre de configurations reste un défit majeur. En raison de la grande complexité du matériel, de la variabilité des temps d'exécution des calculs et de la dynamicité d'ordonnancement des tâches, l'exécution des applications n'est pas déterministe et l'évaluation de la performance de ces systèmes est très difficile. Par conséquent, il y a un besoin de méthodes systématiques et reproductibles pour la conduite de recherche ainsi que de techniques d'évaluation de performance fiables pour étudier ces systèmes complexes.Dans cette thèse, nous montrons qu'il est possible de mettre en place une étude propre, cohérente et reproductible, par simulation, d'applications dynamiques. Nous proposons une méthode de travail unique basée sur deux outils connus, Git et Org-mode, pour la conduite de recherche expérimentale reproductible. Cette méthode simple permet une résolution pragmatique de problèmes comme le suivi de la provenance ou la réplication de l'analyse des données. Notre contribution à l'évaluation de performance des applications dynamiques consiste au design et à la validation de simulation/émulation hybride gros-grain de StarPU, un runtime dynamique basé sur un graphe de tâches pour architecture hybride, au dessus de SimGrid, un simulateur polyvalent pour systèmes distribués. Nous présentons comment notre solution permet l'obtention de prédictions fiables de performances d'exécutions réelles dans un large panel de machines hétérogènes sur deux classes de programme différentes, des applications d'algèbre linéaire dense et creuse, qui sont représentatives des applications scientifiques. / The evolution of High-Performance Computing systems has taken asharp turn in the last decade. Due to the enormous energyconsumption of modern platforms, miniaturization and frequencyscaling of processors have reached a limit. The energy constraintshas forced hardware manufacturers to develop alternative computerarchitecture solutions in order to manage answering the ever-growingneed of performance imposed by the scientists and thesociety. However, efficiently programming such diversity ofplatforms and fully exploiting the potentials of the numerousdifferent resources they offer is extremely challenging. Thepreviously dominant trend for designing high performanceapplications, which was based on large monolithic codes offeringmany optimization opportunities, has thus become more and moredifficult to apply since implementing and maintaining such complexcodes is very difficult. Therefore, application developersincreasingly consider modular approaches and dynamic applicationexecutions. A popular approach is to implement the application at ahigh level independently of the hardware architecture as DirectedAcyclic Graphs of tasks, each task corresponding to carefullyoptimized computation kernels for each architecture. A runtimesystem can then be used to dynamically schedule those tasks on thedifferent computing resources.Developing such solutions and ensuring their good performance on awide range of setups is however very challenging. Due to the highcomplexity of the hardware, to the duration variability of theoperations performed on a machine and to the dynamic scheduling ofthe tasks, the application executions are non-deterministic and theperformance evaluation of such systems is extremelydifficult. Therefore, there is a definite need for systematic andreproducible methods for conducting such research as well asreliable performance evaluation techniques for studying thesecomplex systems.In this thesis, we show that it is possible to perform a clean,coherent, reproducible study, using simulation, of dynamic HPCapplications. We propose a unique workflow based on two well-knownand widely-used tools, Git and Org-mode, for conducting areproducible experimental research. This simple workflow allows forpragmatically addressing issues such as provenance tracking and dataanalysis replication. Our contribution to the performance evaluationof dynamic HPC applications consists in the design and validation ofa coarse-grain hybrid simulation/emulation of StarPU, a dynamictask-based runtime for hybrid architectures, over SimGrid, aversatile simulator for distributed systems. We present how thistool can achieve faithful performance predictions of nativeexecutions on a wide range of heterogeneous machines and for twodifferent classes of programs, dense and sparse linear algebraapplications, that are a good representative of the real scientificapplications.
|
24 |
Performance Evaluation and Prediction of Parallel Applications / Évaluation et prédiction de performance d'applications parallèlesMarkomanolis, Georgios 20 January 2014 (has links)
L'analyse et la compréhension du comportement d'applications parallèles sur des plates-formes de calcul variées est un problème récurent de la communauté du calcul scientifique. Lorsque les environnements d'exécution ne sont pas disponibles, la simulation devient une approche raisonnable pour obtenir des indicateurs de performance objectifs et pour explorer plusieurs scénarios ``what-if?''. Dans cette thèse, nous présentons un environnement pour la simulation off-line d'applications écrites avec MPI. La principale originalité de notre travail par rapport aux travaux précédents réside dans la définition de traces indépendantes du temps. Elles permettent d'obtenir une extensibilité maximale puisque des ressources hétérogènes et distribuées peuvent être utilisées pour obtenir une trace. Nous proposons un format dans lequel pour chaque événement qui apparaît durant l'exécution d'une application, nous récupérons les informations sur le volume d'instructions pour une phase de calcul ou le nombre d'octets et le type d'une communication. Pour obtenir des traces indépendantes du temps lors de l'exécution d'applications MPI, nous devons les instrumenter pour récupérer les données requises. Il existe plusieurs outils d'instrumentation qui peuvent instrumenter une application. Nous proposons un système de notation qui correspond aux besoins de notre environnement et nous évaluons les outils d'instrumentation selon lui. De plus, nous introduisons un outil original appelé Minimal Instrumentation qui a été conçu pour répondre au besoins de notre environnement. Nous étudions plusieurs méthodes d'instrumentation et plusieurs stratégies d'acquisition. Nous détaillons les outils qui extraient les traces indépendantes du temps à partir des traces d'instrumentations de quelques outils de profiling connus. Enfin nous évaluons la procédure d'acquisition complète et présentons l'acquisition d'instances à grande échelle. Nous décrivons en détail la procédure pour fournir un fichier de plateforme simulée réaliste à notre outil d'exécution de traces qui prend en compte la topologie de la plateforme cible ainsi que la procédure de calibrage par rapport à l'application qui va être simulée. De plus, nous montrons que notre simulateur peut prédire les performances de certains benchmarks MPI avec moins de 11% d'erreur relative entre l'exécution réelle et la simulation pour les cas où il n'y a pas de problème de performance. Enfin, nous identifions les causes de problèmes de performances et nous proposons des solutions pour y remédier. / Analyzing and understanding the performance behavior of parallel applicationson various compute infrastructures is a long-standing concern in the HighPerformance Computing community. When the targeted execution environments arenot available, simulation is a reasonable approach to obtain objectiveperformance indicators and explore various ``what-if?'' scenarios. In thiswork we present a framework for the off-line simulation of MPIapplications. The main originality of our work with regard to the literature is to rely on\tit execution traces. This allows for an extreme scalability as heterogeneousand distributed resources can be used to acquire a trace. We propose a formatwhere for each event that occurs during the execution of an application we logthe volume of instructions for a computation phase or the bytes and the type ofa communication. To acquire time-independent traces of the execution of MPI applications, wehave to instrument them to log the required data. There exist many profilingtools which can instrument an application. We propose a scoring system thatcorresponds to our framework specific requirements and evaluate the mostwell-known and open source profiling tools according to it. Furthermore weintroduce an original tool called Minimal Instrumentation that was designed tofulfill the requirements of our framework. We study different instrumentationmethods and we also investigate several acquisition strategies. We detail thetools that extract the \tit traces from the instrumentation traces of somewell-known profiling tools. Finally we evaluate the whole acquisition procedureand we present the acquisition of large scale instances. We describe in detail the procedure to provide a realistic simulated platformfile to our trace replay tool taking under consideration the topology of thereal platform and the calibration procedure with regard to the application thatis going to be simulated. Moreover we present the implemented trace replaytools that we used during this work. We show that our simulator can predictthe performance of some MPI benchmarks with less than 11\% relativeerror between the real execution and simulation for the cases that there is noperformance issue. Finally, we identify the reasons of the performance issuesand we propose solutions.
|
25 |
Proposition d'un processus d'évaluation multidomaine pour améliorer la conception de produit / Proposal for a multidomain evaluation process to improve product designAudoux, Kévin 02 July 2019 (has links)
La concurrence industrielle pousse les entreprises à développer de nouveaux produits innovants. En outre, les industriels sont soumis à de plus en plus de contraintes issues des différents acteurs du processus de conception (fabricants, utilisateurs) ou liées aux évolutions de leur environnement (réglementations, technologies). Il leur est donc nécessaire d’adapter leurs activités de conception et plus particulièrement les étapes d’évaluation pour que les produits développés correspondent aux exigences multiples de toutes les parties prenantes. Ces contraintes se traduisent par l’intégration de nouveaux domaines ou l’évolution de domaines existants dans le processus de conception.Dans ce contexte, l’objectif de ces travaux de thèse est de formaliser et d’apporter des méthodes permettant l’évaluation multidomaine dans le processus de conception. Ce manuscrit s’intéresse donc à la problématique suivante : « Comment les phases d’évaluation dans un processus de conception multidomaine peuvent-elles permettre d’accroître les performances du produit à partir des représentations intermédiaires ? ». Pour cela nous proposons une méthodologie permettant d’améliorer le processus d’évaluation en créant un outil d’évaluation multidomaine et en formalisant les étapes du processus d’évaluation pour apporter des méthodes d’amélioration adaptées aux domaines concernés par le produit à concevoir. Des expérimentations sont menées afin de valider leurs apports dans le processus de conception en s’intéressant notamment à trois domaines : l’innovation, la prise en compte des impacts environnementaux et la fabrication additive. Ces expérimentations ont permis de valider la méthodologie de création de l’outil d’évaluation et l’apport des étapes d’amélioration. / Industrial competition is driving companies to develop new innovative products. In addition, industrial companies are increasingly subject to constraints from the various actors in the design process (manufacturers, users) or linked to changes in their environment (regulations, technologies). It is therefore necessary for them to adapt their design activities and more particularly the evaluation steps so that the products developed correspond to the multiple requirements of all stakeholders. These constraints result in the integration of new domains or the evolution of existing domains into the design process.In this context, the objective of this thesis work is to formalize and provide methods for multidomain evaluation in the design process. This manuscript therefore addresses the following question: "How can evaluation phases in a multidomain design process help to increase the performance of intermediate representations? ». To this end, we propose a methodology to improve the evaluation process by creating a multidomain evaluation tool and formalizing the steps of the evaluation process to provide improvement methods adapted to the areas concerned by the product to be designed. Experiments are being carried out to validate their contribution to the design process, focusing in particular on three areas: innovation, taking into account environmental impacts and additive manufacturing. These experiments made it possible to validate the methodology for creating an evaluation tool and the contribution of the improvement steps.
|
26 |
Les arbres couvrants de la théorie à la pratique. Algorithmes auto-stabilisants et réseaux de capteurs / Spanning Trees from theory to practice. Self-Stabilizing algorithms and sensor networksBoubekeur, Fadwa 12 October 2016 (has links)
Les réseaux de capteurs sont des réseaux particuliers composés d'objets contraints en ressources. Ils possèdent une faible puissance de calcul, une faible puissance de transmission, une faible bande passante, une mémoire de stockage limitée ainsi qu'une batterie à durée de vie limitée. Afin d'intégrer de tels réseaux dans l'internet des objects, de nouveaux protocoles ont été standardisés. Parmi ces protocoles, le protocole RPL (pour Routing Protocol for Low Power and Lossy Networks). Ce protocole est destiné a construire une topologie logique de routage appelée DODAG. Dans cette thèse, nous abordons l'aspect acheminement de données qui considère une topologie de routage arborescente. L'acheminement des données se fait donc de saut en saut d'un enfant à son parent (ou d'un parent à son enfant). Optimiser la construction du DODAG revient donc à construire un arbre couvrant selon une contrainte donnée. Un arbre couvrant est une structure communicante qui permet de maintenir un unique chemin entre toutes paires de noeuds tout en minimisant le nombre de liens de communication utilisés. De plus, nous considérons les contraintes des réseaux de capteurs telles qu'une batterie déchargée et la variabilité du lien radio comme des fautes transitoires. Ceci nous conduit par conséquent à construire une structure couvrante tolérante aux fautes transitoires. L'auto-stabilisation est une branche de l'algorithmique distribuée qui assure qu'à la suite d'une ou de plusieurs fautes transitoires, le système va retrouver de lui-même un comportement correcte au bout d'un temps fini. L'objectif de cette thèse est de proposer des algorithmes auto-stabilisants dédiés aux réseaux de capteurs. / Spanning Trees from theory to practiceSelf-Stabilizing algorithms and sensor networksAbstract : Sensor networks are composed of ressources constrained equipments. They have low computing power, low transmission power, low bandwidth, limited storage memory and limited battery life.In order to integrate such networks in the Internet of things, new protocols were standardized such as RPL protocol (for Routing Protocol for Low Power and Lossy Networks). This protocol is intended to build a logical routing topology called DODAG (for Destination Oriented Directed Acyclic Graph). In this thesis, we discuss the data routing aspect by considering a tree routing topology. Thus, the routing of data is hop by hop from a child to its parent (or from a parent to its child). Optimize the construction of the DODAG is therefore to build a spanning tree in a given constraint. A spanning tree is a connecting structure that maintains a unique path between all pairs of nodes while minimizing the number of used communication links. Furthermore, we consider the constraints of sensor networks, such as a dead battery and the variability of the radio link as transient faults. This leads us to build a covering structure tolerant to transient faults. The self-stabilization is a branch of distributed algorithms that ensures that following one or more transient faults, the system will find itself a correct behavior after a finite time.The objective of this thesis is to propose self-stabilizing algorithms dedicated to sensor networks. The contributions of this thesis are:In the first part of the thesis, we proposed a self-stabilizing algorithm for the construction of a minimum diameter spanning tree.This construction is natural when we want to minimize the communication delay between a root and all other network nodes. Our algorithm has several advantages. First, our algorithm is limited to memory occupation of O(log n) bits per node, reducing the previous result of an n factor while maintaining a polynomial convergence time. Then, our algorithm is the first algorithm for minimum diameter spanning tree that works as an unfair distribution demon. In other words, we make no restriction on the asynchronous network behavior. In the second part of the thesis, we are interested in the unstable topology built by RPL protocol (DODAG). Our solution is to place an additional constraint on the number of children a node can accept during the construction of the DODAG. This constraint has the effect of reducing the rate of parent change and consequently to improve the protocol performance in terms of packet delivery rate, delay of communication and power consumption. In addition, we implemented a mechanism to update the information of the downward routes in RPL. Furthermore, our solution has the advantage of not generating overhead because we use existing control messages provided by RPL to implement it. Finally, this contribution is twofold since we validated our solution both by simulations and experiments.
|
27 |
Évaluation et optimisation de systèmes de taxis collectifs en simulationLioris,, Eugénie 17 December 2010 (has links) (PDF)
Le développement économique d'une région urbaine est lié à son accessibilité. Le rôle des taxis est reconnu mondialement mais c'est un moyen très coûteux, pas abordable quotidiennement par tous. Pour abaisser les coûts, il faudrait faire partager le service par plusieurs utilisateurs tout en préservant ses qualités essentielles (trajet presque direct, service porte à porte) en accroissant la productivité de ses véhicules devenus "collectifs". Cette idée a été étudiée en 1971, par P.H. Fargier et G. Cohen, considérée toujours comme révolutionnaire et prématurée par un marché strictement réglementé. Avec une révision de la réglementation, cette extension du service des taxis, si on lui donnait l'opportunité de se mettre en place, pourrait permettre aux taxis de prendre leur part du transport public en s'adressant à la majorité de la population et pas seulement à une minorité de privilégiés pouvant assumer le prix d'un transfert individuel.
|
28 |
Évaluation de la qualité des documents anciens numérisésRabeux, Vincent 06 March 2013 (has links) (PDF)
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l'évaluation de la qualité d'images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s'appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d'algorithmes de traitement et d'analyse d'images de documents. Les descripteurs sont définis en analysant l'influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l'aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d'un processus automatique de sélection de l'algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l'importance du défaut de transparence (diffusion de l'encre du recto sur le verso d'un document). Ce travail sur la prédiction des performances d'algorithmes est aussi l'occasion d'aborder les problèmes scientifiques liés à la création de vérités-terrains et d'évaluation de performances.
|
29 |
Quel dispositif d'évaluation de la performance pour les universités vietnamiennes ? / What evaluation device the performance of universities in Vietnam?Dao, Thi Hong 11 December 2017 (has links)
Cette recherche a pour objet l'étude de la problématique de la mise en œuvre d'une démarche d'évaluer la performance dans le contexte des établissements d'enseignement supérieur au Vietnam. La performance est le fer de lance de la stratégie de développement de l'éducation nationale contribuant au développement économique et social du pays d'une part, à la compétitivité de l'enseignement supérieur vietnamien plus spécifiquement d'autre part. En fait, la performance des universités est un sujet complexe et d’actualité. Elle se situe au centre des débats de l’heure au Vietnam, mais aussi ailleurs. Cette complexité résulte, d’une part, de la nature systémique des établissements universitaires et, d’autre part, de l’absence d’un consensus sur une définition précise de leur performance : l’évaluation de la performance de ces institutions s’avère ainsi difficile à réaliser. Il est important d’identifier comment examiner l’évaluation des performances des universités et les moyens d’améliorer. Le problème le plus difficile dans l’élaboration d’un modèle d’évaluation de la performance généralisable qui reflètent une évaluation pondérée de toutes les différentes dimensions. Le modèle d’évaluation que nous formulons permettre de clarifier des dimensions de la performance globale d’une université et la prise en compte des attentes des parties prenantes. Nous avons fourni aussi des dispositifs pour l’évaluation de la performance des universités vietnamiennes pour que les établissements d’enseignement supérieur puissent contrôler et gérer facilement un processus d’évaluation de la performance la plus complexe et d’évaluer des établissements d’enseignement supérieur / The aim of this research is to study the issue of the implementation of a performance evaluation approach in the context of higher education institutions in Vietnam. Performance is the spearhead of the development strategy of national education contributing to the economic and social development of the country on the one hand and the competitiveness of Vietnamese higher education more specifically on the other hand. In fact, the performance of universities is a challenging and timely theme. It is at the center of the debates of the hour in Vietnam, but also elsewhere. This complexity results, on the one hand, from the systemic nature of the academic institutions and, on the other, from the lack of consensus on a precise definition of their performance: It is difficult to assess the performance of these institutions. It is important to identify how to review the performance evaluation of universities and how to improve. The most difficult problem in developing a generalizable performance assessment model that reflects a weighted assessment of all the different dimensions. The evaluation model that we formulate can clarify the dimensions of a university's overall performance and take into account the expectations of stakeholders on each of the decoupled dimensions. We have also provided mechanisms for evaluating the performance of Vietnamese universities so that higher education institutions can easily monitor and manage a more complex performance appraisal process and evaluate institutions of higher learning in all aspects
|
30 |
Évaluation des performances du système d'agrégation implémenté dans les réseaux 802.11n / Performances evaluation of the aggregation system implemented in 802.11n networksBreck, Damien 04 December 2015 (has links)
Après l'augmentation des capacités physiques des réseaux sans-fil, l'amélioration du faible rendement MAC permet aujourd'hui aux utilisateurs de bénéficier de bandes passantes inédites. Cette amélioration est notamment rendue possible par la création de systèmes d'agrégation. Or si ces systèmes permettent d'améliorer la bande passante offerte, plusieurs problématiques se posent quant à leur influence sur le comportement du système en particulier en cas de forte concurrence pour l'accès au medium. L'agrégation étudiée dans ce mémoire effectue une concaténation de plusieurs paquets dans une seule trame. Cette opération permet aux paquets de partager les en-têtes. Outre la perte de signification quant à la valeur d'un paquet, la configuration des paramètres d'un tel système reste aujourd'hui obscure pour le fournisseur d'accès. Comme les intérêts du fournisseur et de ses clients peuvent diverger, il est également nécessaire de tenir compte du compromis entre leurs exigences respectives. Afin d'adresser ces problématiques, ces travaux de thèse se concentrent sur une analyse approfondie du comportement et des implications d'un système d'agrégation de paquets (avec IEEE 802.11n pour cas d'étude). L'influence de l'agrégation sur la qualité de service offerte à une application est quantifiée au travers de plusieurs milliers de simulations effectuées avec Riverbed Modeler. Des recommandations sont ensuite proposées pour la bonne configuration du système d'agrégation dans l'optique d'optimiser les délais et l'arriéré de traitement. L'accent est mis sur les performances offertes à un flux particulier en concurrence pour le medium. Ceci dans le but de clarifier l'influence de l'agrégation sur chaque client. Cette thèse développe également un modèle analytique dudit système basé sur la théorie du calcul réseau. Les limites d'un tel modèle sont démontrées et son pessimisme est déterminé à l'aide d'une analyse fine du comportement de l'agrégation 802.11n. Cette étude démontre notamment une relative inadaptation de la théorie du calcul réseau au système d'agrégation considéré. Des ajustements de la théorie sont alors proposés, en particulier vis à vis du calcul du service rendu à un flux. Afin d'aider le fournisseur d'accès dans la configuration du système d'agrégation, cette thèse propose en dernier lieu un algorithme de configuration dynamique des paramètres d'agrégation. Cet algorithme est établi à partir des recommandations instructives établies précédemment. Son originalité repose sur la désactivation de l'agrégation en fonction de l'état des stations concurrentes. Implémenté dans Riverbed Modeler, cet algorithme montre son efficacité. De nouvelles problématiques se posent quant à son implémentation réelle (distribuée, centralisée, ...). / After the increase of the capacity of wireless networks, the improvement of the low efficiency allows users to benefit from higher bandwidths. This improvement is partly due to the creation of aggregation's systems. Now, if these systems allow to improve the offered bandwidth, several problems arise about their influence on the behavior of the system. In particular, the case of strong competition for the access to the medium remains unknown. The aggregation studied in this thesis makes a concatenation of several packets in a single frame. This operation allows the packets to share headers. Besides the loss of meaning about the value of a packet, the configuration of such a system remains today obscure for the access provider. As the interests of the provider and its customers may differ, it is also necessary to consider a compromise between their respective requirements. To address these issues, this thesis focuses on a thorough analysis of the behavior and the implications of a packet aggregation system (with IEEE 802.11n as case study). The impact of aggregation on the quality of service provided to an application is quantified through thousands of simulations with Riverbed Modeler. Recommendations are then proposed for the proper setup of the aggregation system to optimize delay and backlog. This thesis focuses on the performances offered to a particular flow in competition for the medium. Its aim is to show the influence of the aggregation on each customer. This thesis also develops an analytical model of the aggregation system using the network calculus theory. The limitations of such a model are demonstrated. Its pessimism is determined using a detailed analysis of the 802.11n aggregation. This study demonstrates a particular relative inadequacy of network calculus to the aggregation system considered. Adjustments of the theory are then proposed, particularly for the calculation of the residuel service offered to a customer. To help the access provider in the configuration of the aggregation system, this thesis lastly proposes an algorithm for a dynamic configuration of the aggregation. This algorithm is established from the recommendations previously established. Its originality is based on the deactivation of the aggregation according to the state of the competing stations. Implemented in Riverbed Modeler, this algorithm shows its efficiency. Then, new problems arise about its real implementation (distributed, centralized, ...).
|
Page generated in 0.0181 seconds