• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 26
  • 6
  • Tagged with
  • 111
  • 36
  • 22
  • 21
  • 21
  • 19
  • 17
  • 17
  • 15
  • 14
  • 14
  • 13
  • 13
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Validation fonctionnelle de contrôleurs logiques : contribution au test de conformité et à l'analyse en boucle fermée / Functional validation of logic controllers : contribution to conformance test and closed-loop analysis

Guignard, Anaïs 04 December 2014 (has links)
Les travaux présentés dans ce mémoire de thèse s'intéressent à la validation fonctionnelle de contrôleurs logiques par des techniques de test de conformité et de validation en boucle fermée. Le modèle de spécification est décrit dans le langage industriel Grafcet et le contrôleur logique est supposé être un automate programmable industriel (API) mono-tâche. Afin de contribuer à ces techniques de validation fonctionnelle, ces travaux présentent : - Une extension d'une méthode de formalisation du Grafcet par traduction sous la forme d'une machine de Mealy. Cette extension permet de produire un modèle formel de la spécification lorsque le Grafcet est implanté selon un mode d'interprétation sans recherche de stabilité, qui n'est pas préconisé dans la norme IEC 60848 mais largement utilisé dans les applications industrielles. - Une contribution au test de conformité par la définition d'un ensemble de relations de conformité basées sur l'observation de plusieurs cycles d'exécution pour chaque pas de test. - Une contribution à la validation en boucle fermée par la définition d'un critère de fin d'observation et par une technique d'identification en boite grise pour la construction et l'analyse du système en boucle fermée. / The results presented in this PhD thesis deal with functional validation of logic controllers using conformance test and closed-loop validation techniques. The specification model is written in the Grafcet language and the logic controller is assumed to be a Programmable Logic Controller (PLC). In order to contribute to these validation techniques, this thesis presents: - An axtension to a fomalization methods for Grafcet languages by translation to a Mealy machine. This extension generates a formal model of a Grafcet specification that is interpreted without search of stability. This mode of interpretation is not recommended by the standard IEC 60848 but is widely used in industrial applications. - A contribution to conformance test by a definition of a set of conformance relation based on the observation of several execution cycles for each test step. - A contribution to closed-loop validation by the definition of a termination criterion and by a new gray-box identification technique that is used for construction and analysis of the closed-loop system.
52

Model-Based Testing for IoT Systems : Methods and tools / Based Testing for IoT Systems pour les systèmes IoT : Méthodes et outils

Ahmad, Abbas 01 June 2018 (has links)
L'internet des objets (IoT) est aujourd'hui un moyen d'innovation et de transformation pour de nombreuses entreprises. Les applications s'étendent à un grand nombre de domaines, tels que les villes intelligentes, les maisons intelligentes, la santé, etc. Le Groupe Gartner estime à 21 milliards le nombre d'objets connectés d'ici 2020. Le grand nombre d'objets connectés introduit des problèmes, tels que la conformité et l'interopérabilité en raison de l'hétérogénéité des protocoles de communication et de l'absence d'une norme mondialement acceptée. Le grand nombre d'utilisations introduit des problèmes de déploiement sécurisé et d'évolution du réseau des IoT pour former des infrastructures de grande taille. Cette thèse aborde la problématique de la validation de l'internet des objets pour répondre aux défis des systèmes IoT. Pour cela, nous proposons une approche utilisant la génération de tests à partir de modèles (MBT). Nous avons confronté cette approche à travers de multiples expérimentations utilisant des systèmes réels grâce à notre participation à des projets internationaux. L'effort important qui doit être fait sur les aspects du test rappelle à tout développeur de système IoT que: ne rien faire est plus cher que de faire au fur et à mesure. / The Internet of Things (IoT) is nowadays globally a mean of innovation and transformation for many companies. Applications extend to a large number of domains, such as smart cities, smart homes, healthcare, etc. The Gartner Group estimates an increase up to 21 billion connected things by 2020. The large span of "things" introduces problematic aspects, such as conformance and interoperability due to the heterogeneity of communication protocols and the lack of a globally-accepted standard. The large span of usages introduces problems regarding secure deployments and scalability of the network over large-scale infrastructures. This thesis deals with the problem of the validation of the Internet of Things to meet the challenges of IoT systems. For that, we propose an approach using the generation of tests from models (MBT). We have confronted this approach through multiple experiments using real systems thanks to our participation in international projects. The important effort which is needed to be placed on the testing aspects reminds every IoT system developer that doing nothing is more expensive later on than doing it on the go.
53

A symbolic-based passive testing approach to detect vulnerabilities in networking systems / [Une approche symbolique basée sur des tests passifs pour détecter les vulnérabilités des systèmes réseaux]

Mouttappa, Pramila 16 December 2013 (has links)
En raison de la complexité croissante des systèmes réactifs, le test est devenu un des éléments essentiels dans le processus de leur développement. Les tests de conformité avec des méthodes formelles concernent la correction du contrôle fonctionnel, par le biais des tests d'un système en boîte noire avec une spécification formelle du système. Les techniques passives de test sont utilisées lorsque l’exécution des systèmes testés ne peut pas être perturbée ou l'interface du système n'est pas fournie. Les techniques passives de test sont fondées sur l'observation et la vérification des propriétés du comportement d'un système sans interférer avec son fonctionnement normal. Les tests contribuent également à établir les comportements anormaux pendant l’exécution sur la base de l'observation de toute déviation d'un comportement prédéterminé. L'objectif principal de cette thèse est de présenter une nouvelle approche pour la mise en place des tests passifs fondés sur l'analyse des parties contrôle et données du système sous test. Au cours des dernières décennies, de nombreuses théories et outils ont été développés pour effectuer les tests de conformité. De fait, les spécifications ou les propriétés des systèmes réactifs sont souvent modélisés par différentes variantes de Labeled Transition Systems (LTS). Toutefois, ces méthodes ne prennent pas explicitement en compte les parties données du système, étant donné que le modèle sous-jacent de LTS n’est pas en mesure de le faire. Par conséquent, avec ces approches il est nécessaire d'énumérer les valeurs des données avant la modélisation du système. Cela conduit souvent au problème de l'explosion combinatoire de l'état-espace. Pour palier à cette limitation, nous avons étudié un modèle appelé Input-Output Symbolic Transition Systems (IOSTS) qui inclut explicitement toutes les données d'un système réactif. De nombreuses techniques de tests passives prennent uniquement en considération la partie du contrôle du système en négligeant les données, ou elles sont confrontées à une quantité énorme de données du processus. Dans notre approche, nous prenons en compte la partie contrôle et données en intégrant les concepts d'exécution symbolique et nous améliorons l'analyse de traces en introduisant des techniques de slicing des traces d’exécution. Les propriétés sont décrites à l'aide d'IOSTS et nous illustrons dans notre approche comment elles peuvent être testées sur l'exécution réelle des traces en optimisant l'analyse. Ces propriétés peuvent être conçues pour tester la conformité fonctionnelle d'un protocole ainsi que des propriétés de sécurité. Au-delà de l'approche théorique, nous avons développé un outil logiciel qui implémente les algorithmes présentés dans nos travaux. Enfin, comme preuve de concept de notre approche et de l'outil logiciel, nous avons appliqué les techniques à deux études de cas réels : le protocole SIP et le protocole Bluetooth / Due to the increasing complexity of reactive systems, testing has become an important part in the process of the development of such systems. Conformance testing with formal methods refers to checking functional correctness, by means of testing, of a black-box system under test with respect to a formal system specification, i.e., a specification given in a language with a formal semantics. In this aspect, passive testing techniques are used when the implementation under test cannot be disturbed or the system interface is not provided. Passive testing techniques are based on the observation and verification of properties on the behavior of a system without interfering with its normal operation, it also helps to observe abnormal behavior in the implementation under test on the basis of observing any deviation from the predefined behavior. The main objective of this thesis is to present a new approach to perform passive testing based on the analysis of the control and data part of the system under test. During the last decades, many theories and tools have been developed to perform conformance testing. However, in these theories, the specifications or properties of reactive systems are often modeled by different variants of Labeled Transition Systems (LTS). However, these methodologies do not explicitly take into account the system's data, since the underlying model of LTS are not able to do that. Hence, it is mandatory to enumerate the values of the data before modeling the system. This often results in the state-space explosion problem. To overcome this limitation, we have studied a model called Input-Output Symbolic Transition Systems (IOSTS) which explicitly includes all the data of a reactive system. Many passive testing techniques consider only the control part of the system and neglect data, or are confronted with an overwhelming amount of data values to process. In our approach, we consider control and data parts by integrating the concepts of symbolic execution and we improve trace analysis by introducing trace slicing techniques. Properties are described using Input Output Symbolic Transition Systems (IOSTSs) and we illustrate in our approach how they can be tested on real execution traces optimizing the trace analysis. These properties can be designed to test the functional conformance of a protocol as well as security properties. In addition to the theoretical approach, we have developed a software tool that implements the algorithms presented in this paper. Finally, as a proof of concept of our approach and tool we have applied the techniques to two real-life case studies: the SIP and Bluetooth protocol
54

Déontologue de marché. De la pratique des institutions à l'institutionnalisation des pratiques

Lenglet, Marc 24 June 2008 (has links) (PDF)
Cette recherche a pour objet la déontologie des pratiques financières, soit le corps de règles applicables aux acteurs intervenant sur les marchés financiers. Elle étudie la fonction déontologie, aujourd'hui pierre angulaire du dispositif de contrôle de conformité des actions engagées par les prestataires de services d'investissement. A travers cette fonction dédiée, ce sont ainsi les modalités de diffusion des normes dans les pratiques qui sont mises en lumière, une dissémination qui concourt à l'institutionnalisation de pratiques légitimes visant à réduire le risque de réputation porté par les activités. Nous étudions comment les déontologues parviennent à déployer un dispositif discursif effectuant un passage de textes normatifs génériques à des contextes pratiques spécifiques : ce passage, s'il s'effectue selon les modalités étudiées, peut prétendre performer la pratique de marché, en la corsetant et en lui conférant une forme de légitimité. L'explication, d'orientation sociale-constructionniste, trouve son ancrage conceptuel dans l'école néo-institutionnelle, puis se déporte vers les études sociales de la finance, pour montrer comment les déontologues contribuent à la maîtrise des représentations générées par les actes des opérateurs sur les marchés. Pour ce faire, ils mettent en œuvre un discours fait de traductions elles-mêmes signifiantes, visant à orienter les analystes, vendeurs et négociateurs peuplant la salle de marché. De nombreuses situations, recueillies lors d'une observation participante de longue durée chez un courtier actions sont ainsi restituées, qui permettent d'illustrer, d'évaluer et de critiquer le modèle explicatif proposé.
55

Normer pour mieux varier ? La différenciation comportementale par les normes, et son application au trafic dans les simulateurs de conduite

Lacroix, Benoît 01 October 2009 (has links) (PDF)
Les simulateurs de conduite sont utilisées par l'industrie automobile pour le développement de systèmes d'aide à la conduite, des études d'ergonomie, de design, ou encore du comportement des conducteurs. L'objectif est d'améliorer la sécurité des véhicules, et de réduire coûts et délais des projets. Dans les simulateurs, le conducteur évolue dans un trafic simulé dont le réalisme est crucial pour la validité des résultats : les réactions d'un conducteur sont d'autant plus correctes qu'il perçoit l'environnement comme réel. Dans les approches centrées individu, comme ici le trafic, un des critères important pour le réalisme est la variété comportementale des agents. De plus, les comportements doivent également être cohérents : l'apparition de situations aberrantes est très pénalisante pour l'immersion. Cependant, ces deux aspects ne sont généralement pas pris en compte simultanément. Dans ce travail, nous nous sommes donc intéressés à la question suivante : dans les approches centrées individus, augmenter la variété des comportements des agents tout en préservant leur cohérence améliore-t-il le réalisme ? Par ailleurs, le contexte industriel des travaux, effectués en convention Cifre chez Renault, impliquait des besoins spécifiques : il fallait concevoir un outil qui permette à la fois aux experts de spécifier des comportements variés et cohérents, et aux utilisateurs finaux de les exploiter facilement. Nous proposons dans ce travail un modèle de différenciation comportementale, qui se décline en un outil dont les principaux apports sont d'être générique, non-intrusif, et de permettre une conception en dehors de l'agent. Le modèle s'articule selon trois axes. Tout d'abord, il décrit les comportements des agents par des normes. Celles-ci fournissent un profil comportemental à la conception, et un contrôle de la conformitéà l'exécution. Ensuite, le processus de génération des comportements permet d'autoriser la création d'agents déviants ou en violation. Il influe pour cela sur le déterminisme du mécanisme. Enfin, les normes peuvent être inférées à partir de simulations enregistrées ou de situations réelles, afin d'analyser les résultats des expérimentations et d'automatiser la configuration du modèle. Nous avons appliqué cet outil à la simulation de trafic dans scaner, l'application développée et utilisée par le Centre Technique de Simulation de Renault pour ses simulateurs de conduite. Les modules logiciels développés au cours de la thèse introduisent dans le trafic des styles de conduite spécifiés sous forme de normes, par exemple des conducteurs prudents ou agressifs. Ils permettent ensuite de peupler l'environnement de manière automatisée, et de faire évoluer facilement les scénarios existants. Ces développements sont d'ores et déjà intégrés dans la version commerciale de l'application. Au delà de l'amélioration subjective du réalisme, les expérimentations réalisées démontrent les apports de l'outil sur la variété et la représentativité des comportements obtenus.
56

Cadre Formel pour le Test de Robustesse des Protocoles de Communication

Saad Khorchef, Fares 13 December 2006 (has links) (PDF)
Dans le domaine des télécommunications, il est indispensable de valider rigoureusement les protocoles avant de les mettre en service. Ainsi, il faut non seulement tester la conformité d'un protocole, mais il s'avère aussi nécessaire de tester sa robustesse face à<br />des événements imprévus. La littérature concernant le test de robustesse est beaucoup moins conséquente que le test de conformité. A travers ce document, nous considérons la définition de la robustesse suivante : "la capacité d'un système, conforme à sa spécification nominale, à adopter un comportement acceptable en présence d'aléas". Notre approche se fonde sur l'analyse du comportement du système face à des aléas. On considérera comme aléa tout événement non prévu amenant le système à une impossibilité temporaire ou définitive d'exécuter une action. Les contributions principales de ce document sont brièvement présentées ci-dessous :<br /><br />(1) Proposition d'un cadre formel comportant une approche, une relation de robustesse et méthode pour générer les cas de test de robustesse d'un système modélisé sous forme d'IOLTS. Notre approche comporte deux méthodes :<br /><br />- La méthode TRACOR (Test de Robustesse en présence d'Aléas COntrôlables et Représentables) consiste à vérifier la robustesse d'un système en présence d'aléas contrôlables et représentables. Cette méthode intègre les entrées invalides, entrées inopportunes, sorties<br />acceptables et traces de blocage dans la spécification nominale, pour obtenir une spécification augmentée. Cette dernière servira de base pour la génération de séquences de test de robustesse.<br /><br />- La méthode TRACON (Test de Robustesse en présence d'Aléas COntrôlables et Non représentables) est focalisée sur le test de robustesse en présence d'aléas contrôlables et non représentables. Elle consiste à enrichir la spécification nominale par les sorties acceptables et les traces de suspension afin d'obtenir la spécification semi-augmentée. Cette dernière servira de base pour la génération de séquences de test de robustesse.<br /><br />(2) Pour formaliser la robustesse d'une implémentation vis-à-vis de la spécification augmentée (ou la spécification semi-augmentée), nous proposons une relation binaire, appelée "Robust", basée sur l'observation des sorties et blocages de l'implémentation après l'exécution de traces comportant les aléas.<br /><br />(3) Afin de générer les cas de test de robustesse, nous proposons une méthode basée sur un coloriage de la spécification augmentée (ou la spécification semi-augmentée) et un ensemble d'objectifs de test de robustesse.<br /><br />(4) Les fondements de notre approche sont implémentés dans l'outil RTCG. Cette application offre trois interfaces. La première et la deuxième permettent d'automatiser la méthode TRACOR. La troisième interface permet d'automatiser la méthode TRACON.<br /><br />(5) Une étude de cas, sur les protocoles SSL handshake et TCP, montrant une évaluation<br />pratique de notre approche.
57

Utilisation de la base de données nationale d'inscription par les firmes de courtage et les régulateurs canadiens : gestion des renseignements personnels

Desjardins, David 08 1900 (has links)
Le présent texte a pour sujet la Base de données nationale d'inscription, système d'inscription obligatoire depuis quelques mois pour l'ensemble des firmes de courtage et des représentants en valeurs mobilières au Canada, à l'exception de ceux et celles qui n'exercent leurs activités qu'en territoire québécois. La question de la protection des renseignements personnels compris dans cette base de données y est analysée en portant une attention particulière à la pluralité des régimes de protection qui évolue au Canada. En effet, différentes règles s'appliquent selon que l'on est en présence d'un organisme public ou une entreprise du secteur privé et selon que la « transaction» est intraprovinciale ou extraprovinciale. La Base de données nationale d'inscription remplace dorénavant la procédure d'inscription sur support papier. Les documents issus de ce système informatique possèdent des caractéristiques propres et certaines règles doivent être respectées afin de leurs conférer la même valeur juridique que les documents papier. Finalement, la compilation de l'information dans cette gigantesque base de données serait futile s'il n'était pas possible d'accéder aux renseignements qui y sont contenus. Une fois les différents types d'accès définis, une comparaison sera faite avec certains systèmes d'inscription en ligne américains. La technologie bouleverse nos habitudes dans tous les secteurs de l'économie. Les finances ne sont pas en reste. Avec la Base de données nationale d'inscription, c'est tout le système d'inscription de l'industrie canadienne des valeurs mobilières qui prend un sérieux coup de jeune. Et il était temps ... / The subject of the present text concems the National Registration Database, a recent mandatory registration system designated for all brokerage firms and investment advisors across Canada, with the exception of those who exercise their activities exclusively in Quebec. The matter of protection of personal information included in this database is analyzed with an emphasis on the existence of multiple laws evolving in Canada. In fact, different mIes apply whether you are in the presence of a public body or an enterprise of the private sector and whether the "transaction" is concluded within or out of the province. The National Registration Database replaces the previous paper format registration procedure. The documents produced by this computerized system have their own particularities and certain mIes must be respected in order to maintain a legal value equal to the priOf format. Finally, the compiling of information found in this enormous database would be useless if it was not possible to access its information. Once the different types of access are determined, a comparison will be done with existing American online registration systems. It is obvious that technology has had a tremendous impact on the economy. Of course, the financial industry is affected. With the National Registration Database, the whole Canadian securities registration system has had a total makeover. It was about time... / "Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
58

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances

Beaucaire, Paul 29 November 2012 (has links) (PDF)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d'une valeur nominale et d'un intervalle de tolérance, à des dimensions de pièces. En particulier, l'analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l'inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d'estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d'exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s'agit de la probabilité que l'exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s'appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L'objectif de cette thèse est d'explorer le domaine de l'analyse et de la synthèse des tolérances afin d'identifier et d'exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l'analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l'approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l'évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L'analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l'utilisation d'une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d'aider à identifier les cotes ayant le plus d'influence sur le TNC d'un mécanisme. Enfin, l'optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d'Essuyages, concepteurs et fabricants de produits pour l'automobile et l'aéronautique, ont proposé des cas d'études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l'ingénierie des incertitudes, développe et commercialise un outil informatique professionnel.
59

L'interlangue des apprenants roumains de FLE au carrefour des langues romanes (études de cas sur des apprenants roumains étudiant aussi l'Italien et l'espagnol

Caslaru, Mariana Diana 05 September 2013 (has links) (PDF)
Apprendre une nouvelle langue signifie exploiter, plus ou moins consciemment,l'espace de la proximité du système linguistique cible avec d'autres langues. Cette proximité encourage les transferts entre les systèmes linguistiques, qui acquièrent une valeur positive ou négative à l'intérieur de l'interlangue vue comme le troisième système linguistique développé par l'apprenant, différent de la langue source et de la langue cible. Nous nous intéressons à ces transferts et à l'influence que ceux-ci exercent sur l'interlangue, dans le cas des apprenants roumains de FLE, étudiant aussi l'italien et l'espagnol. L'analyse des données nous permet de rendre compte du rapport qui s'établit entre la conformité avec la norme et la complexité de l'interlangue et aussi de déterminer le rôle des transferts linguistiques positifs et négatifs par rapport à ces deux dimensions de l'interlangue (la complexité et la conformité)
60

Protection de ressources dans des centres de données d'entreprise: Architectures et Protocoles

Jarma, Yesid 24 January 2012 (has links) (PDF)
Au cours des dernières années, l'apparition de l'Internet a changé la façon dont les affaires sont menées partout dans le monde. Pour rester compétitives, les entreprises ont déployé du support informatique pour les processus métiers au fil des années. Dans ce contexte, les architectures orientées service (SOA) ont émergé comme la solution principale pour l'intégration des systèmes patrimoniaux avec les nouvelles technologies au coeur des grandes organisations. Les centres de traitement de données d'entreprise qui implémentent les concepts et solutions des SOA sont normalement déployés en suivant une architecture à deux niveaux où, pour libérer les serveurs de services des tâches computationnelles intensives (e.g., l'analyse syntaxique de documents XML) et pour effectuer de la protection de ressources, ces fonctions sont déchargées dans un cluster d'appliances qui implémentent des fonctions des réseaux orientées service (SON). Dans les centres de traitement, l'accès aux services est gouverné par des contrats de garantie de services (SLA), dont le but est de protéger les ressources du centre de traitement. Actuellement, les appliances SON sont utilisées pour protéger les ressources du centre de traitement en limitant l'accès (e.g., en contrôlant le trafic) aux services. Le provisionnement et l'optimisation de ressources sont des problèmes classiques de la gestion de la QoS. En outre, le contrôle de trafic est un problème très connu de l'ingénierie de trafic. Cependant, dans les centres de traitement orientés service le problème est fondamentalement diffèrent. Dans les réseaux classiques, les ressources protégée par la fonction de mise en conformité sont normalement la bande passante et la taille des mémoires tampon, dont les unités de mesure sont clairement définies et mesurées avec précision. Dans un centre de traitement, les métriques des ressources sont comprises pour la plupart dans un des types suivants: puissance de calcul et mémoire des serveurs d'application (CPU et RAM), capacité de stockage des serveurs de stockage (espace en disque dur), et la bande passante du réseau interne du centre de traitement. Une autre différence fondamentale est que, dans les réseaux dits "classiques", le contrôle de trafic a une étendue locale, puisque le trafic prend la conformité d'une connexion simple. Dans un centre de traitement, les clients de service accèdent aux services à partir de multiples points d'entrée (p.ex., un cluster d'appliances SON). Ainsi, l'effet désiré est une mise en conformité "globale" du trafic. Le défi est donc faire respecter les contrats de service en agissant localement dans chaque point d'entrée. Cette thèse apporte trois contributions. D'abord nous proposons DoWSS, un algorithme dynamique basé sur des crédits pour la mise en conformité de trafic multipoint-à-point. À la différence des approches existantes basées sur des crédits, notre approche utilise une stratégie doublement pondérée pour l'affectation de crédits, en utilisant des poids basés sur la taille des requêtes de service. L'évaluation de DoWSS montre que ses performances sont optimales puisqu'il limite le nombre de requêtes au maximum permis par le contrat de service. Par la suite, nous affirmons que les appliances SON actuelles présentent des limitations architecturales qui les empêchent d'être utilisées efficacement pour la mise en conformité de trafic en présence d'hôtes de service multiples. Pour palier à ce problème, nous proposons MuST, une architecture interne pour les appliances SON appropriée pour la mise en conformité de trafic multi-service. L'évaluation des performances de notre approche montre qu'elle résout le problème de la mise en conformité de trafic multipoint-à-multipoint tout en poussant le système à être utilisé à sa capacité maximale. Finalement, actuellement les applications sont souvent déployées dans des centres de données géographiquement distribués. Les approches existantes pour la mise en conformité de trafic, lesquelles ont étés conçues spécifiquement pour des centres de données aménagés sur un même site, présentent des problèmes liés aux latences réseau quand ils sont utilisés dans des environnements géographiquement distribués. Pour palier à ce problème, nous proposons GeoDS, un approche pour la mise en conformité du trafic géographiquement distribué qui considère les délais de communication entre les entités qui forment le système. L'évaluation de ses performances montre qu'il est capable de résoudre efficacement le problème de la mise en conformité du trafic dans les environnements géographiquement distribués.

Page generated in 0.0865 seconds