• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1802
  • 761
  • 167
  • 9
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2798
  • 1022
  • 573
  • 318
  • 301
  • 278
  • 263
  • 220
  • 212
  • 200
  • 197
  • 194
  • 193
  • 175
  • 175
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modèles spatiaux pour la planification cellulaire / Spatial models for cellular network planning

Vu, Thanh Tung 20 September 2012 (has links)
Dans cette thèse, nous enrichissons et appliquons la théorie des processus de Poisson spatiaux pour résoudre certains problèmes issus de la conception et du déploiement des réseaux cellulaire. Cette thèse comporte deux parties principales. La première partie est consacrée à la résolution de quelques problèmes de dimensionnement et de couverture des réseaux cellulaires. Nous calculons la probabilité de surcharge de systèmes OFDMA grâce aux inégalités de concentration et aux développements d'Edgeworth, pour lesquels nous prouvons des bornes d'erreur explicites, et nous l'appliquons à résoudre un problème de dimensionnement. Nous calculons également la probabilité d'outage et le taux de handover pour un utilisateur typique. La seconde partie est consacrée à l'étude de différents modèles pour la consommation d'énergie dans les réseaux cellulaires. Dans le premier modèle, l'emplacement initial des utilisateurs forme un processus de Poisson ponctuel et à chaque utilisateur est associé un processus d'activité de type ON-OFF. Dans le second modèle, l'arrivée des utilisateurs constitue un processus de Poisson en espace et en temps, une dynamique connue sous le nom de dynamique de Glauber. Nous étudions également l'impact de la mobilité des utilisateurs en supposant que les utilisateurs se déplacent de manière aléatoire pendant leur séjour. Nous nous intéressons dans toutes ces situations, à la distribution de l'énergie consommée par une station de base. Cette énergie est divisée en deux parties: la partie additive et la partie diffusive. Nous obtenons des expressions analytiques pour les moments de la partie additive ainsi que la moyenne et la variance de l'énergie totale consommée. Nous trouvons une borne d'erreur pour l'approximation gaussienne de la partie additive. Nous prouvons que la mobilité des utilisateurs a un impact positif sur la consommation d'énergie. Il n'augmente ni ne réduit l'énergie consommée en moyenne, mais réduit sa variance à $0$ en régime de mobilité élevé. Nous caractérisons aussi le taux de convergence en fonction de la vitesse des utilisateurs. / Nowadays, cellular technology is almost everywhere. It has had an explosive success over the last two decades and the volume of traffic will still increase in the near future. For this reason, it is also regarded as one cause of worldwide energy consumption, with high impact on carbon dioxide emission. On the other hand, new mathematical tools have enabled theconception of new models for cellular networks: one of these tools is stochastic geometry, or more particularly spatial Poisson point process. In the last decade, researchers have successfully used stochastic geometry to quantify outage probability, throughput or coverage of cellular networks by treating deployment of mobile stations or (and) base stations as Poisson point processes on a plane. These results also take into account to impact of mobility on the performance of such networks. In this thesis, we apply the theory of Poisson point process to solve some problems of cellular networks, in particular we analyze the energy consumption of cellular networks. This thesis has two main parts. The first part deals with some dimensioning and coverage problems in cellular network. We uses stochastic analysis to provide bounds for theoverload probability of OFDMA systems thanks to concentration inequalities and we apply it to solve a dimensioning problem. We also compute the outage probability and handover probability of a typical user. The second part is dedicated to introduce different models for energy consumption of cellular networks. In the first model, the initial location of users form a \PPP\ and each user is associated with an ON-OFF process of activity. In the second model, arrival of users forms a time-space \PPP. We also study the impact of mobility of users by assuming that users randomly move during its sojourn. We focus on the distribution of consumed energy by a base station. This consumed energy is divided into the additive part and the broadcast part. We obtain analytical expressions for the moments of the additive part as well as the mean and variance of the consumed energy. We are able to find an error bound for Gaussian approximation of the additive part. We prove that the mobility of users has a positive impact on the energy consumption. It does not increase or decrease the consumed energy in average but reduces its variance to zero in high mobility regime. We also characterize the convergent rate in function of user's speed.
12

Discrimination des quarks et des gluons dans les événements à quatre jets

Beauchemin, Pierre-Hugues January 2000 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
13

Silicon photonic Bragg-based devices : hardware and software

Cauchon, Jonathan 03 January 2022 (has links)
L'avènement de la photonique intégrée a attiré beaucoup de recherche et d'attention industrielle au cours des deux dernières décennies, plusieurs croyant qu'il s'agit d'une révolution équivalente à la microélectronique. Tout en tirant parti des procédés de fabrication de masse hérités de la microélectronique, la photonique sur silicium est compacte, éconergitique et permet l'intégration complète de dispositifs et de circuits photoniques à l'échelle nanométrique pour des applications cruciales dans les télécommunications, la détection et le calcul optique. À l'instar des débuts de la microélectronique, les efforts de recherche actuels en photonique sur silicium sont principalement consacrés à la proposition, à la conception et la caractérisation de composants standardisés en vue d'une éventuelle intégration de masse dans des circuits photoniques. Les principaux défis associés à ce développement comprennent la complexité de la théorie électromagnétique dans le fonctionnement des dispositifs, les variations et les non-uniformités du procédé de fabrication limitant les performances, et les ressources informatiques considérables nécessaires pour modéliser avec précision des circuits photoniques complexes. Dans ce mémoire, ces trois limitations sont abordées sous forme de contributions de recherche originales. Basées sur des dispositifs photoniques sur silicium et l'apprentissage machine, les contributions de ce mémoire concernent toutes les réseaux de Bragg intégrés, dont le principe de fonctionnement de base est la réflexion optique sélective en fréquence. Premièrement, un nouveau filtre optique double-bande basé sur les réseaux de Bragg multimodes est introduit pour des applications dans les télécommunications. Deuxièmement, une nouvelle architecture de filtre accordable basée sur un coupleur contra-directionnel à étage unique avec un dispositif de micro-chauffage segmenté permettant des profils de température arbitraires démontre une accordabilité de la bande passante record et des capacités de compensation des erreurs de fabrication lorsqu'opérée par un algorithme de contrôle. Troisièmement, un modèle d'apprentissage machine basé sur un réseau de neurones artificiels est introduit et démontré pour la conception de coupleurs contra-directionnels et le diagnostic de fabrication, ouvrant la voie à la production de masse de systèmes photoniques intégrés basée sur les données. / The advent of integrated photonics has attracted a lot of research and industrial attention in the last two decades, as it is believed to be a hardware revolution similar to microelectronics. While leveraging microelectronics-inherited mass-production-grade fabrication processes for full scalability, the silicon photonic paradigm is compact, energy efficient and allows the full integration of nano-scale optical devices and circuits for crutial applications in telecommunications, sensing, and optical computing. Similar to early-day microelectronics, current research efforts in silicon photonics are put toward the proposal, design and characterization of standardized components in sights of eventual black-box building block circuit design. The main challenges associated with this development include the complexity of electromagnetic theory in device operation, the performance-limiting fabrication process variations and non-uniformities, and the considerable computing resources required to accurately model complex photonic circuitry. In this work, these three bottlenecks are addressed in the form of original research contributions. Based on silicon photonic devices and machine learning, the contributions of this thesis pertain to integrated Bragg gratings, whose basic operating principle is frequency-selective optical transmission. First, a novel dual-band optical filter based on multimode Bragg gratings is introduced for applications in telecommunications. Second, a novel tunable filter architecture based on a single-stage contra-directional coupler with a segmented micro-heating device allowing arbitrary temperature profiles demonstrates record-breaking bandwidth tunability and on-chip fabrication error compensation capabilities when operated by a control algorithm. Third, an artificial neural network-based machine learning model is introduced and demonstrated for large-parameter-space contra-directional coupler inverse design and fabrication diagnostics, paving the way for the data-driven mass production of integrated photonic systems.
14

L'argumentation dans la communication : une analyse des interactions au sein d'une communauté politique en réseau

Chaput, Mathieu January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
15

Application du Codage Réseau aux Architectures à Garanties de Qualité de Service (QoS) / Network coding : principles and applications

Mahmino, Ali 12 November 2009 (has links)
L'intérêt du codage réseau (network coding) pour améliorer le débit ou optimiser l'utilisation de la capacité du réseau a été clairement démontré dans différents contextes. Certains travaux ont notamment montré que le codage réseau permet de diminuer le délai (maximal et moyen) de transmission de bout-en-bout d'un paquet. Ceci est dû au fait que le traitement simultané de plusieurs paquets dans un noeud de codage permet de réduire le temps passé par les paquets dans les files d'attente par rapport au routage classique. Dans cette thèse, nous considérons l'application du codage réseau dans le contexte des réseaux proposant des garanties de qualité de service (QoS). Notre principale contribution est la proposition de trois stratégies de codage réseau assurant un niveau de QoS garantie exprimé en termes de délai de bout-en-bout. La première stratégie, appelée "stratégie orientée réseau" est une stratégie de codage aléatoire, en termes de dates d'arrivée des paquets, permettant de réduire au maximum le temps passé par les paquets dans les files d'attente des routeurs. Le point faible de cette approche, comme toute approche aléatoire, est qu'elle n'est pas totalement fiable. Les deux autres stratégies proposées implémentent une stratégie fiable en utilisant le concept de code en bloc. La première, appelée "stratégie orientée flux" est basée sur la définition classique du codage réseau alors que la seconde, appelée "stratégie de transfert rapide", permet de réduire les temps d'attente des paquets dans les files d'attente en les transférant sans attendre tous les paquets du même bloc. Les délais maximums engendrés par les différentes stratégies ont été évalués au niveau d'un noeud de codage en utilisant le calcul réseau (network calculus). Les bornes de délais de bout-de-bout ont ensuite été calculées pour plusieurs types de réseaux. Dans la plupart des cas, ces bornes sont meilleures que celles obtenues pour le routage classique. Les stratégies de codage réseau fiables et la stratégie de routage ont été implémentées et évaluées par simulation sur les réseaux étudiés précédemment. Les résultats obtenus montrent que les pires cas de délais de bout-en-bout observés ont les mêmes comportements que les bornes maximales théoriques calculées, validant ainsi les stratégies proposées. / The Interest of network coding to improve the throughput or to optimize the use of the network capacity was clearly shown in various contexts. Certain work in particular showed that network coding allows to decrease the end-to-end transmission delay (maximum and average) of a package. This is due to the fact that the processing simultaneous of several packages in a coding node allows to reduce the maximum time spent by the packets in the buffers compared to a classical routing. In this thesis, we consider the application of network coding in the context of the networks providing quality-of-service (QoS) guarantees. Our contributions include the following. First, we propose three network coding strategies ensuring a level of QoS guaranteed expressed in terms of end-in-end delay. The first strategy, called "Network-Oriented Strategy (NOS)", is a random coding strategy. This coding strategy simply consists in combining the inputs packets present in the buffer of a node. It allows minimizing the time spent by the packets in the router's buffers. The weak point of this approach, as any random approach, is that it is not completely reliable. The two other strategies suggested implement a reliable strategy by using the concept of generation. The first, called "Flow-Oriented Strategy (FOS)" is based on the traditional definition of network coding whereas the second, called "Fast Forwarding Strategy (FFS)", allows reducing the packet's buffering delays by transferring them without awaiting all packets of the same generation. The maximum delays generated by different strategies have been evaluated at a coding node level by using network calculus. The end-to-end delay bounds have been then calculated for several types of networks. In most cases, these bounds are better than those obtained for the classical routing. The reliable network coding strategies and the routing strategy have been implemented and evaluated by simulation on networks studied previously. The results obtained show that the worst cases of end-in-end delays observed have the same behaviors as the calculated maximum theoretical bounds, thus validating the suggested strategies
16

Optimisations de Compilateur Optimistes pour les Systemes Réseaux

Bhatia, Sapan 09 June 2006 (has links) (PDF)
Cette these presente un ensemble de techniques qui permettent l'optimisation des performances des systèmes reseaux modernes. Ces techniques reposent sur l'analyse et la transformation des programmes impliquées dans la mise en oeuvre des protocoles reseaux. La première de ces techniques fait appel à la spécialisation de programmes pour optimiser des piles de protocoles réseaux. La deuxième, que nous avons nommée spécialisation distante, permet à des systèmes embarqués limités en ressources de bénéficier de la spécialisation de programmes en déportant à travers le réseau les opérations de spécialisation à une machine distante moins limitée. La troisième propose un nouvel allocateur de mémoire qui optimise l'utilisation des caches matériels faite par un serveur réseau. Enfin, la quatrième technique utilise l'analyse de programmes statiques pour intégrer l'allocateur proposé dans un serveur réseau existant. On appelle ces techniques optimisations compilateur parce qu'elles opèrent sur le flot des données et du contrôle dans des programmes en les transformant pour qu'ils fonctionnent plus efficacement. Les programmes réseaux possèdent une propriété fondamentale qui les rend faciles à manipuler de cette manière : ils sont basés sur une conception qui les organise en différentes couches, chacune englobant une fonctionalité bien définie. Cette propriété introduit dans le code des bloques fonctionnelles bien définis qui sont ´equivalents aux procédures et aux fonctions d'un langage généraliste. Dans la première partie de cette thèse, la spécialisation de programmes est utilisée pour créer différentes configurations de ces bloques qui correspondent à différents contextes d'utilisation. Au départ, chacun de ces bloques fonctionnels, tels que ceux utilisés dans le protocole TCP et dans le routage des trames, est conçu et développé pour fonctionner dans des conditions variées. Cependant, dans certaines situations spécifiques (comme dans le cas d'un réseaux haut-performance sans aucune congestion), certaines caractéristiques (comme les algorithmes du control de congestion de TCP) n'ont pas d'utilité. La spécialisation peut donc instancier ces bloques de code en éliminant les parties non-necessaires et en appliquant des transformations du flot des données et du contrôle pour rendre plus efficace leur fonctionnement. Une fois que ces bloques individuels sont rendus spécialisables, on bénéficie de l'encapsulation propre d'une pile de protocole en couches. Chacune de ces couches peut être spécialisée pour obtenir une pile de protocole spécialisée. Car cette façon d'utiliser la spécialisation de programmes est nouvelle et nécessite un style de programmation bien différent par rapport à ce qu'il existe : il faut de l'assistance pour les développeurs d'applications sous forme de bibliothèques et d'interfaces de programmation. De plus, la spécialisation a un inconvénient : il est très gourmand comme processus et donc ne peut pas être invoqué arbitrairement. Ces besoins sont traités dans la deuxième contribution de cette thèse, La spécialisation distante. La spécialisation distante est un ensemble de méchanismes et d'interfaces développées comme des extensions du noyau d'un système d'exploitation. Ces extensions permettent de déporter le processus de la spécialisation `à travers le réseau sur un système distant. La spécialisation distante fournit les avantages de la spécialisation dynamique de programmes à des systèmes qui en bénéficie potentiellement le plus, c'est `à dire, les systèmes embarqués. Traditionnellement, ces systèmes ont utilisé du code optimisé à la main. Cependant, produire ce code implique une procédure lente et produit des erreurs dans le code résultant. De plus, cette procédure n'arrive pas à exploiter des opportunités d'optimisation sophistiquées qui peuvent être identifiiés facilement par les outils automatisés. La spécialisation distante permet d'obtenir un tel code optimisé automatiquement à l'exécution, une fois que le système est préparé et rendu spécialisable. Une application peut dans ce cas demander des versions spécialisées des composant OS correspondant à des contextes particuliers à travers le réseau. En suite, on considère les serveurs réseaux. La spécialisation optimise effectivement du code qui est limité en performance par l'exécution des instructions sur le processeur, en éliminant des instructions non nécessaires et en rendant plus efficaces les instructions restantes. Mais pour les applications qui ont des inefficacités plus importantes, la spécialisation est inefficace, car malgré des améliorations importantes au niveau des instructions, la partie améliorée étant petite, les gains globaux sont insignifiants. Le facteur traditionnel qui limite les systèmes réseaux en performance est celui des opérations I/O. Par contre, les systèmes réseaux modernes sont maintenant équipés de suffisamment de mémoire. Donc, les op´erations I/O ne constituent plus le goulot d'´étranglement. A l'inverse, l'accès à la mémoire occupe maintenant cette position. Aujourd'hui, les accès à la mémoire cûutent jusqu'à 100 fois plus que d'autres opérations notamment la manipulation des registres. Cette thèse propose un nouvel allocateur de mémoire qui s'appelle Stingy Allocator pour minimiser le nombre de défauts cache dans un serveur orienté événement. La notion de bloques facilite, à nouveau, l'application de notre stratégie d'optimisation. Les bloques d'exécution dans un serveur orienté événement s'appelle des étapes et peuvent être identifiées et analysées par un outil automatisé une fois déclaré par un programmeur sous forme d'annotation pour le code. L'allocateur Stingy dépend du fait que ces étapes peuvent s'exécuter dans des ordres différents sans avoir un effet important sur la sémantique globale de l'application. Combiné à une nouvelle approche d'ordonnancement qui arrange différentes étapes pour limiter l'utilisation de la mémoire, Stingy Allocator assure que toute la mémoire allouée par le serveur soit bornée et qu'il reste dans les caches du système. Un ensemble d'outils a été développé pour intégrer Stingy Allocator dans des programmes existants. Ces outils ont été utilisés pour optimiser des applications existantes. Avec l'aide de ces outils, un programmeur peut modifier un serveur réseau pour qu'il se serve de Stingy Allocator sans comprendre intimement le fonctionnement de celui-ci. Chacune des parties d´ecrites au-dessus a été évaluée dans le contexte des programmes existants. La spécialisation des piles de protocole a été évaluée rigoureusement sur la pile TCP/IP du noyau de Linux. Celle-ci a aussi été ´etudiée dans le contexte de la pile TCP/IP de FreeBSD. La spécialisation distante a été utilisée pour spécialiser dynamiquement la pile TCP/IP de Linux ainsi que le serveur web TUX. Nos expériences ont démontré des réductions importantes dans la taille du code résultant (amélioré d'un facteur de 2 à 20) et des améliorations appréciables en terme de performance, les gains ´etant entre un facteur de 1.12 et 1.4.
17

NetSim : un logiciel de modélisation et de simulation de réseaux d'information

Lord, Mélanie 04 1900 (has links) (PDF)
Les réseaux électroniques basés sur Internet ont beaucoup accéléré la circulation de l'information dans notre société moderne, mais on commence à voir que les échanges d'information s'effectuent d'abord dans le cadre de réseaux sociaux. Le Web comporte également une structure en réseau, mais celle-ci est assez particulière. Ces différents types de réseaux d'information montrent à la fois des caractéristiques communes et des spécificités dont il convient de tenir compte. Pour des raisons à la fois techniques, sociales et économiques, il est donc utile de chercher à modéliser les réseaux par lesquels circulent information et connaissances. En nous inspirant des acquis importants en sociologie structurale et en analyse mathématique de réseaux, nous avons développé une approche de modélisation des réseaux par simulation. Nous avons tout d'abord développé un langage de modélisation qui se veut le plus flexible possible tout en demeurant simple et abordable pour des utilisateurs variés. Pour ce faire, nous nous sommes inspirés de modèles existants de la littérature et avons tenté d'en abstraire les concepts essentiels que devrait offrir un tel langage. Ensuite, nous avons réalisé NetSim, une plate-forme paramétrable de génération de réseaux capable d'interpréter ce langage et permettant de tester diverses hypothèses sur la structure des réseaux que l'on peut observer empiriquement. Cet outil offre aussi des fonctionnalités de visualisation, sous forme de graphe, de l'évolution du réseau dans le temps. Finalement, nous avons obtenu des résultats plutôt convaincants quant à l'utilisation de notre logiciel pour modéliser et simuler divers types de modèles de l'évolution temporelle de la structure des réseaux. Les phénomènes observés par simulation s'apparentent effectivement à certains faits observés dans la réalité. Ce logiciel pourra servir d'outil de recherche, d'expérimentation, de visualisation et de formation dans un domaine en plein développement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Réseaux d'information, réseaux sociaux, modélisation, simulation.
18

Évaluation des résultats d'une intervention centrée sur les difficultés de socialisation d'adolescentes anorexiques sur leur évolution pondérale, leurs conduites alimentaires, leur adaptation interpersonnelle et leur ajustement psychologique

Couture, Jacinthe January 2008 (has links)
Évaluation des résultats d'une intervention centrée sur les difficultés de socialisation d'adolescentes anorexiques sur leur évolution pondérale, leurs conduites alimentaires, leur adaptation interpersonnelle et leur ajustement psychologique.
19

Crystal chemistry of coordination polymers based on uranyl and mixed uranyl - lanthanide carboxylates / Cristallochimie de polymères de coordination de type carboxylate d’uranyle et carboxylate mixte uranyle - lanthanide

Mihalcea, Ionut 21 December 2012 (has links)
Ce travail de thèse décrit la synthèse, l’étude cristallochimique et le comportement thermique de polymères de coordination à base de cations uranyle, ou mixtes uranyle-lanthanide complexés par des ligands carboxylates aromatiques (acide phthalique et dérivés). L’emploi de 7 molécules polycarboxylates a conduit à la formation de plus de 25 nouveaux composés type Uranyl-Organic Framework (UOF) ou hybrides uranyle-organique, ou encore mixtes uranyle-lanthanide-organique. Certains de ces ligands on montré une grande diversité d’arrangements atomiques, avec par exemple, l’isophthalate qui conduit à la formation de 10 complexes de coordination, alors que d’autres (par exemple terephthalate) ont permis d’isoler un seul type d’assemblage. Certaines de ces phases contiennent classiquement des briques de construction inorganiques monomériques ou tétramériques alors que d’autres mettent en évidence des blocs trimériques linéaires ou octamériques originals, ou encore des systèmes de chaînes inorganiques générant des structures à tunnels inédits. Une configuration rare d’interaction cation-cation (CCI ou U=O-U) a été également identifiée dans l’isophthalate à base d’unité octamérique. La synthèse de toutes ces phases a permis une meilleure compréhension des réactions hydrothermales et de l’influence de différents paramètres influant la formation du produit final. Pour les phases obtenues sous formes pures, les comportements thermiques et leur stabilité ont été étudiés. Ces expériences ont permis d’établir des relations entre le précurseur initial, la dégradation thermique et les conditions de formation de l’oxyde final. Les spectres de fluorescence ont été collectés et indiquent des informations sur l’influence de la nature du ligand organique ou du type du motif de construction inorganique. / This thesis work concerns the synthesis, crystal structural study and thermal behavior of coordination polymers type uranyl and mixed uranyl-lanthanide aromatic carboxylates. Using a series of 7 aromatic carboxylate ligands, more than 25 new uranyl (so-called Uranyl-Organic Framework or UOF) and mixed uranyl-lanthanide coordination polymers have been synthesized and described in this manuscript. Some of the ligands have proven to be very prolific such as the isophthalic acid, which is present in 10 coordination polymers and with others (such as terephthalic acid) only one complex could be isolated. Some of the obtained phases contain typical monomeric or tetrameric SBUs and others possess unique features such as octanuclear SBU with an edge sharing CCI (U=O-U), linear trinuclear SBU or polymeric SBU delimiting large tunnel systems. The synthesis of all these phases conducted to a better understanding of the hydrothermal reactions and the influence of different parameters over the final reaction product. For each of the phases obtained pure the thermal behavior and thermal stability have been studied. These experiments offer a better understanding of the relation between the structure of the initial complex, the thermal degradation conditions and the nature of final oxide. Also for these phases the fluorescence emission spectra were recorded, offering information about the influence of different ligands or different type of SBUs over the typical uranyl spectrum.
20

Mesure de la sécurité "logique" d'un réseau d'un opérateur de télécommunications

Llorens, Cédric 12 1900 (has links) (PDF)
Cette thèse présente un prototype et une méthodologie pour mesurer la sécurité "logique" d'un réseau d'un opérateur de télécommunications. Cette méthode consiste à définir une politique de sécurité, à vérifier l'application de la politique de sécurité dans les configurations des équipements réseau, à définir des indicateurs de sécurité afin d'établir un tableau de bord de la sécurité réseau, à quantifier le risque associé à la non application de la politique de sécurité et enfin à définir des priorités pour corriger les faiblesses de sécurité les plus critiques.

Page generated in 0.0362 seconds