• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 9
  • 5
  • Tagged with
  • 34
  • 34
  • 14
  • 14
  • 11
  • 11
  • 11
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Auto-optimisation des réseaux sans fil. Une approche par la théorie des jeux

Coucheney, Pierre 31 August 2011 (has links) (PDF)
Les opérateurs et les constructeurs des réseaux sans fil sont amenés à développer de nouvelles stratégies afin de faire face à l'augmentation rapide des flux de données générés par les nouvelles applications telles que le streaming vidéo. D'une part, la récente saturation des réseaux cellulaires peut être en partie résorbée en diversifiant, pour chaque mobile, les technologies d'accès au réseau. Par exemple, la plupart des téléphones mobiles possède aujourd'hui la capacité de se connecter à des points d'accès Wifi en plus des réseaux cellulaires classiques. D'autre part, une gestion fine des allocations des mobiles sur les différents points d'accès permet une utilisation plus efficace des ressources (énergie, fréquences radio...), et augmente la capacité d'accueil des mobiles, sans nécessairement avoir recours à une onéreuse densification de la couverture radio. Cette thèse s'inscrit dans la problématique de l'auto-optimisation des réseaux en général et des réseaux sans fil en particulier. En raison de la nature très dynamique des réseaux sans fil, les algorithmes d'optimisation doivent être capables de s'adapter aux changements aléatoires de l'environnement de façon autonome. Dans cette thèse, nous proposons d'abord un algorithme de contrôle dynamique qui optimise l'allocation des mobiles tout en prenant en compte les contraintes de capacité. Bien que difficile à mettre en oeuvre en pratique, cet algorithme donne une borne supérieure des performances qu'il est possible d'atteindre. En raison de l'aspect fortement décentralisé des problèmes d'optimisation, nous avons été amenés à développer des méthodes de coopération inspirées de la théorie des jeux. Finalement, nous avons confronté plusieurs algorithmes stochastiques d'optimisation en terme d'efficacité et de robustesse qui sont en cours de prototypage dans un laboratoire industriel.
12

Impact des contrats d'approvisionnement sur la performance de la chaîne logistique : Modélisation et simulation

Amrani, Aicha 20 November 2009 (has links) (PDF)
Dans un contexte industriel où le partenariat d'entreprises devient une réponse stratégique aux exigences accrues du marché, le contrat d'approvisionnement apparaît progressivement comme un élément-clé de gestion de la chaîne logistique. La contribution de cette thèse comporte deux volets. Au plan méthodologique, il s'agit de fournir à l'entreprise un cadre d'analyse support à la contractualisation, permettant de relier clause, risque et performance en vue de définir, par une démarche instrumentée, les clauses pertinentes en adéquation avec le contexte industriel et la relation d'approvisionnement. Au plan des outils, il s'agit de proposer un modèle de planification avec prise en compte des contraintes contractuelles et de développer une plateforme de simulation. Des expérimentations sur deux types de contrats d'approvisionnement (contrat d'engagement sur des quantités par période et contrat d'engagement sur des quantités par horizon), mettent en évidence leur impact sur la performance locale (vue partenaire) et globale (vue de la chaîne logistique).
13

Sur les limites de la perception artificielle et de l'interprétation

Lamiroy, Bart 03 December 2013 (has links) (PDF)
La thèse défendue dans de document commence par un examen des approches d'évaluation de performances dans le cadre de la perception artificielle, et comment elle se rapporte aux limites ( et l'inévitable subjectivité) de la spécification de la vérité terrain. Elle établit qu'il existe une ambiguïté intrinsèque dans son interprétation et son analyse, notamment dans le cadre de l'analyse du document de l'image. Après avoir établi le fait que l'interprétation est nécessairement ambigüe et que cette ambiguïté provient essentiellement de l'existence différents contextes plus ou moins compatibles, notre objectif global est d'étudier si on peut: * établir une forme de description du contexte qui est adaptée à la perception artificielle ( et de l'analyse de documents en particulier) et si elle peut être obtenue automatiquement par des techniques d'apprentissage statistique ou formelle ; * utiliser la description du contexte pour évaluer les performances d'algorithmes ; * utiliser la description de contexte pour décrire les données, de sorte à ce que cette description peut être utilisée pour des applications de recherche d'information ; * établir des limites ou des restrictions formelles pour les descriptions décrites précédemment et déterminer s'il existe des interprétations qui sont prouvablement impossibles à être obtenues par un algorithme. S'il existe effectivement une classe de problèmes d'interprétation qui ne peuvent pas être résolus par un algorithme, la seconde question serait de savoir si cette classe peut être caractérisée d'une façon ou d'une autre.
14

Vers une modélisation et un dimensionnement automatique des systèmes répartis / Automatic performance modelling of black boxes towards self-sizing

Harbaoui, Ahmed 21 October 2011 (has links)
De nos jours, les systèmes distribués sont caractérisés par une complexité croissante de l'architecture, des fonctionnalités et de la charge soumise. Cette complexité induit souvent une perte de la qualité de service offerte, ou une saturation des ressources, voire même l'indisponibilité des services en ligne, en particulier lorsque la charge est importante. Afin d'éviter les désagrèments causés par d'importantes charges et remplir le niveau attendu de la qualité de service, les systèmes nécessitent une auto-gestion, en optimisant par exemple un tier ou en le renforçant à travers la réplication. Cette propriété autonome requiert une modélisation des performances de ces systèmes. Visant cet objectif, nous développons un framework basé sur une méthodologie théorique et expérimentale d'identification automatique de modèle et de dimensionnement, fournissant en premier un modèle de réseau de file d'attente pour un système distribué. Ensuite, ce Modèle est utilisé au sein de notre framwork pour dimensionner le système à travers une analyse ou une simulation du réseau de file d'attente. / Modern distributed systems are characterized by a growing complexity of their architecture, functionalities and workload. This complexity, and in particular significant workloads, often lead to quality of service loss, saturation and sometimes unavailability of on-line services. To avoid troubles caused by important workloads and fulfill a given level of quality of service (such as response time), systems need to self-manage, for instance by tuning or strengthening one tier through replication. This autonomic feature requires performance modelling of systems. In this objective, we developed a framework based on a theoretical and experimental approach for automatic identification process and sizing . This framework provid a queuing model for a distributed system. Then, this model is used in our Framwork to size the system through an analysis or simulation.
15

Évaluation de performance d'un système de fusion d'informations : application au traitement d'images 3D / Performance evaluation of a information fusion systems

Lamallem, Abdellah 17 July 2012 (has links)
Les systèmes de fusion d'informations sont principalement composés, d'outils mathématiques permettant de réaliser la représentation et la combinaison des données. L'objectif de ces systèmes peut s'exprimer comme un problème de décision sur la vérité ou la vraisemblance d'une proposition étant donné une ou plusieurs informations issues de différentes sources. Les systèmes de fusion cherchent à exploiter au mieux les propriétés des sources de données en tenant compte de l'imperfection de l'information (imprécis, incomplet, ambigu, incertain, etc.) ainsi que l'aspect redondant, complémentaire et conflictuel des informations. Le système de fusion concerné par cette thèse a la capacité d'intégrer dans ses traitements de la connaissance experte. On le nomme système de fusion coopératif. Puisque ce système cherche à intégrer pleinement les experts dans son fonctionnement, il est important de mettre à disposition des utilisateurs des informations aidant à mieux comprendre la fusion réalisée. De tels systèmes disposent de nombreux paramètres à régler et ces derniers ont un impact important sur la qualité des résultats obtenus. Une des grandes problématiques liées à ces systèmes de fusion d'informations porte sur l'évaluation de leurs performances. L'évaluation doit permettre d'améliorer la qualité de la fusion, d'améliorer l'interaction expert/système et d'aider à mieux ajuster les paramètres du système. En général, l'évaluation de tels systèmes est réalisée en fin de chaîne par une évaluation globale du résultat. Mais, celle-ci ne permet pas de savoir précisément l'endroit de la chaîne qui nécessite une intervention. Une autre difficulté réside dans le fait qu'une vérité terrain complète sur le résultat n'est pas toujours disponible, ce qui complique la tâche d'évaluation de performances de ce type de systèmes. Le contexte applicatif de ce travail est l'interprétation d'images tridimensionnelles (images tomographiques, images sismiques, images synthétiques, ...). Dans ce contexte une évaluation locale des systèmes de fusion d'informations, a été mise en place. L'approche a montré son intérêt dans l'ajustement efficace des paramètres et dans la coopération avec l'expert. / Information fusion systems are mainly composed from mathematical tools allowing to realize data representation and combination. The aim of these systems can be expressed as a decision problem on the truth or plausibility of a proposition based on several information coming from different sources. Fusion try to manage the characteristics of the sources taking into account the information imperfection (inaccurate, incomplete, ambiguous, uncertain, etc.) and the redundant aspect, the complement and the conflictual aspect of information. Fusion systems concerned by this thesis have the ability to integrate the expert knowledge in their treatments. They are called cooperative fusion systems. Since these systems are trying to associate experts, it is important to provide to the users some informations that help them to better understand the fusion process. Such systems have many parameters that must be adjusted. These parameters have an important impact on the quality of the obtained results. One of the major problems associated to information fusion systems concerns the evaluation of their performance. A pertinent evaluation will allow to improve the quality of the fusion, to improve expert/system interaction and to better adjust the parameters of the system. Generally, the evaluation of such systems is made in the ouput of the processing chain by a global evaluation of the results. But it does not allow to know the precise subpart of the treatement chain that requires an adjustment of its parameters. Another difficulty releases in the fact that a complete ground truth of the result is not always available, which complicates the performance evaluation task. The application context of this work is the interpretation of 3D images (tomographic images, seismic images, synthetic images, ...). In this context, a local evaluation of the information fusion systems has been implemented. The approach has shown its interest in the efficient adjustment of parameters and the cooperation with expert.
16

De l'usage d'architectures Ethernet commutées embarquées dans les lanceurs spatiaux / On the use of switched Ethernet embedded in space launchers

Robert, Jérémy 23 October 2012 (has links)
Les lanceurs spatiaux actuels, et en particulier Ariane 5, utilisent le réseau déterministe MIL-STD-1553B. Compte tenu des nouveaux objectifs de réduction des coûts et de la masse du système global ainsi que du support de trafic de télémesure multimédia, cette technologie n'est plus forcément optimale. Parmi les différents candidats de remplacement, cette thèse met en évidence les capacités du standard Ethernet à répondre à ces nouveaux objectifs tout en s'appuyant sur une utilisation de composants matériels et d'outils de développement existants à moindre coût (COTS). La première contribution porte sur l'évaluation de performances temporelles des architectures commutées. Les travaux mettent ainsi en évidence les gains et limites liés au choix d'une part du mode de communication (de maître/esclaves à producteurs/consommateur) et d'autre part à une future distribution de l'avionique. Pour cela, cette étude s'appuie sur une évaluation déterministe des délais de bout en bout par calcul réseau, simulations et expérimentations. Ces résultats ont été validés pour deux architectures commutées pour un scénario représentatif des vols actuels. La seconde contribution concerne l'amélioration de la disponibilité du système de communication. Il est proposé une stratégie de reconfiguration "temps réel" des chemins par supervision active du réseau. Dans le cadre d'exigences critiques, il est également proposé l'utilisation d'arbres couvrants multiples permettant d'anticiper la défaillance d'éléments d'interconnexion. Enfin, le choix d'architectures commutées et segmentées ne permet plus d'observer en tout point le réseau comme sur un bus. Pour cela, cette thèse met en avant les conditions et performances dans lesquelles un protocole de synchronisation d'horloges pourra contribuer à générer à partir de plusieurs points de captures une trace unique des échanges sur le réseau. Ce travail permettra d'identifier les tests pour une future validation du standard Ethernet pour les lanceurs spatiaux / Current space launchers, and particularly Ariane 5, use the deterministic network MIL-STD-1553B. According to the new objectives of cost and system mass reduction and of multimedia traffic support, this technology is not optimal anymore. Among the potential candidates, this thesis highlights the fact that such objectives can be achieved through the use of Ethernet standard based on components-on-the-shelf. The first contribution focuses on time performance evaluation of switched architectures. The gain and limits related to the communication mode (from master/slaves to producers/consummers) and future avionic distribution are studied. This study relies on a deterministic evaluation of the end-to-end delay by using network calculus, simulations and experiments. These results are validated with two switched architectures by using a scenario considered as representative of current flights. The second contribution is the network availability improvement. A real-time path reconfiguration strategy is proposed through active network supervision. Based on critical requirements, it is also suggested to use multiple spanning-trees for anticipating network element failures. The last contribution deals with the issue that in switched and segmented architectures it is not possible to collect all the traffic as in a bus. In order to do so, this thesis introduces the configurations under which a clock synchronization protocol could contribute to generate a single network trace from many collecting points. This work will enable to identify the tests for a future Ethernet standard validation in the framework of space launchers
17

Amélioration de la performance de l'ingénierie dans un contexte d'Ingénierie Système :<br />Cas du développement conjoint des produits automobiles et de leurs systèmes de fabrication

Lardeur, Etienne 03 December 2003 (has links) (PDF)
Ce travail traite de l'extension du périmètre d'application de l'Ingénierie Système afin de couvrir l'ingénierie des systèmes de fabrication et sa coordination avec l'ingénierie des produits. Une méthode outillée est développée pour concourir à la maximisation du déploiement de cette démarche étendue, prise pour cible méthodologique par PSA Peugeot Citroën pour satisfaire l'amélioration requise de la performance de ses processus de développement. L'extension du référentiel d'Ingénierie Système Automobile est justifiée par l'état de l'art des méthodes d'ingénierie. La portée des résultats obtenus débouche sur la problématique de leur instrumentation logicielle, pour laquelle la modélisation et le raffinement des modèles est réalisée. La méthode outillée s'appuie sur une démarche d'interviews et sur l'analyse des processus d'ingénierie. Elle permet d'évaluer les pratiques actuelles et de réaliser des actions d'amélioration, en réponses aux besoins des métiers. Elle est validée en regard des pratiques du terrain par le cas d'étude présenté. En conclusion, la représentativité et le caractère générique des études réalisées justifient la valeur ajoutée de l'Ingénierie Système ici étendue et son utilité pour l'ingénierie de tout le cycle de vie d'un système ou encore pour d'autres domaines industriels. La principale perspective de ces travaux confirme l'intérêt, par tous les moyens développés dans ce travail, de la poursuite du déploiement de l'Ingénierie Système pour la branche recherche et développement du groupe PSA Peugeot Citroën.
18

Environnements de visualisation pour l'évaluation des performances des systèmes parallèles : étude, conception et réalisation

Arrouye, Yves 01 November 1995 (has links) (PDF)
Les applications parallèles sont de plus en plus complexes et, même si les environnements de développement s'améliorent, de plus en plus difficiles à mettre au point que ce soit du point de vue de leur correction ou, dans le cadre qui nous intéresse, de leurs performances. Un outil intéressant pour la mise au point des performances d'une application est la visualisation de son exécution. Le travail présenté dans ce mémoire porte sur l'étude, la conception et la réalisation d'un environnement interactif extensible de visualisation pour l'évaluation de performance de systèmes parallèles. Un tel environnement permet de reconstituer le comportement d'une application d'après des traces d'exécution et facilite, par le calcul et la présentation d'indices de performances, la compréhension de son fonctionnement et la détection de ses problèmes de performance. Nous commençons par préciser les concepts importants dans un environnement de visualisation et présentons ensuite l'état de l'art en la matière. Nous décrivons ensuite la conception et la réalisation de l'environnement Scope. Cet environnement est validé par rapport aux objectifs initiaux et son utilité est démontrée par l'étude de sessions d'évaluation de performance d'applications concrètes.
19

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
20

L'Analyse et l'Optimisation des Systèmes de Stockage de Données dans les Réseaux Pair-à-Pair

Dandoush, Abdulhalim 29 March 2010 (has links) (PDF)
Cette thèse évalue les performances de systèmes de stockage de données sur des réseaux de pairs. Ces systèmes reposent sur trois piliers: la fragmentation des données et leur dissémination chez les pairs, la redondance des données afin de faire face aux éventuelles indisponibilités des pairs et l'existence d'un mécanisme de recouvrement des données perdues ou temporairement indisponibles. Nous modélisons deux mécanismes de recouvrement des données par des chaînes de Markov absorbantes. Plus précisément, nous évaluons la qualité du service rendu aux utilisateurs en terme de longévité et de disponibilité des données de chaque mécanisme. Le premier mécanisme est centralisé et repose sur l'utilisation d'un serveur pour la reconstruction des donnée perdus. Le second est distribué : la reconstruction des fragments perdus met en oeuvre, séquentiellement, plusieurs pairs et s'arrête dès que le niveau de redondance requis est atteint. Les principales hypothèses faites dans nos modèles sont validées soit par des simulations soit par des traces réelles recueillies dans différents environnements distribués. Pour les processus de téléchargement et de recouvrement des données nous proposons un modèle de simulation réaliste qui est capable de prédire avec précision le comportement de ces processus mais le temps de simulation est long pour de grands réseaux. Pour surmonter cette restriction nous proposons et analysons un algorithme efficace au niveau flux. L'algorithme est simple et utilise le concept de (min-max). Il permet de caractériser le temps de réponse des téléchargements en parallèle dans un système de stockage distribué.

Page generated in 0.1595 seconds