• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Sur la stabilité des systèmes à retards variant dans le temps: théorie et application au contrôle de congestion d'un routeur

Ariba, Yassine 09 November 2009 (has links) (PDF)
Cette thèse s'inscrit dans une thématique pluridisciplinaire explorant les liens existants entre la théorie de la commande et les réseaux informatiques. L'idée consiste à appliquer les outils de l'Automatique pour la stabilisation du trafic dans les réseaux de communication. Premièrement, nous nous sommes intéressés à l'analyse de stabilité des systèmes à retards variables au travers de deux approches temporelles. D'une part, nous avons considéré la méthode de Lyapunov-Krasovskii dans laquelle nous avons élaboré des fonctionnelles en adéquation avec de nouvelles modélisations du système (segmentation du retard, dérivée temporelle). D'autre part, la stabilité a également été abordée avec une approche entrée-sortie, empruntant alors les outils de l'analyse robuste. Le système à retard est alors réécrit comme l'interconnexion d'une application linéaire avec une matrice constituée d'opérateurs définissant le système original. Après avoir revisité le principe de séparation quadratique, nous développons des opérateurs auxiliaires afin de caractériser au mieux la dynamique retardée et proposer des critères moins pessimistes. Deuxièmement, la méthodologie développée est ensuite utilisée pour le problème de contrôle de congestion d'un routeur lors de communications TCP. Ce protocole de bout en bout est sensible à la perte de paquet et modifie en conséquence son taux d'émission selon l'algorithme du AIMD. Il s'agit alors de commander le taux de perte par l'intermédiaire d'un mécanisme d'Active Queue Management situé au niveau du routeur afin de réguler le trafic. Les résultats théoriques sont ensuite évalués à l'aide du simulateur de réseaux NS-2.
242

Surveillance logicielle à base d'une communauté d'agents mobiles

Bernichi, Mâamoun 30 November 2009 (has links) (PDF)
Les agents mobiles peuvent physiquement migrer à travers un réseau informatique dans le but d'effectuer des tâches sur des machines, ayant la capacité de leur fournir un support d'exécution. Ces agents sont considérés comme composants autonomes, une propriété qui leur permet de s'adapter à des environnements dynamiques à l'échelle d'un réseau large. Ils peuvent également échanger des informations entre eux afin de collaborer au sein de leur groupe, nous parlerons ainsi d'une communauté d'agents mobiles. Nous avons développé ce concept de communauté, en se référant aux recherches et aux études précédentes pour définir un nouveau modèle comportemental d'agent mobile. Ce modèle est utilisé pour répondre aux besoins de la surveillance logicielle. Celle ci consiste à collecter des événements à partir de plusieurs sources de données (Log, événements système...) en vue de leur analyse pour pouvoir détecter des événements anormaux. Cette démarche de surveillance s'appuie sur plusieurs types d'agents mobiles issus du même modèle. Chaque type d'agent gère un domaine fonctionnel précis. L'ensemble des ces agents constitue une communauté pouvant collaborer avec différentes autres communautés lorsqu'il existe plusieurs sites à surveiller. Les résultats de cette approche nous ont permis d'évoquer les limites liées à la taille des données collectées, ce qui nous amène à de nouvelles perspectives de recherche et à penser un agent mobile "idéal". Enfin, nous nous intéressons également à l'application de la communauté d'agent mobile pour les systèmes de détection d'intrusion et la remontée d'anomalie
243

Un protocole de fiabilité basé sur un code à effacement "on-the-fly"

Tournoux, Pierre Ugo 10 November 2010 (has links) (PDF)
Le monde du protocole de transport a fortement évolué depuis la création de l'internet. On retrouve désormais une grande diversité de liens avec des caractéristiques hétérogènes en termes de débit, taux de pertes et délais. Plus récemment, le caractère ubiquitaire des périphériques sans fil a permis d'envisager un nouveau mode de transfert prenant en compte la mobilité des utilisateurs pour propager l'information dans le réseau. Ce paradigme de communication rompt définitivement avec les hypothèses de conceptions des protocoles de transport classique. Les applications qui utilisent l'internet ont également évolué. Les réseaux best effort sont maintenant utilisés pour transporter des flux à contrainte de délai tels que la voix sur IP et la vidéo conférence. Cependant, malgré ces changements importants, le principe de fiabilité utilisé n'a guère évolué et se base toujours sur des retransmissions. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une brique de fiabilité novatrice pour le support de tout type d'application sur les réseaux best effort et les challenged neworks qui font de plus en plus partie du paysage de l'internet. A cette fin, nous proposons un mécanisme de codage dénommé Tetrys. Ce code est sans rendement et ses symboles de redondance sont générés à la volée. Il permet à la fois une fiabilité totale et un délai de reconstruction quasi-optimal. Après une étude détaillée de ses propriétés, nous illustrons la généricité de ce mécanisme. Nous verrons que ses caractéristiques mènent à des contributions aussi bien sur le transport de flux de vidéo-conférence que sur le support du streaming dans les DTN ou encore la fiabilisation des handovers. De manière plus prospective, cette thèse reconsidère les hypothèses initiales du contrôle de congestion. Tetrys est utilisé comme code optimal dans le cas de réseaux dit "anarchiques" (i.e. caractérisés par une absence totale de contrôle de congestion). Nous montrons que le concept de réseau anarchi que est une alternative viable au contrôle de congestion et qu'il le remplace mÆeme avantageusement.
244

Une Nouvelle Mesure de Co-Similarité : Applications aux Données Textuelles et Génomique

Hussain, Syed Fawad 28 September 2010 (has links) (PDF)
La classification de données (ou apprentissage non-supervisé) vise à regrouper un ensemble d'observations sous la forme de classes homogènes et contrastées. Lorsque les données sont caractérisées par un grand nombre de variables, il devient nécessaire d'adapter les méthodes classiques, notamment au niveau des métriques, afin de maintenir des classes pertinentes ; ce phénomène est connu sous le nom de "malédiction de la dimension". Dans cette thèse, nous proposons une mesure de co-similarité basée sur la notion de co-occurrences d'ordre supérieur, directement extraites à partir des données. Dans le cas de l'analyse de texte, par exemple, les similarités entre documents sont calculées en prenant en compte les similarités entre mots, qui simultanément prennent en compte les similarités entre documents. Par cette approche " circulaire ", nous parvenons à mettre en correspondance des documents sans mots communs mais ayant juste des mots similaires. Cette approche s'effectue de manière purement numérique sans nécessiter de thesaurus externe. En outre, notre méthode peut également être étendue pour tirer parti de connaissances "a priori" afin de réaliser des tâches de catégorisation de textes : l'étiquette des documents est utilisée pour influencer les mesures de similarité entre les mots afin de classer de nouvelles données. Ainsi, le même cadre conceptuel, exprimable en terme de théorie des graphes, peut être utilisé à la fois pour les tâches de classification et de catégorisation en fonction de la quantité d'information initiale. Nos résultats montrent une amélioration significative de la précision, par rapport à l'état de l'art, à la fois pour le co-clustering et la catégorisation sur les jeux de données qui ont été testés.
245

Vers les applications fiables basées sur des composants dynamiques

Santos da Gama, Kiev 06 October 2011 (has links) (PDF)
Les logiciels s'orientent de plus en plus vers des architectures évolutives, capables de s'adapter facilement aux changements et d'intégrer de nouvelles fonctionnalités. Ceci est important pour plusieurs classes d'applications qui ont besoin d'évoluer sans que cela implique d'interrompre leur exécution. Des plateformes dynamiques à composants autorisent ce type d'évolution à l'exécution, en permettant aux composants d'être chargés et exécutés sans requérir le redémarrage complet de l'application en service. Toutefois, la flexibilité d'un tel mécanisme introduit de nouveaux défis qui exigent de gérer les possibles erreurs dues à des incohérences dans le processus de mise à jour, ou en raison du comportement défectueux de composants survenant pendant l'exécution de l'application. Des composants tiers dont l'origine ou la qualité sont inconnus peuvent être considérées à priori comme peu fiables, car ils peuvent potentiellement introduire des défauts d'applications lorsqu'il est combiné avec d'autres composants. Nous sommes intéressés à la réduction de l'impact de ces composants considérés comme non fiables et qui sont susceptibles de compromettre la fiabilité de l'application en cours d'exécution. Cette thèse porte sur l'application de techniques pour améliorer la fiabilité des applications dynamiques à composants. Pour cela, nous proposons l'utilisation des frontières d'isolation pouvant fournir du contingentement de fautes. Le composant ainsi isolé ne perturbe pas le reste de l'application quand il est défaillant. Une telle approche peut être vu sous trois perspectives présentées: (i) l'isolement des composants dynamiques, régi par une politique d'exécution reconfigurable, (ii) l'autoréparation de conteneurs d'isolement, et (iii) l'utilisation des aspects pour séparer les préoccupations de fiabilité à partir du code fonctionnel.
246

Modélisation de l'apparence visuelle des matériaux - Rendu Physiquement réaliste

Dumazet, Sylvain 26 February 2010 (has links) (PDF)
Placé à la frontière entre l'informatique graphique et la physique, le rendu d'image physiquement réaliste est un domaine qui tente de créer des images en simulant le comportement optique des matériaux. Les applications sont multiples : restauration virtuelle d'oeuvre du patrimoine, simulation d'effets optiques, rendu industriel pour la conception, voire même, conception assistée par ordinateur de la couleur. Cette thèse présente les travaux réalisés au cours du projet Virtuelium, un logiciel de rendu d'image physiquement réaliste dont la quatrième version a été développée dans le cadre de cette thèse. Elle en présente les principes et méthodologies utilisés pour les mesures et la validation des résultats. Nous présentons aussi plusieurs travaux réalisés durant cette thèse avec cet outil : de la restauration virtuelle à la bio-photonique sans oublier un aperçu de rendu de "matériaux à effet", pour des applications industrielles (peintures, encres, cosmétiques, etc.).
247

Représentations alternatives du détail visuel pour le rendu en temps-réel

Baboud, Lionel 12 November 2009 (has links) (PDF)
Cette thèse se place dans le cadre de la synthèse d'images en temps réel. Le problème auquel elle s'attaque est celui du rendu efficace du détail visuel, principal élément du réalisme d'une image. Pour faire face à la complexité du détail visuel, il est nécessaire de disposer de représentations adaptées à la fois aux objets que l'on cherche à rendre ainsi qu'aux capacités des processeurs graphiques actuels. Le premier axe de recherche porte sur l'utilisation du relief pour représenter et rendre efficacement du détail géométrique. La représentation compacte et structurée du relief par une carte hauteur permet la conception d'algorithmes de rendu exacts et efficaces. Nous en proposons deux~: le premier permet de rendre des reliefs dynamiques, alors que le second s'adresse aux reliefs statiques en exploitant la possibilité d'effectuer un pré-traitement sur la carte de hauteur. Nous développons aussi une réflexion sur l'utilisation du relief pour la représentation de surfaces quelconques, et présentons une application au rendu réaliste et en temps réel de volumes d'eau. Le deuxième axe de recherche se concentre sur les représentations non surfaciques, nécessaires lorsque les représentations géométriques sont inadaptées voire inexistantes. C'est le cas notamment des objets lointains ou des objets à géométrie dense, comme par exemple le feuillage d'un arbre. Le problème ici est d'être capable de représenter l'apparence d'un objet, sans recourir à un modèle géométrique. Nous proposons une méthode permettant, à partir de la seule donnée du light-field d'un objet, de déterminer les paramètres optimaux d'une représentation adaptée pour le rendu.
248

Applications of digital topology for real-time markerless motion capture

Raynal, Benjamin 07 December 2010 (has links) (PDF)
This manuscript deals with the problem of markerless motion capture. An approach to thisproblem is model-based and is divided into two steps : an initialization step in which the initialpose is estimated, and a tracking which computes the current pose of the subject using infor-mation of previous ones. Classically, the initialization step is done manually, for bidding the possibility to be used online, or requires constraining actions of the subject. We propose an automatic real-time markerless initialization step, that relies on topological information provided by skeletonization of a 3D reconstruction of the subject. This topological information is then represented as a tree, which is matched with another tree used as modeldescription, in order to identify the different parts of the subject. In order to provide such a method, we propose some contributions in both digital topology and graph theory researchfields. As our method requires real-time computation, we first focus on the speed optimization of skeletonization methods, and on the design of new fast skeletonization schemes providing good results. In order to efficiently match the tree representing the topological information with the tree describing the model, we propose new matching definitions and associated algorithms. Finally, we study how to improve the robustness of our method by the use of innovative con-straints in the model. This manuscript ends by a study of the application of our method on several data sets, demon-strating its interesting properties : fast computation, robustness, and adaptability to any kindof subjects
249

Filtering of thin objects : applications to vascular image analysis

Tankyevych, Olena 19 October 2010 (has links) (PDF)
The motivation of this work is filtering of elongated curvilinear objects in digital images. Their narrowness presents difficulties for their detection. In addition, they are prone to disconnections due to noise, image acquisition artefacts and occlusions by other objects. This work is focused on thin objects detection and linkage. For these purposes, a hybrid second-order derivative-based and morphological linear filtering method is proposed within the framework of scale-space theory. The theory of spatially-variant morphological filters is discussed and efficient algorithms are presented. From the application point of view, our work is motivated by the diagnosis, treatment planning and follow-up of vascular diseases. The first application is aimed at the assessment of arteriovenous malformations (AVM) of cerebral vasculature. The small size and the complexity of the vascular structures, coupled to noise, image acquisition artefacts, and blood signal heterogeneity make the analysis of such data a challenging task. This work is focused on cerebral angiographic image enhancement, segmentation and vascular network analysis with the final purpose to further assist the study of cerebral AVM. The second medical application concerns the processing of low dose X-ray images used in interventional radiology therapies observing insertion of guide-wires in the vascular system of patients. Such procedures are used in aneurysm treatment, tumour embolization and other clinical procedures. Due to low signal-to-noise ratio of such data, guide-wire detection is needed for their visualization and reconstruction. Here, we compare the performance of several line detection algorithms. The purpose of this work is to select a few of the most promising line detection methods for this medical application
250

Modulation sur les canaux vocodés

Chmayssani, Toufic 03 May 2010 (has links) (PDF)
Les canaux vocodés sont les canaux de communications dédiés à la voix et dans lesquels le signal traverse divers équipements destinés au transport de la voix tels que des codeurs de parole, des détecteurs d'activité vocale (VAD), des systèmes de transmission discontinue (DTX). Il peut s'agir de systèmes de communications téléphoniques filaires ou mobiles (réseaux cellulaires 2G/3G, satellites INMARSAT...) ou de voix sur IP. Les codeurs de parole dans les normes récentes pour les réseaux de téléphonie mobiles ou de voix sur IP font appel à des algorithmes de compression dérivés de la technique CELP (Code Excited Linear Prediction) qui permettent d'atteindre des débits de l'ordre de la dizaine de Kb/s bien inférieurs aux codeurs des réseaux téléphoniques filaires (typiquement 64 ou 32 Kb/s). Ces codeurs tirent leur efficacité de l'utilisation de caractéristiques spécifiques aux signaux de parole et à l'audition humaine. Aussi les signaux autres que la parole sont-ils généralement fortement distordus par ces codeurs. La transmission de données sur les canaux vocodés peut être intéressante pour des raisons liées à la grande disponibilité des canaux dédiés à la voix et pour des raisons de discrétion de la communication (sécurité). Mais le signal modulé transmis sur ces canaux vocodés est soumis aux dégradations causées par les codeurs de parole, ce qui impose des contraintes sur le type de modulation utilisé. Cette thèse a porté sur la conception et l'évaluation de modulations permettant la transmission de données sur les canaux vocodés. Deux approches de modulations ont été proposées pour des applications correspondant à des débits de transmission possibles assez différents. La principale application visée par la thèse concerne la transmission de parole chiffrée, transmission pour laquelle le signal de parole est numérisé, comprimé à bas débit par un codeur de parole puis sécurisé par un algorithme de cryptage. Pour cette application, nous nous sommes focalisés sur les réseaux de communications utilisant des codeurs CELP de débits supérieurs à la dizaine de Kb/s typiquement les canaux de communication mobiles de deuxième ou troisième génération. La première approche de modulation proposée concerne cette application. Elle consiste à utiliser des modulations numériques après optimisation de leurs paramètres de façon à prendre en compte les contraintes imposées par le canal et à permettre des débits et des performances en probabilité d'erreur compatibles avec la transmission de parole chiffrée (typiquement un débit supérieur à 1200 b/s avec un BER de l'ordre de 10-3). Nous avons montré que la modulation QPSK optimisée permet d'atteindre ces performances. Un système de synchronisation est aussi étudié et adapté aux besoins et aux contraintes du canal vocodé. Les performances atteintes par la modulation QPSK avec le système de synchronisation proposé, ainsi que la qualité de la parole sécurisée transmise ont été évalués par simulation et validés expérimentalement sur un canal GSM réel grâce à un banc de test développé dans la thèse.La deuxième approche de modulation a privilégié la robustesse du signal modulé lors de la transmission à travers un codeur de parole quelconque, même un codeur à bas débit tels que les codeurs MELP à 2400 ou 1200 b/s. Dans ce but, nous avons proposé une modulation effectuée par concaténation de segments de parole naturelle associée à une technique de démodulation qui segmente le signal reçu et identifie les segments de parole par programmation dynamique avec taux de reconnaissance élevé. Cette modulation a été évaluée par simulation sur différents codeurs de parole. Elle a aussi été testée sur des canaux GSM réels. Les résultats obtenus montrent une probabilité d'erreur très faible quelque soit le canal vocodé et le débit des codeurs de parole utilisés mais pour des débits possibles relativement faibles. Les applications envisageables sont restreintes à des débits typiquement inférieurs à 200 b/s.Enfin nous nous sommes intéressés aux détecteurs d'activité vocale dont l'effet peut-être très dommageable pour les signaux de données. Nous avons proposé une méthode permettant de contrer les VAD utilisés dans les réseaux GSM. Son principe consiste à rompre la stationnarité du spectre du signal modulé, stationnarité sur laquelle s'appuie le VAD pour décider que le signal n'est pas de la parole

Page generated in 0.061 seconds