• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 32
  • 1
  • 1
  • Tagged with
  • 125
  • 125
  • 125
  • 125
  • 16
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Graphes linguistiques multiniveau pour l'extraction de connaissances : l'exemple des collocations

Archer, Vincent 24 September 2009 (has links) (PDF)
Pour modéliser au mieux les phénomènes linguistiques dans les systèmes de traitement automatique des langues (traduction, analyse, etc.), il faut disposer de ressources de qualité. Or, les ressources existantes sont souvent incomplètes et ne permettent pas de traiter correctement les données. Cette thèse s'intéresse à l'acquisition de connaissances linguistiques, plus précisément à leur extraction à partir de corpus. Nous étudions en particulier le problème des collocations, ces couples de termes dont l'un est choisi en fonction de l'autre pour exprimer un sens particulier (comme " pluie battante " où " pluie " exprime l'intensification). Pour permettre l'acquisition de données à grande échelle, il faut la rendre facile à réaliser de manière automatique, et simple à paramétrer par des linguistes aux connaissances limitées en programmation ; cela nécessite une modélisation adaptée et précise des données et des processus. Nous avons réalisé et décrivons MuLLinG, modèle de graphes linguistiques multiniveau, où chaque niveau représente l'information d'une manière différente,et les opérations de manipulation de ces graphes. Ce modèle permet de représenter et traiter divers types de ressources. En effet, les opérations associées ont été écrites pour être les plus génériques possibles : elles sont indépendantes de ce que peuvent représenter les nœuds et les arcs du graphe, et de la tâche à réaliser. Cela permet à notre modèle, mis en œuvre et utilisé pour plusieurs expérimentations (entre autres l'extraction de collocations), de voir un processus parfois complexe d'extraction de connaissances linguistiques comme une succession d'opérations simples de manipulation de graphes.
32

Méthodes combinatoires de reconstruction de réseaux phylogénétiques

Gambette, Philippe 30 November 2010 (has links) (PDF)
Les réseaux phylogénétiques généralisent le modèle de l'arbre pour décrire l'évolution, en permettant à des arêtes entre les branches de l'arbre d'exprimer des échanges de matériel génétique entre espèces coexistantes. De nombreuses approches combinatoires - fondées sur la manipulation d'ensembles finis d'objets mathématiques - ont été conçues pour reconstruire ces réseaux à partir de données extraites de plusieurs arbres de gènes contradictoires. Elles se divisent en plusieurs catégories selon le type de données en entrée (triplets, quadruplets, clades ou bipartitions) et les restrictions de structure sur les réseaux reconstruits. Nous analysons en particulier la structure d'une classe de réseaux restreints, les réseaux de niveau k, et adaptons ce paramètre de niveau au contexte non enraciné. Nous donnons aussi de nouvelles méthodes combinatoires pour reconstruire des réseaux phylogénétiques, à partir de clades - méthode implémentée dans le logiciel Dendroscope - ou de quadruplets. Nous étudions les limites de ces méthodes combinatoires (explosion de complexité, bruit et silence dans les données, ambiguïté des réseaux reconstruits) et la façon de les prendre en compte, en particulier par un pré-traitement des données. Finalement, nous illustrons les résultats de ces méthodes de reconstruction sur des données réelles avant de conclure sur leur utilisation dans une méthodologie globale qui intègre des aspects statistiques
33

Modélisation flux de données et optimisation pour architecture multi-cœurs de motifs répétitifs

Piat, Jonathan 16 September 2010 (has links) (PDF)
Face au défi que représente la programmation des architectures multi-cœurs/processeurs, il est devenu nécessaire de proposer aux développeurs des outils adaptés permettant d'abstraire les notions inhérentes au parallélisme et facilitant le portage d'une application sur différentes architectures. La méthodologie AAA (Adéquation Algorithme Architecture) propose au développeur d'automatiser les étapes de partitionnement, ordonnancement à partir d'une description haut niveau de l'application et de l'architecture. Cette méthodologie permet donc le prototypage rapide d'une application sur différentes architectures avec un minimum d'effort et un résultat approchant l'optimal. Les apports de cette thèse se situent à la fois au niveau du modèle de spécification et de ses optimisations relatives au contexte des architectures parallèles. Le modèle flux de données répond aux problèmes de modélisation des applications fortement synchronisées par les données. Le sous-ensemble SDF (Synchronous Data Flow), limite l'expressivité du modèle mais apporte un complément d'information permettant une optimisation efficace et garantissant l'intégrité du calcul dans tous les contextes. Les travaux développés dans ce mémoire introduisent un nouveau modèle de hiérarchie dans SDF afin d'améliorer l'expressivité tout en préservant les propriétés du modèle initial. Ce modèle basé sur des interfaces, permet une approche plus naturelle pour le développeur accoutumé au langage C. Ce nouveau modèle apportant un complément d'information, nous proposons également un ensemble de traitement améliorant la prise en charge des motifs de répétition imbriqués. En effet le modèle de hiérarchie introduit en première partie permet la spécification de motifs dit de " nids de boucles " pouvant masquer le parallélisme potentiel. Il est donc nécessaire d'associer au modèle des traitements permettant de révéler ce parallélisme tout en préservant l'aspect factorisé du calcul. Les méthodes présentées sont adaptées du contexte des compilateurs pour supercalculateurs et de l'univers des réseaux systoliques.
34

On building and comparing trees <br />Application to supertrees in phylogenetics

Berry, Vincent 08 December 2008 (has links) (PDF)
The research work presented in this manuscript is of algorithmic kind: it is mainly composed of polynomial, fixed parameter and approximation algorithms, while hardness results are also mentioned.<br /> <br />This work is about building and comparing labelled trees. These objects find application in different areas, but notoriously in phylogenetics, where they represent evolutionary relationships of organisms or sequences.<br /><br />Most of this work can be considered as investigating solutions to so-called \emph{supertree} problems. Supertrees are large trees built by a dynamic programming approach from smaller trees. For instance, the latter are gene trees from which a comprehensive tree on many living species is to be built, such as the \emph{Tree of Life}. <br /><br />First definitions are introduced, then a part of the manuscript is dedicated to quartet tree building methods. The next part details tree comparison methods, mainly variants of the maximum agreement subtree method. Next follows a part on supertree problems in all generality. <br />The manuscript ends with a report of the research plan for the next few years. <br /><br />Several journal papers illustrating the material described in this manuscript are adjoined in appendix.
35

Optimisation du Handover dans le protocole IPv6 mobile avec la méthode E-HCF

Wei, Guozhi 15 February 2008 (has links) (PDF)
Les réseaux sans fil sont en plein développement du fait de la flexibilité de leur interface, qui permet aux utilisateurs de se communiquer directement entre eux ou de se connecter facilement à Internet en onde radio sans mettre en place préalablement d'infrastructures lourdes, telles que des câbles filaires. Parmi les différentes technologies de réseaux sans fil, l'IEEE 802.11/Wi-Fi est devenu une technologie plus connue et plus utilisée pour construire des réseaux sans fil à haut débit dans une zone à forte concentration d'utilisateurs, telle que les aéroports, les campus ou les sites industriels. L'engouement pour les réseaux sans fil et notamment pour les réseaux Wi-Fi a fait émerger de nouvelles nécessités, tel que se déplace dans les réseaux sans fil tout en restant connecté à Internet. Dans les réseaux sans fil, le déplacement d'un utilisateur implique parfois un changement de Point d'accès (AP) au réseau. On désigne généralement ce fait un handover de niveau 2, du fait que le changement d'AP n'implique que les deux premières couches du modèle OSI. Si les deux APs se situent dans des réseaux différents, le changement d'AP implique aussi le changement de réseau pour cet utilisateur. On dénomme généralement cette situation un handover de niveau 3, par le fait que cet utilisateur devrait changer son réseau d'attachement et son adresse IP pour maintenir la connexion à Internet et que ce changement intervient sur la couche réseau du model OSI. La procédure du handover de niveau 2 dans les réseaux Wi-Fi est gérée par la norme IEEE 802.11 et celle de niveau 3 est gérée par le protocole IP Mobile. Le protocole IP Mobile est un protocole standardisé par l'IETF qui permet à l'utilisateur de maintenir ses communications en cours et de rester connecté à Internet tout en masquant d'une manière transparente le changement de réseau. Ainsi, l'utilisateur peut se déplace dans les réseaux Wi-Fi tout en maintenant les communications en cours et restant connecté à Internet grâce à la norme IEEE 802.11 et au protocole IP Mobile. Cependant, le délai introduit par ces deux procédures du handover est trop long, les communications en cours sont interrompus pendant ces procédures, naturellement, cela ne peut pas répondre aux exigences qualitatives des applications temps réel comme la vidéo conférence ou la voix sur IP. Diverses propositions qui ont été faites pour réduire le délai de ces procédures du handover et améliorer leur performance. Cependant, ces propositions sont soit imparfaites, soit non-implémentables à cause de leur complexité. En partant du principe que les réseaux Wi-Fi et les routeurs d'accès sont déjà massivement implantés dans le monde universitaire et dans les entreprises, nous proposons d'ajouter une nouvelle fonctionnalité, appelé E-HCF (Extended Handover Control Function) dans un routeur sans modifier les autres équipements du réseau. Le routeur pourvu de cette fonctionnalité est dénommé le routeur E-HCF. Pour réduire le délai des procédures du handover, la fonctionnalité E-HCF permet au routeur de générer une topologie des APs en utilisant la théorie des graphes de voisinage et de maintenir un pool d'adresses IP disponibles dans sa base de données. Quand le Nœud mobile (MN) a besoin de changer son AP, le routeur E-HCF peut proposer au MN une liste des APs potentiellement utilisables qui sont choisis et classés par un algorithme de sélection et de classement que nous avons élaboré dans la thèse. Si le changement d'AP implique un changement de réseau, le MN doit changer d'adresse IP. Dans ce cas, le routeur E-HCF peut attribuer une adresse IP unique à ce MN. Le MN peut donc utiliser cette adresse sans exécuter la phase d'Auto-configuration d'adresses ni exécuter la procédure de Détection d'adresse dupliquée. Avec cette nouvelle fonctionnalité E-HCF, nous pouvons réduire le délai des procédures du handover de quelques secondes à une centaine de millisecondes. Pour réduire la perte de paquets due aux procédures du handover, nous proposons de modifier le protocole IPv6 Mobile. Le MN met fin à l'association entre son adresse mère et son adresse temporaire avec l'Agent mère (HA) et le Nœud correspondant (CN) avant de procéder la procédure du handover. Par ce moyen, le HA peut intercepter les paquets destinés à l'adresse mère du MN et les garder dans son mémoire tampon. Une fois le MN met à jour l'association entre son adresse mère et sa nouvelle adresse temporaire avec le HA, le HA peut envoyer les paquets stockés dans son mémoire de tampon au MN. Il intercepte et redirige également les paquets du CN ou du MN vers la nouvelle adresse temporaire du MN ou vers les adresses du CN respectivement pendant la phase de mise à jour d'association. Avec cette méthode, nous pouvons limiter la perte de paquets et garantir un délai acceptable. Pour étayer notre proposition, nous avons utilisé le simulateur OPNET pour simuler le déroulement des procédures du handover dans les réseaux Wi-Fi géré par la méthode E-HCF et celui géré par le protocole IPv6 Mobile. Les résultats obtenus montrent qu'avec notre méthode E-HCF, nous pouvons garantir un délai acceptable et limiter la perte des paquets. Ensuite, nous avons également validé notre méthode E-HCF avec la norme IEEE 802.11e qui supporte la Qualité de Service (QoS). Avec le support de QoS, les résultats obtenus par simulation illustrent les améliorations des performances significatives pour les communications de bout en bout dans les réseaux chargés. Nos travaux de recherche ont donné lieu à trois publications dans les conférences internationales et un article dans la revue internationale (Voir Index)
36

Robustesse du logiciel embarqué multicouche par une approche réflexive: application à l'automobile

Lu, Caroline 14 December 2009 (has links) (PDF)
Les mécanismes de détection et de recouvrement d'erreur doivent être soigneusement sélectionnés pour les applications embarquées automobiles, principalement à cause de ressources limitées et de contraintes économiques. Cependant, des exigences de sûreté importantes, aggravées par la complexité croissante du logiciel, motive l'industrie automobile à chercher des solutions techniques pour améliorer la robustesse à l'exécution. Le défi est de concevoir une solution de tolérance aux fautes portable, flexible, à forte contraintes économique, en examinant différemment les techniques classiques de redondance et de diversification. Le principe directeur est de contrôler rigoureusement quelle information et quand elle est essentielle à récupérer; quelle instrumentation est nécessaire pour réaliser de la tolérance aux fautes et où il faut la placer dans le programme. La thèse propose une approche pour développer un logiciel de défense, tel un composant externe configurable, reposant sur l'observabilité et la contrôlabilité de mécanismes fournis par un standard d'architecture logicielle automobile émergent AUTOSAR.
37

Sécurités (immunité et innocuité) des architectures ouvertes à niveaux de criticité multiples : application en avionique

Laarouchi, Youssef 30 November 2009 (has links) (PDF)
La conception et le développement des applications critiques en avionique sont soumis à des contraintes strictes visant à assurer un niveau de confiance compatible avec les exigences de sécurité-innocuité (au sens safety) des tâches mises en Suvre. Ces contraintes induisent un accroissement considérable des coûts de production et de maintenance, ce qui rend le prix de revient de tels systèmes prohibitif. D'un autre côté, les composants sur étagère (Commercial Off-The-Shelf, COTS), matériels et logiciels, sont maintenant d'usage courant et offrent des services étendus pour un coût faible. Cependant, les COTS ne répondent pas aux contraintes d'innocuité exigées pour les tâches critiques ; de plus, ils présentent des vulnérabilités facilement exploitables par des attaques, les rendant incompatibles avec des exigences élevées de sécurité-immunité (au sens security). Il serait toutefois intéressant de profiter de tels composants dans un contexte avionique, mais en faisant en sorte qu'ils ne puissent affecter de façon préjudiciable les tâches critiques. Intégrer de tels composants dans les systèmes avioniques conduit donc à prendre en considération l'hétérogénéité des niveaux de confiance entre d'une part les applications critiques classiques, et d'autre part de nouvelles applications utilisant des composants sur étagère. Dans le cadre de cette thèse, nous proposons une architecture autorisant de telles interactions tout en préservant les propriétés de safety et security. La définition de cette architecture s'appuie sur le modèle Totel, et elle utilise la virtualisation afin de faciliter la mise en Suvre des mécanismes de tolérance aux fautes destinés à augmenter la crédibilité d'une application exécutée de façon répliquée sur des plateformes d'exécution COTS de niveau de confiance faible. Afin de valider notre approche, nous avons réalisé un prototype en nous appuyant sur deux cas d'étude identifiés avec Airbus et concernant tous deux des ordinateurs portables : un dédié à la maintenance et un au calcul du profil de décollage d'un avion.
38

Système de Recommendation basé sur Traits de Personnalité

Silveira Netto Nunes, Maria Augusta 12 December 2008 (has links) (PDF)
Internet est une source énorme de produits et services disponibles pour les utilisateurs. Il existe un grand effort de la part des chercheurs pour créer des stratégies destinées à personnaliser ces produits/services pour chaque utilisateur. Cette personnalisation peut être fournie par les Systèmes de Recommandation capables de répertorier les préférences des utilisateurs avec des produits ou services spécifiques. Les chercheurs dans la cadre de la psychologie, de la neurologie et de l'informatique affective sont accord pour affirmer que le raisonnement humain et la prise de décision dans les systèmes informatiques sont difficilement affectées par les aspects psychologiques. Ainsi, pour maintenir le même niveau de personnalisation assuré par les humains, les ordinateurs devraient " raisonner " de la même façon, en prenant en compte les aspects psychologiques des utilisateurs. Néanmoins, ces aspects psychologiques ne sont malheureusement pas considérés dans la plupart des modèles de Profils d'Utilisateurs utilisés dans les Systèmes de Recommandation. Par conséquent, les Systèmes de Recommandation existants n'utilisent pas les caractéristiques psychologiques comme les traits de Personnalité au cours du procédé de prise de décisions caractéristiques. Dans cette thèse, nous proposons d'implanter des traits de Personnalité dans les Profils d'utilisateurs dans le but d'être capable d'obtenir quelques éléments sur l'utilisation de ces aspects psychologiques dans les Systèmes de Recommandation peuvent être cohérents et efficaces.
39

Test et évalutation de la robustesse de la couche fonctionnelle d'un robot autonome.

Chu, Hoang-Nam 01 September 2011 (has links) (PDF)
La mise en oeuvre de systèmes autonomes nécessite le développement et l'utilisation d'architectures logicielles multi-couches qui soient adaptées. Typiquement, une couche fonctionnelle renferme des modules en charge de commander les éléments matériels du système et de fournir des services élémentaires. Pour être robuste, la couche fonctionnelle doit être dotée de mécanismes de protection vis-à-vis de requêtes erronées ou inopportunes issues de la couche supérieure. Nous présentons une méthodologie pour tester la robustesse de ces mécanismes. Nous définissons un cadre général pour évaluer la robustesse d'une couche fonctionnelle par la caractérisation de son comportement vis-à-vis de requêtes inopportunes. Nous proposons également un environnement de validation basé sur l'injection de fautes dans le logiciel de commande d'un robot simulé. Un grand nombre de cas de tests est généré automatiquement par la mutation d'une séquence de requêtes valides. Les statistiques descriptives des comportements en présence de requêtes inopportunes sont analysées afin d'évaluer la robustesse du système sous test.
40

Un environnement de spécification et de découverte pour la réutilisation des composants logiciels dans le développement des logiciels distribués

Khemakhem, Sofien 08 July 2011 (has links) (PDF)
Notre travail vise à élaborer une solution efficace pour la découverte et la réutilisation des composants logiciels dans les environnements de développement existants et couramment utilisés. Nous proposons une ontologie pour décrire et découvrir des composants logiciels élémentaires. La description couvre à la fois les propriétés fonctionnelles et les propriétés non fonctionnelles des composants logiciels exprimées comme des paramètres de QoS. Notre processus de recherche est basé sur la fonction qui calcule la distance sémantique entre la signature d'un composant et la signature d'une requête donnée, réalisant ainsi une comparaison judicieuse. Nous employons également la notion de " subsumption " pour comparer l'entrée-sortie de la requête et des composants. Après sélection des composants adéquats, les propriétés non fonctionnelles sont employées comme un facteur distinctif pour raffiner le résultat de publication des composants résultats. Nous proposons une approche de découverte des composants composite si aucun composant élémentaire n'est trouvé, cette approche basée sur l'ontologie commune. Pour intégrer le composant résultat dans le projet en cours de développement, nous avons développé l'ontologie d'intégration et les deux services "input/output convertor" et "output Matching".

Page generated in 0.0766 seconds