• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Conception d'architectures embarquées : des décodeurs LDPC aux systèmes sur puce reconfigurables

Verdier, François 05 December 2006 (has links) (PDF)
Les travaux de recherche dont la synthèse est présentée dans ce document portent sur deux aspects de la conception d'architectures numériques embarquées pour des applications de traitement de l'information. Le premier axe concerne l'étude et la conception de modèles architecturaux pour les décodeurs de canal utilisés dans les communications numériques. Les décodeurs étudiés sont basés sur les codes LDPC (Low Density Parity Check codes) qui, depuis quelques années, sont proposés comme codes correcteurs d'erreurs dans plusieurs normes de transmission. On s'intéresse en particulier à la norme DVB-S2 de radio-diffusion de programmes multimédia. Ces architectures de décodeurs mettent en oeuvre des algorithmes dont les réalisations matérielles reposent sur une adéquation fine entre le taux de parallélisme, l'ordonnancement des calculs et les quantités de ressources nécessaires. Une étude sur la réduction de complexité des algorithmes de décodage LDPC non binaires, préalable à la définition d'une architecture associée est également présentée. Le deuxième axe de recherche étend la problématique aux architectures très fortement intégrées, de type SoC (systèmes sur puces), et qui disposent de capacités de flexibilité, d'adaptabilité et de reconfiguration matérielle dynamique. La présence d'un système d'exploitation temps-réel embarqué devient alors nécessaire pour gérer de telles architectures et rend inadaptées les méthodes classiques de conception. Le deuxième axe des travaux porte sur de nouvelles méthodologies d'exploration et de conception d'architectures reconfigurable. Le cas de la modélisation des systèmes d'exploitation embarqués est abordé ainsi que le cas de la conception des applications et plates-formes pour la radio-logicielle.
652

Spécification et réalisation d'un formalisme générique pour la segmentation multiple de documents textuels multilingues

Quint, Julien 18 November 2002 (has links) (PDF)
Le problème de la segmentation en mots, ou itémisation, est souvent considéré comme trivial grâce à la présence de séparateurs dans l'écriture. L'essor de l'Internet et surtout du Web a rendu disponibles des millions de documents dans une multitude de langues et généré un intérêt pour les applications multilingues, qui ont rapidement montré les limites des approches simplistes en vigueur jusqu'à présent. L'étude, d'une part, des systèmes d'analyse morphologiques (en particulier les formalismes fondés sur les états finis), et d'autre part, des applications spécialisées pour l'itémisation dans différentes langues réputées difficiles (japonais, chinois, thaï) mène à des observations contrastées. La notion même de mot, et donc le processus d'itémisation, varie grandement d'une langue à l'autre ; et s'il n'existe pas de méthode générique, surtout en l'absence de séparateurs entre les mots, des approches similaires sont employées par différents systèmes pour différentes langues. On propose de se placer au dessus de l'itémisation et de parler de segmentation de texte en général. On introduit un langage spécialisé pour la segmentation nommé Sumo (Segmentation Universelle Multiple par Ordinateur) dont la principale caractéristique est d'offrir une séparation claire entre le processus de segmentation et la ou les langues considérées. On a donc d'une part une structure de donnée dédiée, qui représente un document simultanément à différents niveaux de segmentation (en mots, en phrases, etc.) À chaque niveau correspond un graphe d'items, les unités de segmentation à ce niveau. Cette structure à étages est fondée sur les automates d'états finis pondérés. D'autre part, on définit une algèbre pour la manipulation de ces structures, comme il en existe une pour la manipulation d'automates d'états finis. En plus de cette algèbre, on dispose également d'un langage de contrôle permettant de construire des applications de segmentation sophistiquées. Un prototype expérimental de calcul à états finis pondéré réalisé en Perl est présenté, et la réalisation d'un système complet, efficace et robuste est discuté. Les applications actuelles et potentielles de Sumo sont présentées, ainsi que les perspectives de développements à venir.
653

Développement et mise en oeuvre de modèles d'attention visuelle

Ho Phuoc, Tien 06 May 2010 (has links) (PDF)
Pour explorer le monde qui nous entoure nous bougeons sans cesse les yeux alternant entre des mouvements rapides ``les saccades'' et des moments d'immobilisation ``les fixations''. Quels sont les facteurs guidant ces mouvements oculaires? Comment les interpréter et les évaluer quantitativement? Cette thèse aborde ces questions lors de l'exploration libre de scènes naturelles, sous deux aspects: la modélisation et le recueil de données comportementales avec des enregistrements oculométriques. Le modèle proposé s'inspire fortement de la biologie et propose de prédire les régions dites saillantes (qui attirent les yeux) en utilisant un certain nombre de caractéristiques visuelles de bas niveaux, selon une démarche de traitement ascendante (``bottom-up'') compatible avec le contexte choisi d'exploration libre des scènes naturelles. Bien qu'il s'agisse de l'exploration de scènes statiques, un modèle dynamique spatio-temporel est également proposé considérant les séquences temporelles alternant les phases de stabilisation durant les fixations et les phases de déplacement durant les saccades. Les données comportementales et les données physiologiques ont permis l'établissement du modèle, ses évolutions et améliorations successives, puis sa validation. Ainsi, nous montrons que bien que la couleur soit présente partout et apparaisse dans plusieurs modèles de la littérature, celle-ci influence peu les mouvements oculaires des sujets. De même nous montrons que programmer plusieurs saccades en parallèle à partir d'un point de fixation comme cela a été montré dans des expériences de recherche de cible n'est pas compatible avec les données comportementales. Cette thèse propose aussi de nombreux outils méthodologiques pour comparer des données comportementales à des données issues d'un modèle et propose également une manière de tester l'importance relative de plusieurs caractéristiques visuelles de bas niveau sur la prédiction des mouvements oculaires.
654

Politique de Liaison aux Services Intermittents dirigée par les Accords de Niveau de Service

Touseau, Lionel 25 May 2010 (has links) (PDF)
L'informatique s'est récemment développée autour de deux axes : l'informatique ambiante d'une part avec la multiplication des objets communicants, et l'internet des services d'autre part suite à l'essor parallèle des centres de traitement de données et d'Internet. Dans ces domaines, la disponibilité fluctuante des ressources, qui entraîne une intermittence des services fournis, représente désormais une préoccupation majeure dans la conception d'applications. La programmation orientée composants appliquée aux architectures orientées service simplifie la gestion des liaisons de service via des politiques. Néanmoins les politiques de liaison existantes suivent soit une approche statique interdisant alors toute reconfiguration d'architecture en cours d'exécution, soit une approche dynamique ne garantissant pas une stabilité minimale de l'architecture dans le cas de services intermittents. Cette thèse propose un compromis entre stabilité architecturale et dynamisme en plaçant l'interruption de service au centre des préoccupations du concepteur. La politique de liaison résultante offre ainsi une tolérance aux interruptions de service jusqu'à une certaine limite au-delà de laquelle l'architecture est reconfigurée dynamiquement. Afin de situer cette limite, notre proposition se base sur l'utilisation d'accords de niveau de service, une forme enrichie des contrats de service permettant, entre autres, l'expression de contraintes sur la disponibilité des services. L'approche a été expérimentée sur la plate-forme à services OSGi en étendant les mécanismes de gestion des liaisons du modèle à composants iPOJO, puis validée dans le contexte de l'informatique ambiante ainsi que sur le serveur d'applications JOnAS.
655

Object Identification and Aspect Mining in Procedural Object-Oriented Code

Bhatti, Muhammad Usman 16 February 2009 (has links) (PDF)
In this dissertation, we present Procedural Object-Oriented Code (POC). POC is the aftermath of the software development activity that involves state of the art object-oriented languages, without employing object-oriented analysis and design. Huge classes, absence of abstractions for domain entities, and shallow inheritance hierarchies are hallmark design defects of procedural object-oriented code. POC also consists of scattered code appearing not only due to the absence of aspects, but it also manifests scattered code appearing due to the non-abstracted domain enti- ties i.e., domain entities that do not have their proper object-oriented classes. The non-abstracted domain logic hinders mining useful crosscutting concerns related to aspects in POC. Confronted with the absence of object-oriented design and the difficulty of mining aspects in POC, we studied it from two perspectives. First, we improve aspect mining techniques by classifying various crosscutting concerns identified in POC with a two-pronged approach: Firstly, the approach identifies and groups crosscutting concerns present in a software system: aspects as well as non-abstracted domain logic. Crosscutting concerns pertaining to non- abstracted domain entities are identified and extracted through their usage of appli- cation domain entity data. Secondly, a new metric called spread-out is introduced to quantify the divulgence of diverse crosscutting concerns. Second, we studied the problem of object identification in procedural object- oriented code. We present a semi-automatic, tool-assisted approach for restructuring POC into an improved object-oriented design. The approach identifies principal classes in POC. These principal classes are then used to extract object-oriented abstractions using Formal Concept Analysis lattices. This is achieved by providing three different concept lattices, namely fundamental, association, and interactions views. We developed tools to validate the approaches presented in the thesis. The approaches are validated on a recently developed industrial application. The appli- cation is used to run blood plasma analysis automatons. The results of our approach are promising.
656

Architectures pour la mobilité et la qualité de service dans les systèmes satellites DVB-S2/RCS

Jacquemin, Baptiste 24 June 2010 (has links) (PDF)
Nos travaux de thèse ont pour objectif la conception, la mise en Suvre et l'évaluation d'architectures pour la mobilité et la qualité de service (QoS) dans des systèmes satellites DVB-S2/RCS. Ces systèmes peuvent constituer une solution alternative efficace aux réseaux terrestres dans des zones reculées à faible densité de population mais ils doivent pour cela offrir les mêmes services tout en tenant compte de leurs caractéristiques spécifiques, en particulier leur long délai de transmission qui peut s'avérer problématique dans le cadre d'applications multimédias interactives. Notre première contribution a donc été de développer une architecture de QoS adaptée à ce type d'applications, utilisant le modèle DiffServ et se basant essentiellement sur l'interaction entre l'architecture liée au protocole d'initiation de session SIP et différentes entités du système satellite. La QoS peut alors être configurée de façon précise au niveau des STs, par le biais de l'outil TC, en analysant les descripteurs de session SDP compris dans les messages SIP et en déduisant leurs caractéristiques (débit, gigue max, délai max, etc...) soit localement si elles sont connues, soit à partir d'un service Web que nous avons développé. Nous avons ensuite proposé et développé une solution de mobilité basée sur SIP, adaptée au système satellite ainsi qu'à la solution de QoS précédemment décrite. Les performances de cette solution ont alors été comparées, en termes de temps d'interruption et de consommation de ressources, avec celles obtenues par Mobile IPv6 et certaines de ses extensions, démontrant ainsi de réelles améliorations pour le cas des applications multimédias interactives. Enfin, notre dernière contribution a été de développer deux architectures couplant QoS et mobilité, une spécifiquement conçue pour les applications interactives et basée sur la combinaison de notre solution de mobilité SIP avec notre architecture de QoS SIP et une autre basée sur Mobile IPv6 ou FMI Pv6 et sur l'interaction d'un QoS Agent mobile avec les entités de QoS du système satellite. Ces architectures ont été évaluées et comparées sur la plateforme d'émulation PLATINE développée dans le cadre du projet SATSIX.
657

Vérification des programmes logiques.

Craciunescu, Sorin 24 March 2004 (has links) (PDF)
Le but de ce travail est de proposer un système formel pour prouver que l'ensemble des succès d'un programme logique est inclus dans l'ensemble correspondant d'un autre programme. Cela permet de prouver que deux programmes logiques, un qui représente la spécification et un représentant l'implantation sont équivalents. Le langage logique considéré est CLPforall qui est le langage le langage de programmation logique avec contraintes (CLP) auquel est ajouté le quantificateur universel. Nous présentons les sémantiques des succès finis et infinis et montrons qu'elles sont données par le plus petit et le plus grand point fixe du même opérateur. Un système de preuve pour l'inclusion des succès finis est présenté. Le système utilise pour les opérateurs et les quantificateurs logiques les mêmes règles que la logique du premier ordre. Pour raisonner sur les prédicats récursifs le système contient une règle d'induction. Nous prouvons la correction du système sous certains conditions. Un système analogue pour l'inclusion des succès infinis est présenté. La règle d'induction est remplacée par une règle de coinduction. La correction est démontrée sous conditions analogues. Les deux systèmes sont équivalents sous certains conditions. Une implantation a été réalisée sous la forme d'assistant de preuve écrit en Prolog. Le programme a environ 4000 lignes et contient des procédures simples mais efficaces de recherche de preuves. Nous présentons des exemples de preuves réalises avec ce programme parmi lesquels la preuve de correction de quicksort.
658

Sécurité et efficacité des schémas cryptographiques.

Phan, Duong Hieu 16 September 2005 (has links) (PDF)
La sécurité prouvée est une branche relativement jeune de la cryptologie dont l'objectif est d'analyser formellement le but ultime des schémas cryptographiques: la sécurité. Elle ne cherche pas à atteindre la sécurité absolue mais plutôt à identifier les conditions suffisantes, au sens de la théorie de la complexité, pour garantir la sécurité. La sécurité prouvée est en étroite relation avec les trois principaux mouvements de la cryptographie: la formalisation des notions de sécurité; la construction des schémas formellement prouvés sûrs et la recherche de nouvelles fonctionnalités pour la cryptographie. Dans cette thèse, nous abordons dans un premier temps l'analyse des notions de sécurité, à la fois pour le chiffrement asymétrique et pour le chiffrement symétrique. D'une part, nous étudions en détails les modèles d'attaque et les relations entre eux pour le chiffrement asymétrique. D'autre part, pour le chiffrement par bloc, nous mettons en évidence la relation entre la notion traditionnelle du chiffrement par bloc, i.e. permutation (super) pseudo–aléatoire, et avec la notion de base de la confidentialité, i.e. sécurité sémantique. Dans un deuxième temps, nous proposons de nouveaux schémas efficaces et prouvés sûrs pour la cryptographie asymétrique dans le modèle de l'oracle aléatoire (de nouveaux paddings pour le chiffrement et des paddings universels pour le chiffrement et la signature). Nous présentons, de plus, une nouvelle catégorie de schémas prouvés sûrs: les schémas de chiffrement sans redondance. Jusqu'à présent, la redondance était nécessaire pour prouver la sécurité. Nous proposons, dans la troisième partie, une nouvelle fonctionnalité du traçage de pirates pour la diffusion des données chiffrées: la traçabilité publique. Nous présentons aussi un schéma satisfaisant cette propriété. Ce schéma est ensuite généralisé à un schéma quasi optimal selon le critère du taux entre de la taille des données chiffrés et celle des données originelles.
659

Interestingness Measures for Association Rules in a KDD Process : PostProcessing of Rules with ARQAT Tool

Huynh, Xuan-Hiep 07 December 2006 (has links) (PDF)
This work takes place in the framework of Knowledge Discovery in Databases (KDD), often called "Data Mining". This domain is both a main research topic and an application ¯eld in companies. KDD aims at discovering previously unknown and useful knowledge in large databases. In the last decade many researches have been published about association rules, which are frequently used in data mining. Association rules, which are implicative tendencies in data, have the advantage to be an unsupervised model. But, in counter part, they often deliver a large number of rules. As a consequence, a postprocessing task is required by the user to help him understand the results. One way to reduce the number of rules - to validate or to select the most interesting ones - is to use interestingness measures adapted to both his/her goals and the dataset studied. Selecting the right interestingness measures is an open problem in KDD. A lot of measures have been proposed to extract the knowledge from large databases and many authors have introduced the interestingness properties for selecting a suitable measure for a given application. Some measures are adequate for some applications but the others are not. In our thesis, we propose to study the set of interestingness measure available in the literature, in order to evaluate their behavior according to the nature of data and the preferences of the user. The ¯nal objective is to guide the user's choice towards the measures best adapted to its needs and in ¯ne to select the most interesting rules. For this purpose, we propose a new approach implemented in a new tool, ARQAT (Association Rule Quality Analysis Tool), in order to facilitate the analysis of the behavior about 40 interest- ingness measures. In addition to elementary statistics, the tool allows a thorough analysis of the correlations between measures using correlation graphs based on the coe±cients suggested by Pear- son, Spearman and Kendall. These graphs are also used to identify the clusters of similar measures. Moreover, we proposed a series of comparative studies on the correlations between interestingness measures on several datasets. We discovered a set of correlations not very sensitive to the nature of the data used, and which we called stable correlations. Finally, 14 graphical and complementary views structured on 5 levels of analysis: ruleset anal- ysis, correlation and clustering analysis, most interesting rules analysis, sensitivity analysis, and comparative analysis are illustrated in order to show the interest of both the exploratory approach and the use of complementary views.
660

Contribution à l'analyse de testabilité des systèmes réactifs temps-réel : Aide à la validation et à la vérification de systèmes

Doumbia, Fassely 02 March 2010 (has links) (PDF)
Les phases de validation et de vérification (V&V) des systèmes réactifs temps réel critique (de plus en plus complexes) sont très importantes en termes de coût et de temps. Dans ce contexte, toute méthode et outil permettant d'aider à la réalisation des activités de V&V est d'une très grande importance au cours du développement. Le test fonctionnel est le moyen le plus utilisé au cours de ces phases de V&V. Or, les méthodes de test présentent des limites : un test exhaustif est quasiment impossible à réaliser en raison de la taille et de la complexité des systèmes considérés. Dans ce contexte, les enjeux de la maîtrise de l'effort de test (complexité et coût) sont majeurs, mais les exigences de qualité pour ces systèmes sont très grandes. L'effort de test caractérise tout autant l'élaboration des jeux de test que le diagnostic. Dans cette optique, nous avons défini deux méthodologies basées sur les concepts d'analyse de testabilité et les stratégies de test. La première méthodologie permet d'aider à la définition de jeux de test pertinents et à l'analyse de couverture des systèmes réactifs spécifiés dans un formalisme flot de données SCADE dans le contexte AIRBUS. La seconde propose des méthodes d'aide à la vérification (identification de tests pertinents et localisation de composants défectueux au cours diagnostic) de systèmes sur la chaîne d'assemblage finale (FAL) d'un avion AIRBUS.

Page generated in 0.0495 seconds