• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Agrégation de classifieurs et d'experts pour la recherche d'homologues chez les cytokines à quatre hélices alpha

Beaume, Nicolas 27 June 2008 (has links) (PDF)
Agrégation de classifieurs et d'experts pour la recherche d'homologues chez les cytokines à quatre hélices alpha , Texte imprimé -- Nicolas Beaume ; sous la direction de Yannick Jacques, Gérard Ramstein L'objectif de ce travail est la mise au point d'une méthode de détection d'homologues de cytokines inconnues. J'ai dans un premier temps évalué plusieurs classifieurs SVM. J'ai ensuite proposé d'ajouter, sous la forme d'experts automatiques, des connaissances spécifiques à la famille étudiée. Enfin, afin de maximiser l'efficacité de leur association, j'ai comparé différentes méthodes d'agrégation. Je propose une méthode performante, basée sur la combinaisons de ces classifieurs et de ces experts, généralisable à d'autres familles de protéines.
382

Comparaisons de génomes avec gènes dupliqués : étude théorique et algorithmes

Angibaud, Sébastien 07 October 2009 (has links) (PDF)
La génomique comparative étudie les similarités et/ou les dissimilarités entre génomes et permet d'établir des relations entre les espèces afin notamment de construire des phylogénies. Elle permet également de mettre en évidence des régions conservées au sein des génomes et de trouver ainsi des ensembles de gènes impliqués dans des processus biologiques conservés au cours de l'évolution. Dans ce mémoire, nous nous intéressons au calcul de mesures entre deux génomes en présence de gènes dupliqués, et plus particulièrement aux mesures à base de points de cassure, d'adjacences, d'intervalles communs et d'intervalles conservés. Suivant une démarche informatique, nous proposons tout d'abord une étude avancée de la complexité algorithmique des problèmes rencontrés, en prouvant notamment pour la plupart d'entre eux soit leur NP-Complétude soit leur APX-Difficulté. Par la suite, nous exposons plusieurs méthodes de calcul de mesures entre deux génomes, à savoir (i) une approche exacte basée sur une transformation en un problème de contraintes à variables booléennes, (ii) une heuristique et (iii) une méthode hybride qui s'appuie sur la méthode exacte et l'heuristique proposées. Par une étude sur un jeu de données réel, nous montrons les qualités respectives de ces méthodes. Enfin, nous proposons un protocole de calcul des intervalles communs et mettons en évidence, par son utilisation et par un outil de visualisation, l'aspect fonctionnel de certains intervalles communs.
383

Algorithmes Heuristiques et Techniques d'Apprentissage - Applications au Probleme de Coloration de Graphe

Porumbel, Daniel Cosmin 19 November 2009 (has links) (PDF)
Au cours des trois dernieres decennies, les algorithmes heuristiques ont permis de realiser des progres remarquables dans la resolution des problemes diciles d'optimisation combinatoire. Cependant, la conception de ces algorithmes releve encore plusieurs challenges importants { en particulier, il semble qu'il est toujours dicile d'integrer dans une heuristique une vue d'ensemble sur l'evolution de la recherche ou sur sa trajectoire. Prenant comme cadre experimental le probleme bien connu de la coloration de graphe, nous presentons de nouvelles strategies qui font appel a certains mecanismes d'apprentissage pour rendre le processus de recherche plus \auto-conscient". Nous introduisons un algorithme qui est capable d'enregistrer sa trajectoire et d'interpreter sa propre evolution. Une analyse de l'espace de recherche a montre que les meilleures congurations visitees sont relativement proches les unes des autres, regroupees dans des spheres de rayon xe. Avec ce type d'informations apprises, nous avons concu : (i) des algorithmes de diversication qui \prennent garde" a ne pas visiter la m^eme sphere a plusieurs reprises, (ii) des algorithmes d'intensication qui se focalisent sur l'exploration d'un perimetre limite en utilisant un parcours en largeur des spheres de ce perimetre, et (iii) des approches evolutionnistes pour gerer la diversite de sorte que les individus soient a la fois de bonne qualite eu egard a la fonction objectif et susamment distants les uns des autres. En fait, nous presentons une gamme de techniques (e.g. nouvelles fonctions d'evaluation) qui peuvent rendre la recherche heuristique \bien informee".
384

Analyse et requêtes de données géographiques 3 D : contributions de la cristallographie géométrique

Poupeau, Benoît 16 September 2008 (has links) (PDF)
Un des rôles des SIG 3D est d'intégrer et de mettre en cohérence des données issues de producteurs de données variés tout en respectant les choix faits en fonction des besoins des utilisateurs, en termes de géométrie et de topologie. Les SIG 3D actuels utilisent généralement une modélisation géométrique et topologique unique qui facilite, entre autres, les requêtes comme celles calculées à partir des modèles topologiques tels que le parcours de proche en proche des primitives géométriques d'un objet ou de ses voisins. En contrepartie, cette homogénéisation entraîne une perte des spécificités des modèles, de lourds calculs de conversion et ne corrige pas, sans une aide extérieure, les problèmes inhérents à l'acquisition et à la modélisation. Cette thèse propose un modèle d'analyse pour les SIG 3D permettant d'opérer des requêtes sur un objet (analyse intra-objet), quel que soit le choix technique de l'utilisateur, ou sur un ensemble d'objets (analyse inter-objets), même s'ils ne sont pas parfaitement cohérents. A partir de principes issus de la cristallographie, ce modèle, nommé Cristage, analyse les symétries de chaque objet pour décrire sa structure, c'est-à-dire la manière dont les primitives sont agencées entre elles. Complémentaire des modèles topologiques, cette première abstraction donne une vision globale de l'objet, ce qui facilite certaines requêtes comme l'extraction du toit d'une cavité ou la simplification géométrique d'un bâtiment 3D. L'analyse des différents éléments de symétrie (plans, axes et centre) offre une seconde abstraction : la maille. Considérée en cristallographie comme l'enveloppe du plus petit parallélépipède conservant les propriétés géométriques, elle est utilisée comme une boîte englobante adaptée à la forme de l'objet. Elle permet, en particulier, la mise en relation logique des objets géographiques, quelle que soit leur dimension. A l'aide des mailles, deux graphes sont calculés. Le premier, qualifié de graphe d'incidence, décrit les relations entre objets et facilite le parcours entre eux. Le second, appelé graphe temporel, dessine, pour un objet, l'évolution de ses relations avec son environnement
385

Qualité de service et routage dans les réseaux maillés sans fil.

Ashraf, Usman 08 April 2010 (has links) (PDF)
Ce travail de thèse présente trois contributions qui portent sur le routage et la fourniture de qualité de service dans les réseaux maillés sans fil basés sur IEEE 802.11. La première contribution définit une métrique de routage qui permet de sélectionner les chemins empruntant des liens avec de bonnes performances exprimées en termes d'interférences physiques (qui causent des pertes), d'interférences logiques (qui causent des délais) et de capacité. L'évaluation de cette métrique par rapport aux principales métriques de la littérature scientifique montre une amélioration des performances du réseau. La deuxième contribution concerne l'amélioration du mécanisme de maintenance de route le plus souvent utilisé par les protocoles de routage réactifs. Ce mécanisme considère qu'une route est coupée si l'un de ses liens observe plusieurs échecs successifs de retransmission. Nos études montrent que ces échecs sont assez souvent dûs à de problèmes transitoires sur les liens (bruit, interférence etc.). Nous avons donc proposé des algorithmes de maintenance de route qui appréhendent mieux les problèmes ponctuels ou soutenus sur les liens ce qui permet de prendre une décision cohérente et réfléchie quant à la coupure d'un lien (et donc d'une route). Les études de performances montrent une amélioration conséquente des performances globales du réseau. La dernière contribution propose un cadre pour la fourniture de la Qualité de Service (garantie de bande passante) dans les réseaux maillés multi-interfaces, multi-canaux. Ce cadre intègre un protocole de routage réactif couplé à un mécanisme de contrôle d'admission et de partage de charge. Ces derniers exploitent la diversité des liens entre nSuds voisins afin d'améliorer le taux d'admission des flux avec garantie de bande passante.
386

Contribution to the Study and Implementation of Intelligent Modular Self-organizing Systems

Budnyk, Ivan 08 December 2009 (has links) (PDF)
Les problèmes de la classification ont reçu une attention considérable dans des différents champs d'ingénierie comme traitement des images biomédicales, identification a partir de la voix, reconnaissance d'empreinte digitale etc. Les techniques d'intelligence artificielles, incluant les réseaux de neurones artificiels, permettent de traiter des problèmes de ce type. En particulier, les problèmes rencontrés nécessitent la manipulation de bases de données de tailles très importantes. Des structures de traitement adaptatives et exploitant des ensembles de classificateurs sont utilisées. Dans cette thèse, nous décrivons principalement le développement et des améliorations apportées à un outil de classification désigné par le terme Tree-like Divide to Simplify ou T-DTS. Nos efforts se sont portés sur l'un des modules de cet outil, le module d'estimation de complexité. L'architecture de l'outil T-DTS est très flexible et nécessite le choix d'un nombre important de paramètres. Afin de simplifier l'exploitation de T-DTS, nous avons conçu et développé une procédure automatique d'optimisation d'un de ces plus importants paramètres, le seuil de décision associé à la mesure de complexité. La contribution principale de cette thèse concerne le développement de modules pouvant s'implanté sur une architecture de calcul matérielle parallèle. Ce ceci permet de se rapproché d'une implantation purement matérielle de l'outil T-DTS
387

Réseaux de Petri temporels à inhibitions/permissions - Application à la modélisation et vérification de systèmes de tâches temps réel

Peres, Florent 26 January 2010 (has links) (PDF)
Les systèmes temps réel (STR) sont au coeur de machines souvent jugés critiques pour la sécurité : ils en contrôlent l'exécution afin que celles-ci se comportent de manière sûre dans le contexte d'un environnement dont l'évolution peut être imprévisible. Un STR n'a d'autre alternative que de s'adapter `a son environnement : sa correction dépend des temps de réponses aux stimuli de ce dernier. Il est couramment admis que le formalisme des réseaux de Petri temporels (RdPT) est adapté à la description des STR. Cependant, la modélisation de systèmes simples, ne possédant que quelques tâches périodiques ordonnancées de façon basique se révèle être un exercice souvent complexe. En premier lieu, la modélisation efficace d'une gamme étendue de politiques d'ordonnancements se heurte à l'incapacité des RdPT à imposer un ordre d'apparition à des évènements concurrents survenant au même instant. D'autre part, les STR ont une nette tendance à être constitués de caract éristiques récurrentes, autorisant une modélisation par composants. Or les RdPT ne sont guère adaptés à une utilisation compositionnelle un tant soit peu générale. Afin de résoudre ces deux problèmes, nous proposons dans cette thèse Cifre - en partenariat entre Airbus et le Laas-Cnrs - d'étendre les RdPT à l'aide de deux nouvelles relations, les relations d'inhibition et de permission, permettant de spécifier de manière plus fine les contraintes de temps. Afin de cerner un périmètre clair d'adéquation de cette nouvelle extension à la modélisation des systèmes temps réel, nous avons défini Pola, un langage spécifique poursuivant deux objectifs : déterminer un sous-ensemble des systèmes temps réel modélisables par les réseaux de Petri temporels à inhibitions/permissions et fournir un langage simple à la communauté temps réel dont la vérification, idéalement automatique, est assurée par construction. Sa sémantique est donnée par traduction en réseaux de Petri temporels à inhibitions/permissions. L'explorateur d'espace d'états de la boite à outils Tina a été étendu afin de permettre la vérification des descriptions Pola.
388

Un modèle pour l'ingénierie des systèmes interactifs dédiés à la manipulation de données

Blouin, Arnaud 30 November 2009 (has links) (PDF)
L'ingénierie du logiciel s'intéresse, entre autres, à trois aspects du développement des systèmes interactifs (SI) : la liaison entre les données sources et leurs présentations cibles ; la conception de la facette interactive ; l'exécution d'un même SI sur différentes plates-formes d'exécution. Les différentes évolutions du web et des données, la diversification des plates-formes d'exécution, ainsi que les techniques d'interactions modernes amènent à revoir la manière de traiter ces trois aspects. L'ingénierie des modèles (IDM) apporte une solution à l'exécution multi-plateforme en échelonnant la conception d'un SI sur différents niveaux d'abstraction. C'est sur ce principe que nos travaux se fondent. Nous avons tout d'abord défini un langage de correspondance, appelé Malan, dédié au lien entre les données sources d'un SI et leurs présentations cibles. Malan a pour avantages de : s'abstraire des plate-forme de données et d'IHM utilisées ; pouvoir réaliser des calculs complexes pour la disposition des éléments d'une présentation ; avoir été développé spécialement pour la liaison données-présentations, contrairement aux langages de transformations classiques. Nous avons ensuite conçu un modèle conceptuel d'interaction, appelé Malai, réunissant les caractéristiques majeures des principaux modèles d'interactions. Malai vise à : faciliter la conception du feed-back intérimaire des instruments ; réutiliser des interactions déjà définies ; considérer une action comme un objet à part entière ; décrire des interactions classiques et modernes ; générer du code pour une plate-forme d'exécution donnée.
389

AxSeL : un intergiciel pour le déploiement contextuel et autonome de services dans les environnements pervasifs

Ben Hamida, Amira 01 February 2010 (has links) (PDF)
Les environnements pervasifs sont apparus avec l'essor des technologies de communication couplé avec celui des terminaux mobiles. Parallèlement à cela, une évolution logicielle s'est effectuée en passant de l'informatique systémique globale à une approche modulaire et granulaire. Déployer une application sur un dispositif mobile reste toutefois une problématique ouverte, à cause de l'inadéquation de celle-ci aux contraintes matérielles et contextuelles de tels environnements. En effet, les applications usuelles nécessitent plus de ressources que ne peuvent fournir les terminaux mobiles. Pour pallier cela, nous proposons une solution qui s'inscrit à la frontière de ces deux mondes~: celui des environnements pervasifs contraints et celui des applications orientées services. Dans cette thèse nous présentons une approche pour le déploiement contextuel et autonome d'applications orientées services dans des environnements contraints~: AxSeL -A conteXtual SErvice Loader- adapte le déploiement des applications en prenant en compte le contexte des services, la mémoire d'exécution disponible sur le dispositif et les préférences utilisateur. Dans les environnements pervasifs, les services fournis sont disséminés sur les dispositifs mobiles ou des serveurs de dépôts. L'accès à ceux-ci se fait grâce à des descripteurs de services intégrant l'ensemble des dépendances d'un service et sa localisation. Pour déployer une application il est nécessaire de résoudre l'ensemble de ses dépendances en termes de services. A partir de l'agrégation des descripteurs des services AxSeL construit sa propre représentation de l'application sous la forme d'un graphe de dépendances logiques de services. Les noeuds de ce graphe représentent les services et les composants les implantant et les arcs les dépendances d'exécution et de déploiement entre ceux-ci. Le graphe fournit une représentation intuitive et flexible des dépendances et nous permet de distinguer le niveau de l'exécution (services) de celui du déploiement (composants). AxSeL opère à la suite un processus de décision du chargement prenant en compte les caractéristiques des services, celles de la plate-forme matérielle et enfin les préférences utilisateurs. La décision est prise grâce à une technique de coloration sous contraintes du graphe de dépendances des services. En cas de changement du contexte, par exemple modification du dépôt ou des caractéristiques des services, de la mémoire disponible sur la machine ou des préférences utilisateurs, AxSeL le détecte et déclenche un processus d'adaptation qui intègre les changements perçus dans le processus décisionnel du déploiement. Ainsi, AxSeL propose une représentation globale et flexible pour les applications orientées services et des heuristiques permettant leur déploiement contextuel et autonome. Nous avons validé les concepts de notre approche à travers un prototype AxSeL4OSGi en utilisant une machine virtuelle java comme support d'exécution et OSGi comme plate-forme de développement et d'exécution de services. Les performances de notre plate-forme sont évaluées et comparés à une approche similaire à travers des tests réalisés dans des contextes de variation de la structure des graphes applicatifs, de la mémoire disponible sur la machine, des caractéristiques des services et des préférences utilisateurs.
390

De la conception physique aux outils d'administration et de tuning des entrepôts de données

Boukhalfa, Kamel 02 July 2009 (has links) (PDF)
Nous visons à travers cette thèse à proposer un ensemble d'approches permettant d'optimiser les entrepôts de données et d'aider l'AED à bien mener cette optimisation. Nos approches d'optimisation reposent sur l'utilisation de trois techniques d'optimisation : la fragmentation horizontale primaire, dérivée et les index de jointure binaires (IJB). Nous commençons par proposer une approche de fragmentation qui prend en considération à la fois la performance (réduction du coût d'exécution) et la manageabilité (contrôle du nombre de fragments générés). Nous proposons ensuite une approche gloutonne de sélection d'IJB. L'utilisation séparée de la fragmentation horizontale (FH) et des IJB ne permet pas d'exploiter les similarités existantes entre ces deux techniques. Nous proposons une approche de sélection conjointe de la FH et des IJB. Cette approche peut être utilisée pour le tuning de l'entrepôt. Nous avons mené plusieurs expériences pour valider nos différentes approches. Nous proposons par la suite un outil permettant d'aider l'AED dans ses tâches de conception physique et de tuning.<br />Mots clés : Conception physique, Tuning, Techniques d'optimisation, Fragmentation Horizontale, Index de Jointure Binaires.

Page generated in 0.0449 seconds