• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 166
  • 49
  • 11
  • Tagged with
  • 229
  • 45
  • 38
  • 37
  • 36
  • 34
  • 33
  • 31
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Modèles de bases et spectres des fonctions booléennes

Sharafeddin-Noury, Ahmad 17 December 1980 (has links) (PDF)
.
132

Analyse et modèles dynamiques non commutatifs sur l'espace de q-Minkowski

Dutriaux, Antoine 13 June 2008 (has links) (PDF)
Cette thèse se place dans le cadre du vaste domaine s'intitulant géométrie non commutative, domaine dont l'étude est motivée par l'opinion courante des mathématiciens et physiciens selon laquelle les méthodes de la géométrie non commutative peuvent être utiles pour décrire certains processus dynamiques à l'échelle de Planck. Aussi l'objectif principal de cette thèse est de généraliser quelques modèles dynamiques définis sur l'espace de Minkowski sur son q-analogue. Des tentatives d'introduire des modèles dynamiques qui seraient covariants par rapport à l'action de groupes quantiques ont été entrepris juste après la création de la théorie sur les groupes quantiques par Drinfeld. Les modèles les plus intéressants sont ceux qui sont liés au q-analogue de l'espace de Minkowski. C'est P. Kulish qui définit cette algèbre comme étant un cas particulier d'une algèbre appelée modified Reflection Equation Algebra (mREA) elle-même liée à un opérateur appelé symétrie de Hecke. Nous définissons donc certains modèles dynamiques qui sont des déformations de modèles classiques, l'espace des phases de nos modèles déformés n'est autre alors que notre espace de q-Minkowski. Nous recherchons par la suite des intégrales de mouvement de ces dynamiques, ce qui nous amène à définir des analogues de l'énergie et du vecteur de Runge-Lenz. Nous généralisons pour terminer les équations aux dérivées partielles de la théorie des champs et en particulier l'opérateur de Maxwell.
133

Assimilation de données variationnelle pour les problèmes de transport des sédiments en rivière

Yang, Junqing 26 November 1999 (has links) (PDF)
La prévision de la sédimentation d'une rivière requiert l'utilisation d'un modèle mathématique régissant l'écoulement et de données d'observation. Le but de ce travail est de proposer une méthode d'assimilation de données qui permet de reconstituer les champs en tenant en compte du modèle et des données d'observation. La méthode qui est proposée est fondée sur les techniques de contrôle optimal. On présente les problèmes de sédimentation et leurs approximations numériques, un algorithme de décomposition est introduit et sa convergence est étudiée. En préalable à l'exploitation à des problèmes réels, on a vérifié la faisabilité de la méthode variationnelle d'assimilation de données pour trois types de problèmes de transport des sédiments : 1) la détermination de la condition initiale, 2) l'identification des paramètres, 3) l'estimation de l'erreur de la modélisation. Les études de sédimentation sur le terrain conduisent à des problèmes numériques de très grande dimension, dans une dernière partie on s'est intéressé à des techniques permettant la réduction de l'espace de contrôle pour obtenir des problèmes d'une taille raisonnable.
134

Robustesse et Identification des Applications Communicantes

François, Jérôme 07 December 2009 (has links) (PDF)
La popularité des réseaux informatiques et d'Internet s'accompagne d'un essor des applications communicantes et de la multiplication des protocoles dont le fonctionnement est plus ou moins compliqué, ce qui implique également des performances différentes en termes de robustesse. Un premier objectif de cette thèse est d'approfondir plus en détails la robustesse de protocoles s'illustrant par d'extraordinaires performances empiriques tels que les botnets. Différents protocoles employés par les botnets sont donc modélisés dans cette thèse. Par ailleurs, l'essor et la diversité des protocoles s'accompagnent d'un manque de spécification volontaire ou non que la rétro-ingénierie tente de retrouver. Une première phase essentielle est notamment de découvrir les types de messages. La technique mise en \oe uvre dans cette étude s'appuie sur les machines à vecteurs de supports tout en ayant au préalable spécifié de nouvelles représentations des messages dont la complexité de calcul est très réduite par rapport aux autres techniques existantes. Enfin, il existe généralement un grand nombre d'applications distinctes pour un même protocole et identifier précisément le logiciel ou le type d'équipement utilisé (marque, version) est un atout essentiel dans plusieurs domaines tels que la supervision ou la sécurité des réseaux. S'appuyant uniquement sur les types de messages, le comportement d'un équipement, c'est-à-dire la manière dont il interagit avec les autres, est une information très avantageuse lorsqu'elle est couplée avec les délais entre les messages. Enfin, la grammaire d'un protocole connu permet de construire les arbres syntaxiques des messages, dont le contenu et la structure sémantiquement riche, avaient peu été étudiés jusqu'à maintenant dans le cadre de l'identification des équipements.
135

Contributions à l'apprentissage automatique pour l'analyse d'images cérébrales anatomiques

Cuingnet, Rémi 29 March 2011 (has links) (PDF)
L'analyse automatique de différences anatomiques en neuroimagerie a de nombreuses applications pour la compréhension et l'aide au diagnostic de pathologies neurologiques. Récemment, il y a eu un intérêt croissant pour les méthodes de classification telles que les machines à vecteurs supports pour dépasser les limites des méthodes univariées traditionnelles. Cette thèse a pour thème l'apprentissage automatique pour l'analyse de populations et la classification de patients en neuroimagerie. Nous avons tout d'abord comparé les performances de différentes stratégies de classification, dans le cadre de la maladie d'Alzheimer à partir d'images IRM anatomiques de 509 sujets de la base de données ADNI. Ces différentes stratégies prennent insuffisamment en compte la distribution spatiale des \textit{features}. C'est pourquoi nous proposons un cadre original de régularisation spatiale et anatomique des machines à vecteurs supports pour des données de neuroimagerie volumiques ou surfaciques, dans le formalisme de la régularisation laplacienne. Cette méthode a été appliquée à deux problématiques cliniques: la maladie d'Alzheimer et les accidents vasculaires cérébraux. L'évaluation montre que la méthode permet d'obtenir des résultats cohérents anatomiquement et donc plus facilement interprétables, tout en maintenant des taux de classification élevés.
136

Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaques

Rey, David 23 October 2002 (has links) (PDF)
L'étude des processus évoluant au cours du temps, comme les lésions de sclérose en plaques, peut dans certains cas être une aide considérable au diagnostic. Elle peut aussi servir au suivi d'un patient pour surveiller l'évolution de sa pathologie ou pour étudier les effets d'un nouveau traitement. Notre travail a tout d'abord consisté à choisir et à appliquer des prétraitements sur des séries d'images issues de l'imagerie par résonance magnétique (IRM) de patients atteints de sclérose en plaques ; ceci est nécessaire lorsqu'on veut mener une analyse temporelle automatique. Nous avons ensuite pu développer des méthodes de détection et de quantification des zones évolutives dans des ces images. Une première étude repose sur la comparaison de deux images en utilisant un champ de déplacements apparents d'une image vers l'autre. Ce champ de vecteurs peut être analysé par le biais d'opérateurs différentiels tels que le jacobien. Il est également possible d'extraire une segmentation des régions évolutives en 3D+t avec une telle analyse. Avec cette approche, on suppose que chaque point a une intensité fixe, et qu'il a un mouvement apparent. Une seconde étude consiste à mener une analyse statistique rétrospective sur une série complète d'images (typiquement plus de dix), en s'appuyant sur un modèle paramétrique de zone évolutive. Dans notre cas, les points dont la variation temporelle de l'intensité est significativement due à une lésion sont détectés. Les méthodes statistiques utilisées permettent de prendre en compte la cohérence spatiale des images. Pour cette seconde approche, on suppose que chaque point est immobile et que son intensité varie au cours du temps. Ces travaux ont été réalisés avec plusieurs partenaires cliniques afin de mener une étude expérimentale de nos algorithmes sous le contrôle d'experts médicaux, mais aussi d'entamer un travail de validation clinique.
137

Modules de codage par compétition et suppression de l'information de compétition pour le codage de séquences vidéo

Laroche, Guillaume 19 May 2009 (has links) (PDF)
Cette thèse est dédiée à l'amélioration de la compression de séquences vidéo. Le but est de concevoir des méthodes suffisamment efficaces et réalistes pour être proposées aux organismes de normalisation de standard vidéo. Les approches choisies sont l'ajout de nouveaux modules de codage par compétition et la suppression de l'information de compétition. Un module de codage par compétition de prédicteurs de vecteurs mouvement, intégré dans le KTA, exploite, au sens du critère débit-distorsion, les redondances spatiales et temporelles des champs de vecteurs. De plus, une sélection automatique d'ensembles de prédicteurs orientée contenu est aussi proposée. Enfin, un nouveau mode de codage Intra basé sur un partitionnement 1D du macrobloc, réduisant la distance spatiale entre le signal de référence et la partition courante, est ajouté aux modes Intra bloc. Le standard de compression H.264/AVC, offre un nombre de compétitions plus élevé que celui de ses prédécesseurs. Pour réduire le débit lié à cette information de compétition, une partie de l'intelligence du codeur a été transférée au décodeur. Les indices des prédicteurs de vecteurs mouvement implicites, sont ainsi éliminés. Des prédicteurs Intra sont aussi supprimés en tenant compte du processus de quantification et du signal de référence. Enfin, en considérant que l'information de mouvement est une information de compétition, une estimation de mouvement au décodeur est mise en place. L'ensemble des méthodes développées offre des réductions de débit significatives par rapport à la référence. La combinaison d'une partie de ces méthodes obtient un gain moyen de 20% par rapport au standard pour un ensemble de séquences HD.
138

Dynamique de population et contrôle des vecteurs non domiciliés de la maladie de Chagas

Barbu, Corentin 17 December 2009 (has links) (PDF)
La maladie de Chagas est une parasitose humaine et vétérinaire d'Amérique latine. Le parasite, Trypanosoma cruzi, est très présent dans la faune sauvage et depuis que l'homme est arrivé en Amérique latine, la maladie lui est transmise par les insectes de la famille des Triatominae. À partir des années 1980, de grands plans de prévention ont été mis en application pour éliminer certains de ces vecteurs, installés dans les maisons. Bien que ces initiatives aient, dans l'ensemble, remporté un franc succès, des vecteurs non-domiciliés continuent de transmettre la maladie dans plusieurs régions et y engendrent des prévalences non négligeables. Après avoir fait le bilan de la présence et de l'importances des différentes espèces de vecteurs non-domiciliés à l'échelle du continent, une approche de modélisation a été développée pour affiner la connaissance de ces populations et évaluer le potentiel de stratégies de contrôle. L'association étroite des modèles réalisés et de jeux de données conséquents a permis d'identifier des paramètres essentiels de la reproduction et de la migration des vecteurs de la région du Yucatan au Mexique. Ces résultats ont permis d'évaluer le potentiel de plusieurs moyens de contrôle à l'échelle d'un village puis d'envisager l'optimisation coût/bénéfice de la lutte vectorielle à l'échelle d'une région comme la péninsule du Yucatan. Bien que l'approche proposée doive encore être consolidée, les résultats établis permettent de proposer une méthodologie générale pour établir des priorités de recherche et de traitement en s'appuyant fortement sur les outils développés de cartographie taxonomique et d'optimisation de la lutte vectorielle.
139

Vérification semi-formelle et synthèse automatique de PSL vers VHDL

Oddos, Y. 27 November 2009 (has links) (PDF)
La vérification à base de propriétés (PBV) est devenue un élément essentiel des flots de conception pour supporter la vérification de circuits complexes. Pour de tels composants où les techniques de vérification formelle ne peuvent s'appliquer, la vérification dynamique à base de propriétés connecte au circuit des moniteurs et des générateurs de test synthétisés à partir de propriétés pour construire de manière simple un environnement de test. Durant cette thèse une partie des travaux à consisté à développer une approche de synthèse de propriétés pour la génération de vecteurs de test. Dans ce contexte, les propriétés décrivent l'environnement du circuit sous test. Elles sont synthétisées en générateurs produisant des séquences de test respectant la propriété correspondante. Il est alors possible de spécifier et d'obtenir un modèle pour tout l'environnement du circuit. Alors que notre approche est modulaire, une méthode à base d'automates a été développée en collaboration avec l'université de McGill. La contribution la plus intéressante de cette thèse tiens dans la méthode qui a été mise en place pour synthétiser une spécification temporelle en un circuit correct par construction. Alors que les approches de l'état de l'art ont une complexité polynomiale, la nôtre est linéaire en la spécification. L'outil SyntHorus a été développé pour supporter cette méthode et synthétise en quelques secondes un circuit correct par construction à partir d'une spécification de plusieurs centaines de propriétés. La correction des générateurs et de la méthode de synthèse a été effectuée à l'aide du prouveur de théorème PVS. Les méthodes et outils développés durant cette thèse ont été validés, renforcés et transférés dans l'industrie grâce à plusieurs coopérations (Thalès Group, Dolphin Integration et ST-Microelectronics) et au projet ANR SFINCS.
140

Conception d'un circuit intégré pour la visualisation graphique

Matherat, Philippe 19 May 1978 (has links) (PDF)
L'extension de l'utilisation des consoles graphiques est freinée par le prix élevé du matériel existant. Ce coût peut être abaissé par l'utilisation d'un téléviseur. Pour permettre le rafraîchissement d'un tel écran à balayage de trame, il est nécessaire de disposer d'une mémoire d'image où tous les points sont codés sur un bit en Noir et Blanc (ce qui correspond à 256 K bits pour 512 x 512 points), et davantage en couleur. Une telle capacité devient raisonnable vu l'augmentation de densité des mémoires intégrées, à condition que l'électronique de gestion de la mémoire d'image soit simple. L'intégration de celle-ci en un circuit LSI, comprenant en outre un générateur de vecteurs et de caractères câblé, prévu pour un couplage par bus microprocesseur, est l'objet de ce travail.<br />Le circuit permet une grande vitesse d'écriture (1,3 microseconde par point), et une grande versatilité, tant dans le format d'affichage (64 x 64 jusqu'à 512 x 512 points avec un nombre quelconque de niveaux de gris ou de couleurs) que dans le couplage microprocesseur (bus 8 bits bidirectionnel de données, bus d'adresse de 4 bits, signaux de lecture-écriture et requête d'interruption).<br />Dans le but de simplifier l'implantation topologique d'un tel circuit (équivalent à 2000 portes) très peu répétitif, la structure logique et géométrique d'un ensemble de fonctions de base ("briques") est proposée. La structure fonctionnelle de chacune des parties du circuit est ensuite étudiée, suivie de son implantation topologique, utilisant au mieux les briques précédemment définies.

Page generated in 0.2719 seconds