• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Etude en vue de la multirésolution de l'apparence

Hadim, Julien 11 May 2009 (has links) (PDF)
Les fonctions de texture directionnelle (« Bidirectional Texture Function » ou BTF) ont rencontré un certain succès ces dernières années dans le contexte de la synthèse d'images en temps-réel grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données et de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace de celles-ci. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel BTFInspect afin de déterminer parmi les différents phénomènes visuels mesurés dans les BTFs, ceux qui influencent majoritairement la cohérence des données par pixel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées « Flat Bidirectional Texture Function » Flat-BTFs, qui améliore la cohérence des données d'une BTF et synthétiques afin de valider sa mise en œuvre. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous validons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification adaptée et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données.
232

Synthèse de gestionnaires mémoire pour applications Java temps-réel embarquées

Salagnac, Guillaume 10 April 2008 (has links) (PDF)
La problématique abordée dans ce travail est celle de la gestion mémoire automatique pour des programmes Java temps-réel embarqués. Dans des langages comme le C ou le C++, la mémoire est typiquement gérée explicitement par le programmeur, ce qui est la source de nombreuses erreurs d'exécution causées par des manipulations hasardeuses. Le coût de correction de telles erreurs est très important car ces erreurs sont rarement reproductibles et donc difficiles à appréhender. En Java la gestion mémoire est entièrement automatique, ce qui facilite considérablement le développement. Cependant, les techniques classiques de recyclage de la mémoire, typiquement basées sur l'utilisation d'un ramasse-miettes, sont souvent considérées comme inapplicables dans le contexte des applications temps-réel embarquées, car il est très difficile de prédire leur temps de réponse. Cette incompatibilité est un frein important à l'adoption de langages de haut niveau comme Java dans ce domaine.<br />Pour résoudre le problème de la prévisibilité du temps d'exécution des opérations mémoire, nous proposons une approche fondée sur l'utilisation d'un modèle mémoire en régions. Cette technique, en groupant physiquement les objets de durées de vie similaires dans des zones gérées d'un seul bloc, offre en effet un comportement temporel prévisible. Afin de décider du placement des objets dans les différentes régions, nous proposons un algorithme d'analyse statique qui calcule une approximation des relations de connexion entre les objets. Chaque structure de données est ainsi placée dans une région distincte. L'analyse renvoie également au programmeur des informations sur le comportement mémoire du programme, de façon à le guider vers un style de programmation propice à la gestion mémoire en régions, tout en pesant le moins possible sur le développement. <br />Nous avons implanté un gestionnaire mémoire automatique en régions dans la machine virtuelle JITS destinée aux systèmes embarqués à faibles ressources. Les résultats expérimentaux ont montré que notre approche permet dans la plupart des cas de recycler la mémoire de façon satisfaisante, tout en présentant un comportement temporel prévisible. Le cas échéant, l'analyse statique indique au développeur quels sont les points problématiques dans le code, afin de l'aider à améliorer son programme.
233

Gestion énergétique des véhicules hybrides: de la simulation à la commande temps réel.

Kermani, Saida 17 September 2009 (has links) (PDF)
Le problème de la gestion énergétique des véhicules hybrides consiste essentiellement à développer des algorithmes appelés : stratégies de commande, dont le rôle est de choisir à chaque instant la meilleure répartition de puissance entre les différentes sources d'énergie d'une manière à minimiser la consommation de carburant et/ou les émissions de polluants. Le problème est formulé comme un problème de commande optimale qui, en connaissant a priori le profil de vitesse du véhicule, vise à trouver la répartition optimale de puissance en minimisant la consommation de carburant, sous contraintes. Il s'agit ici des algorithmes dits d'optimisation globale. Bien que ces deniers soient limités à la simulation, ils permettent, néanmoins de déduire des stratégies de commande « sous-optimales » applicables en ligne. <br />L'objectif de la thèse est d'élaborer des lois de gestion d'énergie applicable en ligne. Ceci revient à « prédire » le profil de vitesse du véhicule permettant d'estimer la demande de puissance du conducteur. A cette fin, Deux stratégies de commande temps réel basées sur l'algorithme d'optimisation globale ont été proposées. La première concerne le cas particulier d'un véhicule circulant sur le même trajet physique, et la seconde est une généralisation à tout types de parcours. Enfin, une mise en œuvre des stratégies temps réel proposées sur un banc moteur a permis de valider les résultats de simulation obtenus et d'évaluer le gain d'hybridation par rapport à un véhicule conventionnel équivalent.
234

Développement de la scatterométrie dynamique pour le suivi en temps réel de procédés. Application à la microélectronique.

Soulan, Sébastien 08 December 2008 (has links) (PDF)
La métrologie in situ et le contrôle de procédés en temps réel sont pour l'industrie de la microélectronique des enjeux d'une importance cruciale. Une technique de caractérisation optique basée sur une analyse de la lumière diffractée par un objet, la scatterométrie, fait preuve pour cela d'un potentiel remarquable. Il s'agit d'une méthode non destructive qui permet de mesurer indirectement et avec excellente précision des grandeurs géométriques de motifs périodiques.<br /><br />Pour la résolution de ce problème inverse, il est coutume de comparer une signature relevée par ellipsométrie (par exemple) avec une bibliothèque de signatures optiques calculées au préalable. Dans cette thèse, ce principe appliqué couramment en situation statique (mesure en ligne d'un échantillon) a été étendu à une application dynamique (suivi de procédés en temps réel), pour laquelle les signatures sont acquises avec une faible résolution en longueurs d'onde mais avec une grande fréquence.<br />Ces développements ont consisté d'une part en l'élaboration d'un algorithme de reconstruction de forme basé sur la régularisation de Tikhonov et d'autre part sur l'utilisation d'une architecture de calcul particulière, les processeurs graphiques (GPU).<br /><br />A des fins de mise au point et de validation, nous nous sommes appuyés sur des procédés de la microélectronique pour lesquels le suivi en temps réel est un défi majeur pour le futur : gravure de résine par plasma et fluage de résine pour la nano-impression.
235

Contribution à l'interaction commande/ordonnancement

Robert, David 11 January 2007 (has links) (PDF)
Lors du développement d'un système contrôlé par ordinateur, il y a traditionnellement une séparation forte entre les conceptions de la loi de commande et de l'ordonnancement des tâches du calculateur. Dans les systèmes embarqués, où les ressources sont limitées et variables, cette séparation rigide conduit à une sous utilisation du processeur. Pour améliorer l'interaction commande/ordonnancement, nous proposons d'adapter les ressources nécessaires au calcul des lois de commande en agissant sur leur période. Nous présentons tout d'abord une structure d'ordonnancement régulé. La contribution principale concerne ensuite le développement d'une méthodologie de synthèse d'une loi de commande à période d'échantillonnage variable basée sur une approche de type Hinfini dédiée aux systèmes linéaires à paramètres variants. Les performances de cette loi de commande ainsi que son interaction avec l'ordonnancement sont illustrées en simulation et sur un procédé expérimental.
236

CONCEPTION ET EVALUATION D'UN SYSTEME DE SUIVI AUTOMATIQUE DES GESTES LABIAUX EN PAROLE

Reveret, Lionel 28 May 1999 (has links) (PDF)
Cette thèse présente un système de suivi automatique des gestes labiaux à partir d'une séquence vidéo d'un locuteur. Le système combine une analyse ascendante et descendante de la forme des lèvres. Une première étape d'analyse chromatique, basée sur un apprentissage statistique, fournit une image en niveaux de gris où le contraste entre lèvres et peau est rehaussé. Parallèlement, un modèle linéaire 3D des gestes labiaux est appris pour un locuteur à partir de formes clés phonétiquement pertinentes. Le modèle est alors synthétisé et projeté sur l'image imposant a priori les caractéristiques de la forme des lèvres. Il est adapté sur l'image rehaussée des lèvres par optimisation de ses paramètres de contrôle. Ce système combine ainsi de manière hybride la précision de l'analyse chromatique et la robustesse imposée par le modèle. Ce système est évalué sous divers aspects : ses capacités à s'adapter à la morphologie labiale et aux stratégies articulatoire de plusieurs locuteurs, la qualité des mesures géométriques délivrées et sa rapidité d'analyse. Le système complet a été implanté et testé en langage C sur une station de travail monoprocesseur. L'exécution est évaluée en nombre d'instructions à partir du code machine généré par le compilateur du système de la station. Ces résultats ont permis d'identifier les zones critiques de traitement pour lesquels des optimisations sont proposées. Compte tenu de ces optimisations, il apparaît que la cadence de 50 images par seconde est alors accessible sans avoir recours à une implantation matérielle spécialisée.
237

Maintenance de la visibilité d'un point mobile, et applications

Hornus, Samuel 22 May 2006 (has links) (PDF)
The notion of visibility is central in computer graphics and computational geometry. A visibility computation amounts to determining the shape, or merely the existence of the set of segments in space linking two specified objects without crossing any other. We examine the problem of maintaining the visibility of a moving viewpoint with the aid of a complex describing all the visibility relationships in a scene, at once: the visibility complex. <br />We take two different approaches to this problem. In one, we show how one can maintain the so-called visibility polyhedron of the moving point, in an exact fashion. We apply a variant of the algorithm to the construction of the visibility complex of a set of disjoint polytopes. <br />The second approach is motivated by the need to render complex 3D scenes at interactive rates. We propose an algorithm that decomposes a 3D scene into simple cells related together with simple visibility relationships represented as a graph. The scene is drawn as the graph is traversed, allowing pruning to speed up rendering. We also provide an efficient algorithm for real-time rendering of hard shadows.
238

Appréciation du risque de contamination de l'homme par des Salmonella spp à partir de produit d'origine bovine : viande hachée

Dayhum, Abdunaser 02 June 2008 (has links) (PDF)
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de viande hachée. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons développée une méthode rapide, sensible et fiable pour la quantification des salmonelles dans les échantillons fécaux bovins artificiellement contaminés. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1-5 ufc/mL) du fécal peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans les échantillons fécaux. Afin d'évaluer l'utilité de cette analyse de quantification, notre deuxième objectif était de l'appliquer aux échantillons fécaux naturellement contaminés recueillis de l'abattoir trouvé dans Meaux, la France chaque semaine en février et le mars de 2006 (une moyenne de 40 échantillons par visite). 9.12 % (27/296) et 34.62 % (9/26) les échantillons fécaux et de l'environnement, respectivement, ont été trouvés positif de salmonella, avec les valeurs de NPP estimées ou les comptes de Salmonella aux limites de <1.8 - 1609 MPN/g d'échantillons fécaux. The moyen de la concentration log10 de Salmonella est 0.6189 MPN/g avec les déviations standrdard de 2.7112 en utilisant l'approche de rétrogradation censurée. Les comptes étaient généralement bas, à l'exception de 6 animaux (> 1400 MPN/g), pendant que tous les autres 21 Salmonella les animaux positifs avait des matières fécales avec moins de 80 MPN/g (d'eux 13 animaux avec les valeurs de MPN <1.8 MPN/g. La prédominance de Salmonella n'a montré aucune différence significative (p=1) entre le français (8.63 %, 17/197) et bétail belge (10 %, 10/99). En outre, aucun la région des animaux d'origine (p=0.75), l'âge (p=0.18), la course (p=0.94), la race (p=0.23), ou le mouvement de l'animal (p=0.89) n'avait aucun impact sur la prédominance de Salmonella. L'application de l'essai de PCR NPP-en-temps-réel pour quantifier la Salmonella dans fécal s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation de risques potentiels associés à la Salmonella dans la viande hachée il était nécessaire d'examiner la capacité des salmonelles à se développer dans la viande hachée. Donc, nous avons présenté dans cette thèse comme un troisième objectif, le modèle d'une croissance / aucune interface de croissance de Salmonella dans la viande hachée. Des données de croissance / non croissance ont été modelées par la rétrogradation de polynôme logistique sur les données de croissance disponibles pour la Salmonella dans la viande hachée dans les papiers publiés et toutes les données rattachées a la viande hachée dans ComBase nous mènent afin d'à une description exacte des conditions que la Salmonella ne peut la croissance / aucune croissance. Les résultats généraux indiquent clairement que la température est la plus importante et le seul facteur significatif dans l'étude. Il n'y avait aucune croissance observée à la température moins que 10°C. Où comme la température 10°C et 12°C sont la seule température; nous n'avons vraiment observé la croissance / aucune croissance (quelquefois avec les mêmes conditions). Bien que pH et l'activité d'eau soient des facteurs importants pour la croissance microbienne, dans notre étude ils n'ont aucun effet en raison de la structure de viande. Finalement, un modèle d'appréciation du risque de salmonellose humaine liée à la consommation viande haché est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 100 g de bœuf haché. Le pourcentage attendu de portions de bœuf haché avec la contamination plus grande que 5, 10 et 100 cellules de Salmonella était 29 %, 17,1 % et 0,02 %, respectivement au moment de la consommation. Le risque de salmonellose par portion de 100g varie de 0 à 2,33 x 10-6 en fonction au type de cuisson et de la teneur en matière grasse. Pour 10 millions de portions de 100 g, le nombre attendu de cas de salmonellose prévu par le modèle est en moyenne 11, 12 pour les teneurs en matière grasse 7 % et 24. Le risque de salmonellose par portion de 100g varie de 0 à 2,33 x 10-6 en fonction au type de cuisson et de la teneur en matière grasse. Le risque de salmonellose est proche de zéro quand le bœuf haché est consommé bien cuit. Le risque relatif de salmonellose avec le bœuf haché saignant est 312 ou 61 fois plus élevé pour les teneurs 7 % et 24 % en matière grasse par comparaison avec la viande hachée bien cuit. Il y a 35 lots sur 2000 qui provoquent des cas (1,8 %). Quinze d'entre eux causent 2 cas ou plus (0,75 %, 15/2000).
239

Vers un demonstrateur pour la détection autonome des objets à bord de Gaia

Mignot, Shan 10 January 2008 (has links) (PDF)
La mission Pierre Angulaire de l'ESA, Gaia, doit bâtir un catalogue d'étoiles limité seulement par leurs magnitudes. Ce milliard d'objets doit être détecté à bord pour pouvoir être observé et les exigences scientifiques et techniques font de ce problème un défi d'ingénierie. Nous avons élaboré un prototype pour estimer les performances accessibles et servir au dimensionnement de l'électronique à bord (TDA PDHE). Il s'appuie sur une séquence de quatre tâches: la calibration des données issues des CCDs, l'estimation du fond de ciel, l'identification des objets et, enfin, leur caractérisation pour commander les observations elles-mêmes. Bien qu'inspirée par des études antérieures (APM, Sextractor), cette approche a été intégralement révisée et adaptée aux spécificités de Gaia. Suite aux recommandations du TDA PDHE, une implémentation mixte est proposée qui traite les volumes de données importants et soumis aux contraintes de temps-réel ``dures'' avec de l'électronique dédiée (FPGA) et réalise les traitements complexes ou variables via du logiciel. Cette partition correspond aussi à subdiviser les opérations précédentes en un domaine pixel et un domaine objet. Notre démonstrateur montre que les attentes scientifiques sont satisfaites en termes de complétude, de précision et de robustesse à la diversité des configurations. Techniquement parlant, notre pipeline, optimisé quant à la surface et la consommation électrique, permet l'identification d'une technologie cible. Notre modèle n'a pas été retenu pour les phases industrielles de Gaia mais, outre son utilité avérée dans le projet, représente une R&D pour la génération de satellites à venir.
240

Étude des concepts logiciels et matériels pour un système interactif d'animation en temps réel

Bruneaux, Sylvère 26 October 1989 (has links) (PDF)
Présentation d'un outil complet de description interactive et de visualisation en temps réel d'animations. Le système développé implémente des concepts originaux aussi bien au niveau du matériel conduisant a une architecture originale dédiée a l'animation temps réel, qu'au niveau du logiciel

Page generated in 0.058 seconds