Spelling suggestions: "subject:"tempsréel"" "subject:"tempsréel.le""
201 |
Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles/Representation and computation of the visibility information for the interactive exploration of tridimensional scenesHaumont, Denis 29 May 2006 (has links)
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines.
Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type.
La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul.
La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation.
Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.
|
202 |
Agrégation de données décentralisées pour la localisation multi-véhiculesKaram, Nadir 14 December 2009 (has links) (PDF)
Les avancées technologiques notables dans le domaine de la communication sans fil ont ouvert de nouvelles perspectives pour améliorer les systèmes d'aide à la conduite existants. En effet il a été prouvé que l'échange de données de positionnement absolu et relatif entre des véhicules d'un même groupe peut améliorer la précision de la localisation de tous ces membres. Le travail présenté dans ce manuscrit s'inscrit dans ce cadre et propose une approche totalement distribuée permettant de combiner les informations provenant des capteurs de tous les véhicules d'un groupe pour obtenir l'estimation la plus précise possible de la pose de ces derniers tout en minimisant les informations transmises sur le réseau de communication. Le principe de l'approche proposée est que chaque véhicule utilise ses propres capteurs pour mettre à jour une estimation de l'état du groupe puis la transmet à ses congénères. La fusion des états reçus et l'état construit dans chaque véhicule donne l'estimation de l'état global du groupe qui intègre les informations provenant de tous ces membres. L'approche proposée a été validée expérimentalement en simulation et dans un environnement réel avec un groupe de deux véhicules urbains.
|
203 |
CO.SY.NUS. langage de commande pour le système C.A.R.I.N.E. (Computer Aided Research In Neutron Exeriment) pilotant des expériences de diffraction neutroniqueEntressangle, Gabriel 31 January 1973 (has links) (PDF)
.
|
204 |
L'Analyse économique des architectures de marché électrique. <br />L'application au market design du temps réel.Saguan, Marcelo 28 April 2007 (has links) (PDF)
Ce travail s'inscrit dans l'analyse économique des architectures de marché électrique. Il s'appuie sur un cadre d'analyse modulaire permettant de séparer les problèmes du market design en modules distincts. Il se concentre sur le design du temps réel ayant un rôle clé pour l'électricité. Un modèle d'équilibre à deux étapes a permis d'analyser les deux variantes de design du temps réel : le marché et le mécanisme (utilisant de pénalités). Les simulations numériques ont montré que le design du temps réel n'est pas neutre vis-à-vis de la séquence des marchés d'énergie et de la dynamique concurrentielle. Les designs s'écartant du « marché » provoquent des distorsions, des inefficacités et peuvent créer des barrières à l'entrée. L'ampleur des distorsions est déterminée par la fermeture des marchés forward (gate closure). Cette modélisation a permis aussi de montrer le rôle fondamental de l'intégration entre deux zones en temps réel et l'importance d'une harmonisation adéquate des designs.
|
205 |
Méthodologie de conception de systèmes temps réel et distribués en contexte UML/SysMLFontan, Benjamin 17 January 2008 (has links) (PDF)
En dépit de ses treize diagrammes, le langage UML (Unified Modeling Language) normalisé par l'OMG (Object Management Group) n'offre aucune facilité particulière pour appréhender convenablement la phase de traitement des exigences qui démarre le cycle de développement d'un système temps réel. La normalisation de SysML et des diagrammes d'exigences ouvre des perspectives qui ne sauraient faire oublier le manque de support méthodologique dont souffrent UML et SysML. Fort de ce constat, les travaux exposés dans ce mémoire contribuent au développement d'un volet " méthodologie " pour des profils UML temps réel qui couvrent les phases amont (traitement des d'exigences - analyse - conception) du cycle de développement des systèmes temps réel et distribués en donnant une place prépondérante à la vérification formelle des exigences temporelles. La méthodologie proposée est instanciée sur le profil TURTLE (Timed UML and RT-LOTOS Environment). Les exigences non-fonctionnelles temporelles sont décrites au moyen de diagrammes d'exigences SysML étendus par un langage visuel de type " chronogrammes " (TRDD = Timing Requirement Description Diagram). La formulation d'exigences temporelles sert de point de départ à la génération automatique d'observateurs dédiés à la vérification de ces exigences. Décrites par des méta-modèles UML et des définitions formelles, les contributions présentées dans ce mémoire ont vocation à être utilisées hors du périmètre de TURTLE. L'approche proposée a été appliquée à la vérification de protocoles de communication de groupes sécurisée (projet RNRT-SAFECAST).
|
206 |
Traitement Hiérarchique, Edition et Synthèse de Géométrie NumériséeBoubekeur, Tamy 21 September 2007 (has links) (PDF)
La représentation des surfaces du monde réel dans la mémoire d'une machine peut désormais être obtenue automatiquement via divers périphériques de capture tels que les scanners 3D. Ces nouvelles sources de données, précises et rapides, amplifient de plusieurs ordres de grandeur la résolution des surfaces 3D, apportant un niveau de précision élevé pour les applications nécessitant des modèles numériques de surfaces telles que la conception assistée par ordinateur, la simulation physique, la réalité virtuelle, l'imagerie médicale, l'architecture, l'étude archéologique, les effets spéciaux, l'animation ou bien encore les jeux video. Malheureusement, la richesse de la géométrie produite par ces méthodes induit une grande, voire gigantesque masse de données à traiter, nécessitant de nouvelles structures de données et de nouveaux algorithmes capables de passer à l'échelle d'objets pouvant atteindre le milliard d'échantillons. Dans cette thèse, je propose des solutions performantes en temps et en espace aux problèmes de la modélisation, du traitement géométrique, de l'édition intéractive et de la visualisation de ces surfaces 3D complexes. La méthodologie adoptée pendant l'élaboration transverse de ces nouveaux algorithmes est articulée autour de 4 éléments clés : une approche hiérarchique systématique, une réduction locale de la dimension des problèmes, un principe d'échantillonage-reconstruction et une indépendance à l'énumération explicite des relations topologiques aussi appelée approche basée-points. En pratique, ce manuscrit propose un certain nombre de contributions, parmi lesquelles : une nouvelle structure hiérarchique hybride de partitionnement, l'Arbre Volume-Surface (VS-Tree) ainsi que de nouveaux algorithmes de simplification et de reconstruction ; un système d'édition intéractive de grands objets ; un noyau temps-réel de synthèse géométrique par raffinement et une structure multi-résolution offrant un rendu efficace de grands objets. Ces structures, algorithmes et systèmes forment une chaîne capable de traiter les objets en provenance du pipeline d'acquisition, qu'ils soient représentés par des nuages de points ou des maillages, possiblement non 2-variétés. Les solutions obtenues ont été appliquées avec succès aux données issues des divers domaines d'application précités.
|
207 |
Risque de salmonellose humaine liée à la consommation de fromage à pâte molle au lait cru : développement d'un modèle pour l'appréciation quantitative du risqueFares, Almabrouk 17 December 2007 (has links) (PDF)
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de Camembert fromage au lait cru. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons developeé une méthode rapide, sensible et fiable pour la quantification des salmonelles dans le lait artificiellement contaminé. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1- 5 ufc/mL) du lait peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans des échantillons de lait. Afin d'évaluer l'utilité de cette analyse de quantification, nous l'avons appliquée aux échantillons naturellement contaminés de lait de tank d'exploitations laitières situées dans l'Ouest de la France. Huit (2,68%) des 299 échantillons de lait de tank étaient trouvés positifs, avec des comptes estimés de nombre plus probable s'étendant de 3,7 à 79,2 /mL de lait. En dépit des problèmes d'inhibition observés avec quelques échantillons de lait, l'application de l'analyse par PCR en temps réel pour mesurer des salmonelles dans le lait cru s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation des risques potentiels liés aux salmonelles dans le lait cru et les produits à base de lait cru il était nécessaire d'examiner la vii capacité des salmonelles à se développer dans le lait. Par conséquent, nous présentons dans cette thèse des modèles primaires et secondaires décrivant mathématiquement la croissance des salmonelles (S. Typhimurium et S. Montevideo) dans le lait à température constante pendant différentes périodes d'incubation. Le modèle logistique avec délai a été employé pour décrire la croissance des salmonelles en fonction du temps. Les taux de croissance spécifiques de S. Typhimurium et de S. Montevideo différent selon le sérotype et la température. Les taux de croissance maximum ont été alors modélisés en fonction de la température en utilisant le modèle cardinal secondaire de Rosso. Les valeurs cardinales obtenues avec S. Typhimurium et S. Montevideo étaient: Tmin 3,02, 3,40 ; Topt 38,44, 38,55 et Tmax 44,51, 46,97°C, respectivement. À la température optimum de croissance (Topt) les taux de croissance maximum étaient 1,36 et 1,39 log10 ufc/h-1 pour S. Typhimurium et S. Montevideo respectivement. Les modèles primaires et secondaires ont permis de bons ajustements aux données de croissance avec un pseudo R2 = 0.97-0.99. Un modèle d'appréciation du risque de salmonellose humaine liée à la consommation de Camembert au lait cru est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 25 g du fromage. Le 99th percentile du nombre de cellules de salmonelles dans les portions de 25 g de fromage était 5 cellules à l'heure de la consommation, correspondant à 0,2 cellule des salmonelles par gramme. Le risque de salmonellose par portion de 25 g est compris entre 0 et 1,2 × 10-7 avec une médiane de 7,4 × 10-8. Pour 100 millions de portions de 25g, le nombre de cas de salmonellose prévue par le modèle est en moyenne de 7,4. Quand la prévalence est réduite dans le modèle d'un facteur de 10, le nombre de cas par 100 millions de portions est réduit à moins de 1 cas. En dépit des limites et des données manquantes, nous avons démontré l'avantage de l'appréciation du viii risque non seulement comme outil d'évaluation de risque mais également comme dispositif d'aide à la prise de décision et à la gestion des risques.
|
208 |
Vers une nouvelle génération de systèmes de test et de simulation avionique dynamiquement reconfigurablesAfonso, George 02 July 2013 (has links) (PDF)
L'objectif de cette thèse est la proposition de nouvelles solutions dans le domaine des systèmes de test et de simulation avioniques et ce, à plusieurs niveaux. Dans un premier temps, nous avons proposé un modèle d'exécution dynamique permettant d'unifier les métiers du test et de la simulation, de répondre aux contraintes imposées, d'apporter de nouvelles possibilités et ainsi d'accélérer le cycle de développement des futurs équipements embarqués. Ensuite, un support matériel basé sur une architecture hétérogène CPU-FPGA a été défini afin de répondre à la problématique proposée et aux contraintes imposées par le domaine d'application telles que le respect du temps-réel et la capacité de reconfiguration dynamique hétérogène. A ce support matériel, est venue s'ajouter une méthodologie de développement permettant une meilleure prise en charge du code "legacy" de l'industriel. Enfin, un environnement unifié temps réel mou pour le test et la simulation avionique a été mis en avant, permettant de diminuer les coûts liés à la maîtrise et à la maintenance d'un nouvel environnement. Finalement, une étude de cas a permis de mettre en avant les capacités de reconfiguration dynamique et les performances de l'environnement développé.
|
209 |
MR-guided thermotherapies of mobile organs : advances in real time correction of motion and MR-thermometry / Thermothérapies guidées par IRM sur organes mobiles : avancées sur la correction en temps réel du mouvement et de la thermométrieRoujol, Sébastien 25 May 2011 (has links)
L'ablation des tissus par hyperthermie locale guidée par IRM est une technique prometteuse pour le traitement du cancer et des arythmies cardiaques. L'IRM permet d'extraire en temps réel des informations anatomiques et thermiques des tissus. Cette thèse a pour objectif d'améliorer et d'étendre la méthodologie existante pour des interventions sur des organes mobiles comme le rein, le foie et le coeur. La première partie a été consacrée à l'introduction de l'imagerie rapide (jusqu'à 10-15 Hz) pour le guidage de l'intervention par IRM en temps réel. L'utilisation de cartes graphiques (GPGPU) a permis une accélération des calculs afin de satisfaire la contrainte de temps réel. Une précision, de l'ordre de 1°C dans les organes abdominaux et de 2-3°C dans le coeur, a été obtenue. Basé sur ces avancées, de nouveaux développements méthodologiques ont été proposés dans une seconde partie de cette thèse. L'estimation du mouvement basée sur une approche variationnelle a été améliorée pour gérer la présence de structures non persistantes et de fortes variations d'intensité dans les images. Un critère pour évaluer la qualité du mouvement estimé a été proposé et utilisé pour auto-calibrer notre algorithme d'estimation du mouvement. La méthode de correction des artefacts de thermométrie liés au mouvement, jusqu'ici restreinte aux mouvements périodiques, a été étendue à la gestion de mouvements spontanés. Enfin, un nouveau filtre temporel a été développé pour la réduction du bruit sur les cartographies de température. La procédure interventionnelle apparaît maintenant suffisamment mature pour le traitement des organes abdominaux et pour le transfert vers la clinique. Concernant le traitement des arythmies cardiaques, les méthodes ont été évaluées sur des sujets sains et dans le ventricule gauche. Par conséquent, la faisabilité de l'intervention dans les oreillettes mais aussi en présence d'arythmie devra être abordée. / MR-guided thermal ablation is a promising technique for the treatment of cancer and atrial fibrillation. MRI provides both anatomical and temperature information. The objective of this thesis is to extend and improve existing techniques for such interventions in mobile organs such as the kidney, the liver and the heart. A first part of this work focuses on the use of fast MRI (up to 10-15 Hz) for guiding the intervention in real time. This study demonstrated the potential of GPGPU programming as a solution to guarantee the real time condition for both MR-reconstruction and MR-thermometry. A precision in the range of 1°C and 2-3°C was obtained in abdominal organs and in the heart, respectively. Based on these advances, new methodological developments have been carried out in a second part of this thesis. New variational approaches have proposed to address the problem of motion estimation in presence of structures appearing transient and high intensity variations in images. A novel quality criterion to assess the motion estimation is proposed and used to autocalibrate our motion estimation algorithm. The correction of motion related magnetic susceptibility variation was extended to treat the special case of spontaneous motion. Finally, a novel temporal filter is proposed to reduce the noise of MR-thermometry measurements while controlling the bias introduced by the filtering process. As a conclusion, all main obstacles for MR-guided HIFU-ablation of abdominal organs have been addressed in in-vivo and ex-vivo studies, therefore clinical studies will now be realized. However, although promising results have been obtained for MR-guided RF-ablation in the heart, its feasibility in the atrium and in presence of arrhythmia still remains to be investigated.
|
210 |
Modélisation et rendu temps-réel de milieux participants à l'aide du GPU / Modeling and real-time rendering of participating media using the GPUGiroud, Anthony 18 December 2012 (has links)
Cette thèse traite de la modélisation, l'illumination et le rendu temps-réel de milieux participants à l'aide du GPU. Dans une première partie, nous commençons par développer une méthode de rendu de nappes de brouillard hétérogènes pour des scènes en extérieur. Le brouillard est modélisé horizontalement dans une base 2D de fonctions de Haar ou de fonctions B-Spline linéaires ou quadratiques, dont les coefficients peuvent être chargés depuis une textit{fogmap}, soit une carte de densité en niveaux de gris. Afin de donner au brouillard son épaisseur verticale, celui-ci est doté d'un coefficient d'atténuation en fonction de l'altitude, utilisé pour paramétrer la rapidité avec laquelle la densité diminue avec la distance au milieu selon l'axe Y. Afin de préparer le rendu temps-réel, nous appliquons une transformée en ondelettes sur la carte de densité du brouillard, afin d'en extraire une approximation grossière (base de fonctions B-Spline) et une série de couches de détails (bases d'ondelettes B-Spline), classés par fréquence.%Les détails sont ainsi classés selon leur fréquence et, additionnées, permettent de retrouver la carte de densité d'origine. Chacune de ces bases de fonctions 2D s'apparente à une grille de coefficients. Lors du rendu sur GPU, chacune de ces grilles est traversée pas à pas, case par case, depuis l'observateur jusqu'à la plus proche surface solide. Grâce à notre séparation des différentes fréquences de détails lors des pré-calculs, nous pouvons optimiser le rendu en ne visualisant que les détails les plus contributifs visuellement en avortant notre parcours de grille à une distance variable selon la fréquence. Nous présentons ensuite d'autres travaux concernant ce même type de brouillard : l'utilisation de la transformée en ondelettes pour représenter sa densité via une grille non-uniforme, la génération automatique de cartes de densité et son animation à base de fractales, et enfin un début d'illumination temps-réel du brouillard en simple diffusion. Dans une seconde partie, nous nous intéressons à la modélisation, l'illumination en simple diffusion et au rendu temps-réel de fumée (sans simulation physique) sur GPU. Notre méthode s'inspire des Light Propagation Volumes (volume de propagation de lumière), une technique à l'origine uniquement destinée à la propagation de la lumière indirecte de manière complètement diffuse, après un premier rebond sur la géométrie. Nous l'adaptons pour l'éclairage direct, et l'illumination des surfaces et milieux participants en simple diffusion. Le milieu est fourni sous forme d'un ensemble de bases radiales (blobs), puis est transformé en un ensemble de voxels, ainsi que les surfaces solides, de manière à disposer d'une représentation commune. Par analogie aux LPV, nous introduisons un Occlusion Propagation Volume, dont nous nous servons, pour calculer l'intégrale de la densité optique entre chaque source et chaque autre cellule contenant soit un voxel du milieu, soit un voxel issu d'une surface. Cette étape est intégrée à la boucle de rendu, ce qui permet d'animer le milieu participant ainsi que les sources de lumière sans contrainte particulière. Nous simulons tous types d'ombres : dues au milieu ou aux surfaces, projetées sur le milieu ou les surfaces / This thesis deals with modeling, illuminating and rendering participating media in real-time using graphics hardware. In a first part, we begin by developing a method to render heterogeneous layers of fog for outdoor scenes. The medium is modeled horizontally using a 2D Haar or linear/quadratic B-Spline function basis, whose coefficients can be loaded from a fogmap, i.e. a grayscale density image. In order to give to the fog its vertical thickness, it is provided with a coefficient parameterizing the extinction of the density when the altitude to the fog increases. To prepare the rendering step, we apply a wavelet transform on the fog's density map, and extract a coarse approximation and a series of layers of details (B-Spline wavelet bases).These details are ordered according to their frequency and, when summed back together, can reconstitute the original density map. Each of these 2D function basis can be viewed as a grid of coefficients. At the rendering step on the GPU, each of these grids is traversed step by step, cell by cell, since the viewer's position to the nearest solid surface. Thanks to our separation of the different frequencies of details at the precomputations step, we can optimize the rendering by only visualizing details that contribute most to the final image and abort our grid traversal at a distance depending on the grid's frequency. We then present other works dealing with the same type of fog: the use of the wavelet transform to represent the fog's density in a non-uniform grid, the automatic generation of density maps and their animation based on Julia fractals, and finally a beginning of single-scattering illumination of the fog, where we are able to simulate shadows by the medium and the geometry. In a second time, we deal with modeling, illuminating and rendering full 3D single-scattering sampled media such as smoke (without physical simulation) on the GPU. Our method is inspired by light propagation volumes, a technique whose only purpose was, at the beginning, to propagate fully diffuse indirect lighting. We adapt it to direct lighting, and the illumination of both surfaces and participating media. The medium is provided under the form of a set of radial bases (blobs), and is then transformed into a set of voxels, together with solid surfaces, so that both entities can be manipulated more easily under a common form. By analogy to the LPV, we introduce an occlusion propagation volume, which we use to compute the integral of the optical density, between each source and each other cell containing a voxel either generated from the medium, or from a surface. This step is integrated into the rendering process, which allows to animate participating media and light sources without any further constraint
|
Page generated in 0.028 seconds