• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Amélioration d'un programme de sélection massale sur la croissance chez la truite arc-en-ciel par introduction d'une sélection BLUP pour des caractères de qualités grâce aux empreintes génétiques / Introduction of BLUP assisted sib-selection for quality traits in a mass selection program on growth in rainbow trout (Oncorhynchus mykiss)

Haffray, Pierrick 09 November 2018 (has links)
Cette thèse précise les conditions pour introduire une sélection sur apparentés de caractères de qualité assistée par empreintes génétiques dans un programme de sélection massale sur la croissance chez la truite arc-enciel. Ce travail confirme l’intérêt à maîtriser l’effet maternel avec une doublement de l’héritabilité du poids à 70 g (0,36 vs 0,16), des estimations d’héritabilités des caractères mesurés de valeurs intermédiaires (0,37-0,54), l’intérêt d’utiliser la résiduelle des parties mesurées régressées linéairement au poids vif pour une sélection indépendante du poids pour les rendements, l’intérêt à remplacer la mesure du rendement au filetage par celle du rendement en carcasse éviscérée-étêtée plus héritable et très corrélé au rendement au filetage (0,97),la corrélation génétique élevée entre les rendements avec le ratio échographique e8/e23 (0,72-0,85) permettant une sélection sur candidats plus efficace qu’une sélection sur apparenté sur le rendement lui-même, des précisions élevées des valeurs génétiques (0.63–0.82) malgré très peu d’individus par famille (3,5-4) et une efficacité surestimée d’une sélection sur apparentés pré-sélectionnés (de 14 % à 62 %). Les conclusions sont qu’il est possible d’introduire une sélection sur apparentés dans un programme de sélection massale avec des gains génétiques au moins équivalents à ceux attendus en sélection familiale classique avec familles élevées initialement de façon séparées / The thesis aims at describing conditions to improve mass selection on growth by sib-selection on quality traits assisted by DNA parentage assignment in rainbow trout. Main results are that the control and management of differences in egg size between dams doubles heritability of body weight at 70 g (0.36 vs 0.16), heritabilities of quality traits are intermediates (0.37-0.54), the opportunity to use the residual of the body part (e.g. fillet weight) regressed to the whole body weight to select independently of body weight for ratios, the higher efficiency to replace fillet yield by deheaded and gutted carcass weight more heritable and highly genetically correlated to fillet yield (0.97), the possibility to use e8/e23ultrasound measures to predict genetically yields (0.72-0.85) allowing a direct selection on breeding candidates more efficient than in using sib information, a surprising intermediate to high accuracy of EBV even with a very low mean number of sib per full-sib family (3.5-4) and the medium to high overestimation of EBV when using pre- selected sibs (14 % to 62 %). The general conclusion are that sib-selection on quality traits can be introduced in mass selection with at least similar expected genetic gains than in traditional breeding design based on families reared initially separated
112

Scanner 3D à lumière non structurée non synchronisé

El Asmi, Chaima 08 1900 (has links)
No description available.
113

Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif / Development of imaging and reconstructions algorithms on parallel processing architectures for applications in non-destructive testing

Pedron, Antoine 28 May 2013 (has links)
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme. / This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed.
114

Implementation trade-offs for FGPA accelerators / Compromis pour l'implémentation d'accélérateurs sur FPGA

Deest, Gaël 14 December 2017 (has links)
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation. / Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case.
115

Conception et évaluation d'un dispositif d'imagerie multispectrale de proxidétection embarqué pour caractériser le feuillage de la vigne / "On-the-go" multispectral imaging system embedded on a track laying tractor to characterize the vine foliage

Bourgeon, Marie-Aure 30 October 2015 (has links)
En Viticulture de Précision, l’imagerie multi-spectrale est principalement utilisée pour des dispositifs de télédétection. Ce manuscrit s’intéresse à son utilisation en proxidétection, pour la caractérisation du feuillage. Il présente un dispositif expérimental terrestre mobile composé d’un GPS, d’une caméra multi-spectrale acquérant des images visible et proche infrarouge, et d’un Greenseeker RT-100 mesurant l’indice Normalized Difference Vegetation Index (NDVI). Ce système observe le feuillage de la vigne dans le plan de palissage, en lumière naturelle. La parcelle étudiée comporte trois cépages (Pinot Noir, Chardonnay et Meunier) plantés en carré latin. En 2013, six jeux de données ont été acquis à différents stades phénologiques.Pour accéder aux propriétés spectrales de la végétation, il est nécessaire de calibrer les images en réflectance. Cela requiert l’utilisation d’une mire de MacBeth comme référence radiométrique. Lorsque la mire est cachée par les feuilles, les paramètres de calibration sont estimés par une interpolation linéaire en fonction des images les plus proches sur lesquelles la mire est visible. La cohérence de la méthode d’estimation employée est vérifiée par une validation croisée (LOOCV).La comparaison du NDVI fournie par le Greenseeker avec celui déterminé via les images corrigées permet de valider les données générées par le dispositif. La polyvalence du système est évaluée via les images où plusieurs indices de végétation sont déterminés. Ils permettant des suivis de croissance de la végétation originaux offrant des potentialités de phénotypage ou une caractérisation de l’état sanitaire de la végétation illustrant la polyvalence et le gain en précision de cette technique. / Mutispectral imaging systems are widely used in remote sensing for Precision Viticulture. In this work, this technique was applied in the proximal sensing context to characterize vine foliage. A mobile terrestrial experimental system is presented, composed of a GPS receiver, a multi-spectral camera acquiring visible and near infrared images, and a Greenseeker RT-100 which measures the Normalized Difference Vegetative Index (NDVI). This optical system observes vine foliage in the trellis plan, in natural sunlight. The experimental field is planted with Chardonnay, Pinot Noir and Meunier cultivars in a latin squared pattern. In 2013, six datasets were acquired at various phenological stages.Spectral properties of the vegetation are accessible on images when they are calibrated in reflectance. This step requires the use of a MacBeth colorchart as a radiometric reference. When the chart is hidden by leaves, the calibration parameters are estimated by simple linear interpolation using the results from resembling images, which have a visible chart. The performance of this method is verified with a cross-validation technique (LOOCV).To validate the data provided by the experimental system, the NDVI given by the Greenseeker was compared to those computed from the calibrated images. The assessment of the versatility of the system is done with the images where several indices were determined. It allows an innovative follow-up of the vegetative growth, and offering phenotyping applications. Moreover, the characterization of the sanitary state of the foliage prove that this technique is versatile and accurate.
116

Etude de la résolution angulaire du télescope à neutrinos ANTARES

Oppelt, Anne 09 April 2001 (has links) (PDF)
L'astrophysique des neutrinos de haute énergie est une branche relativement récente dans l'astrophysique des particules. L'observation de ces neutrinos nécessite la construction de nouveaux types de télescopes immenses. Après une phase de recherche et de développement pendant laquelle elle a démontré la faisabilité d'une telle entreprise en milieu sous-marin, la collaboration ANTARES construit maintenant un télescope à neutrinos avec une surface de 0,1 km². Le détecteur, exposé à un taux élevé de bruit de fond ambiant, doit être capable de reconnaître un faible signal physique, ce qui nécessite un déclenchement à la fois puissant et efficace. Nous présentons ici une analyse des différentes possibilités d'un déclenchement local. A l'issue de cette étude, la définition du déclenchement final du détecteur est devenue possible. Nous présentons également une étude des performances du détecteur envisagé. L'analyse nécessite la simulation d'événements de très haute énergie (TeV-PeV). A ces énergie les programmes de simulation utilisent des hypothèses différentes, ce qui a nécessité une comparaison de leurs résultats avant utilisation. Une caractéristique importante d'un télescope à neutrinos est sa résolution angulaire. Celle d'ANTARES, obtenue dans cette thèse est de l'ordre de 0,5° pour les muons ascendants et inférieure à 1° pour les muons descendants. Une détection de l'ombre de la Lune, dont nous avons étudié la faisabilité, permet de vérifier ce résultat après 2-5 ans de prise de données.
117

Autour de l'évaluation numérique des fonctions D-finies

Mezzarobba, Marc 27 October 2011 (has links) (PDF)
Les fonctions D-finies (ou holonomes) à une variable sont les solutions d'équations différentielles linéaires à coefficients polynomiaux. En calcul formel, il s'est avéré fructueux depuis une vingtaine d'années d'en développer un traitement algorithmique unifié. Cette thèse s'inscrit dans cette optique, et s'intéresse à l'évaluation numérique des fonctions D-finies ainsi qu'à quelques problèmes apparentés. Elle explore trois grandes directions. La première concerne la majoration des coefficients des développements en série de fonctions D-finies. On aboutit à un algorithme de calcul automatique de majorants accompagné d'un résultat de finesse des bornes obtenues. Une seconde direction est la mise en pratique de l'algorithme " bit burst " de Chudnovsky et Chudnovsky pour le prolongement analytique numérique à précision arbitraire des fonctions D-finies. Son implémentation est l'occasion de diverses améliorations techniques. Ici comme pour le calcul de bornes, on s'attache par ailleurs à couvrir le cas des points singuliers réguliers des équations différentielles. Enfin, la dernière partie de la thèse développe une méthode pour calculer une approximation polynomiale de degré imposé d'une fonction D-finie sur un intervalle, via l'étude des développements en série de Tchebycheff de ces fonctions. Toutes les questions sont abordées avec un triple objectif de rigueur (résultats numériques garantis), de généralité (traiter toute la classe des fonctions D-finies) et d'efficacité. Pratiquement tous les algorithmes étudiés s'accompagnent d'implémentations disponibles publiquement.
118

Stéreo multi-vues à grande échelleet de haute qualité.

Vu, Hiep 05 December 2011 (has links) (PDF)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vid eo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acqu érir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différents (méthode passive). La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre avec une grande précision, et surtout moins couteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stereo multi-vues à grande échelle . Nous améliorons des méthodes précédentes et les assemblons pour créer une chaine de stereo multi-vues efficace tirant parti de l'accélération des cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel).
119

Etude expérimentale et théorique des spectres d'émission et d'absorption VUV des molécules H2, D2 et HD

Roudjane, Mourad 07 December 2007 (has links) (PDF)
Les molécules H2, HD et D2 occupent une place fondamentale en physique moléculaire, en astrophysique et en physique des plasmas. H2 est la molécule la plus abondante dans l'univers. Les récentes observations à haute résolution des transitions VUV de cette molécule et de son isotope HD ont été effectuées par le satellite FUSE dans le domaine 90.5 -118.7 nm. Ces observations permettent de déterminer le rapport d'intensités des raies HD/H2, considéré comme un outil nouveau pour évaluer le rapport d'abondances D/H, qui est connu pour être un traceur efficace de l'évolution chimique de l'Univers. Par ailleurs, les molécules H2, HD et D2 sont formées dans le plasma de bord des tokamaks et contribuent aux pertes radiatives du milieu. Par conséquent, il est indispensable de disposer de données spectroscopiques de haute qualité obtenues en laboratoire pour une exploitation fiable des résultats d'observations ou pour une modélisation réaliste des plasmas de fusion.<br /> <br />L'objectif de cette thèse est d'effectuer une étude expérimentale à haute résolution des spectres d'émission et d'absorption des isotopes D2 et HD de l'hydrogène moléculaire dans le VUV et de la compléter par une étude théorique des états électroniques excités en relation avec les transitions observées. Une telle étude avait été effectuée dans notre laboratoire et avait abouti à la réalisation d'un atlas VUV dans le domaine 78-170 nm.<br /> <br />Les spectres d'émission de HD et D2 sont produits par une source à décharge Penning opérant sous faible pression, et sont enregistrés dans la région spectrale 78 -170 nm à l'aide du spectrographe sous vide de 10 mètres à haute résolution (~ 150 000) de l'Observatoire de Meudon, soit sur plaques photographiques, soit sur des écrans phosphore photostimulables pour mesure d'intensités. Les spectres enregistrés contiennent plus de 20 000 raies. Les longueurs d'onde sont mesurées avec une précision de Δλ/λ= 10-6.Les raies des molécules D2 et H2 étant inévitablement présentes dans le spectre de HD, nous avons d'abord cherché à réaliser l'analyse du spectre de D2, qui consiste à identifier et à assigner les raies aux transitions électroniques entre des niveaux d'énergie de la molécule.<br /><br /> Nous avons par ailleurs réalisé une étude en absorption des molécules HD et D2 au Centre Laser LCVU d'Amsterdam. Nous avons mesuré par spectroscopie laser à deux photons 1XUV+1UV, de nouvelles longueurs d'onde avec une précision inégalée de Δλ/λ= 10-8 dans le domaine spectral 99.9-104 nm permis par l'accordabilité du laser XUV.<br /><br /> Ces nouvelles longueurs d'ondes constitueront une base de données de raies de référence pour la calibration des spectres moléculaires, mais leurs intérêts ne s'arrêtent pas au laboratoire. En effet, les nouvelles raies de HD mesurées par spectroscopie laser, ajoutées aux raies de H2 déjà mesurées avec une précision similaire, seront utilisées comme référence pour mettre en évidence une possible variation cosmologique du rapport de masse proton-électron μ= mp/me, par comparaison avec des longueurs d'onde de raies de H2 ou de HD observées dans les spectres d'absorption de quasars à grands déplacements vers le rouge. Cette étude nécessite la connaissance des coefficients de sensibilité des longueurs d'onde par rapport à la possible variation de μ, que nous avons calculés par la résolution d'un système d'équations couplées pour les états électroniques B, B', C et D de la molécule H2 et HD pour diverses valeurs de μ. <br /><br />Durant ce travail de thèse, nous nous sommes également intéressés à des transitions entre états libres-libres et états libres-liés de la molécule H2. Ces transitions se produisent lors d'une collision H-H formant une quasi-molécule et sont responsables de l'apparition de satellites dans l'aile des raies de l'atome d'hydrogène. Nous avons effectué une étude quantique du satellite quasi-moléculaire de la raie Lymanβ et calculé le profil d'absorption du satellite en fonction de la température. Cette variation est un outil important de diagnostic pour la détermination des caractéristiques des atmosphères des naines blanches.
120

Reliable Solid Modelling Using Subdivision Surfaces

Shao, Peihui 02 1900 (has links)
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus. / Subdivision surfaces are a promising alternative method for geometric modelling, and have some important advantages over the classical representation of trimmed-NURBS, especially in modelling piecewise smooth surfaces. In this thesis, we consider the problem of geometric operations on subdivision surfaces with the strict requirement of correct topological form, and since this problem may be ill-conditioned, we propose an approach for managing uncertainty that exists inherently in geometric computation. We take into account the requirement of the correctness of topological information when considering the nature of robustness for the problem of geometric operations on solid models, and it becomes clear that the problem may be ill-conditioned in the presence of uncertainty that is ubiquitous in the data. Starting from this point, we propose an interactive approach of managing uncertainty of geometric operations, in the context of computation using the standard IEEE arithmetic and modelling using a subdivision-surface representation. An algorithm for the planar-cut problem is then presented, which has as its goal the satisfaction of the topological requirement mentioned above.

Page generated in 0.0886 seconds