• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 197
  • 97
  • 15
  • 1
  • Tagged with
  • 309
  • 114
  • 85
  • 71
  • 68
  • 63
  • 62
  • 56
  • 52
  • 51
  • 51
  • 49
  • 47
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Écoulement dans le sous-sol, méthodes numériques et calcul haute performance / Underground flow, numerical methods and high performance computing

Birgle, Nabil 24 March 2016 (has links)
Nous construisons une méthode numérique fiable pour simuler un écoulement dans un milieu poreux modélisé par une équation elliptique. La simulation est rendue difficile par les hétérogénéités du milieu, la taille et la géométrie complexe du domaine de calcul. Un maillage d'hexaèdres réguliers ne permet pas de représenter fidèlement les couches géologiques du domaine. Par conséquent, nous sommes amenés à travailler avec un maillage de cubes déformés. Il existe différentes méthodes de volumes finis ou d'éléments finis qui résolvent ce problème avec plus ou moins de succès. Pour la méthode que nous proposons, nous nous imposons d'avoir seulement un degré de liberté par maille pour la pression et un degré de liberté par face pour la vitesse de Darcy, pour rester au plus près des habitudes des codes industriels. Comme les méthodes d'éléments finis mixtes standards ne convergent pas, notre méthode est basée sur un élément fini mixte composite. En deux dimensions, une maille polygonale est découpée en triangles en ajoutant un point au barycentre des sommets, et une expression explicite des fonctions de base a pu être obtenue. En dimension 3, la méthode s'étend naturellement au cas d'une maille pyramidale. Dans le cas d'un hexaèdre ou d'un cube déformé quelconque, la maille est divisée en 24 tétraèdres en ajoutant un point au barycentre des sommets et en divisant les faces en 4 triangles. Les fonctions de base de l'élément sont alors construites en résolvant un problème discret. Les méthodes proposées ont été analysées théoriquement et complétées par des estimateurs a posteriori. Elles ont été expérimentées sur des exemples académiques et réalistes en utilisant le calcul parallèle. / We develop a reliable numerical method to approximate a flow in a porous media, modeled by an elliptic equation. The simulation is made difficult because of the strong heterogeneities of the medium, the size together with complex geometry of the domain. A regular hexahedral mesh does not allow to describe accurately the geological layers of the domain. Consequently, this leads us to work with a mesh made of deformed cubes. There exists several methods of type finite volumes or finite elements which solve this issue. For our method, we wish to have only one degree of freedom per element for the pressure and one degree of freedom per face for the Darcy velocity, to stay as close to the habits of industrial software. Since standard mixed finite element methods does not converge, our method is based on composite mixed finite element. In two dimensions, a polygonal mesh is split into triangles by adding a node to the vertices's barycenter, and explicit formulation of the basis functions was obtained. In dimension 3, the method extend naturally to the case of pyramidal mesh. In the case of a hexahedron or a deformed cube, the element is divided into 24 tetrahedra by adding a node to the vertices's barycenter and splitting the faces into 4 triangles. The basis functions are then built by solving a discrete problem. The proposed methods have been theoretically analyzed and completed by a posteriori estimators. They have been tested on academical and realistic examples by using parallel computation.
12

Approximation adaptative et anisotrope par éléments finis : Théorie et algorithmes

Mirebeau, Jean-Marie 06 December 2010 (has links) (PDF)
L'adaptation de maillage pour l'approximation des fonctions par éléments finis permet d'adapter localement la résolution en la raffinant dans les lieux de variations rapides de la fonction. Cette méthode intervient dans de nombreux domaines du calcul scientifique. L'utilisation de triangles anisotropes permet d'améliorer l'efficacité du maillage en introduisant des triangles longs et fins épousant notamment les directions des courbes de discontinuité. Etant donnée une norme d'intérêt et une fonction f à approcher, nous formulons le problème de l'adaptation optimale de maillage, comme la minimisation de l'erreur d'approximation par éléments finis de degré k donné parmi toutes les triangulations (potentiellement anisotropes) de cardinalité donnée N du domaine de définition de f. Nous étudions ce problème sous l'angle des quatre questions ci dessous: I. Comment l'erreur d'approximation se comporte-t-elle dans le régime asymptotique où le nombre N de triangles tend vers l'infini, lorsque f est une fonction suffisamment régulière? II. Quelles classes de fonctions gouvernent la vitesse de décroissance de l'erreur d'approximation lorsque N augmente, et sont en ce sens naturellement liées au problème d'adaptation optimale de maillage? III. Ce problème d'optimisation, qui porte sur les triangulations de cardinalité donnée N, peut-il être remplacé par un problème équivalent portant sur un objet continu? IV. Est-il possible de construire une suite quasi-optimale de triangulations en utilisant une procédure hiérarchique de raffinement?
13

Modélisation des architectures à renforcement tridimensionnel dans les structures composites / Architectures modeling for three-dimensional reinforcement in the composites structures

Ha, Manh Hung 19 December 2013 (has links)
Ces travaux se placent dans le cadre de l'étude des propriétés mécaniques des architectures à renforcement tridimensionnel dans les structures composites. Nous proposons une approche permettant de caractériser les propriétés mécaniques de structures composites Interlock et en particulier de résoudre les problèmes liés à la création de ces géométries complexes et leur discrétisation.Une des difficultés des approches méso-macro réside dans la manière de reproduire de façon fidèle la géométrie de ces architectures aux formes très complexes et d'obtenir en particulier un Volume Elémentaire Représentatif (VER) duquel on peut déduire par calcul éléments finis les propriétés mécaniques par homogénéisation. Cette pluralité des formes engendre des difficultés de mise en œuvre essentiellement géométriques et des difficultés de maillage bien connues : interpénétration et contact des mèches, maillage de fines couches de résines aux interfaces, détermination en tout point de l'orientation des fibres. Nous proposons une approche qui consiste à créer un modèle géométrique des mèches limitant ou contrôlant les intersections et les contacts, à définir un VER périodique et à mailler ce VER en tétraèdres avec des maillages conformes aux interfaces. Une fois le modèle maillé obtenu et les conditions de périodicités définies, les propriétés mécaniques effectives sont obtenues par homogénéisation. Les calculs par éléments finis sont réalisés avec le logiciel ABAQUS. Les tissages complexes ont été traités automatiquement avec cette technique. Les résultats sont confrontés à ceux d’autres modélisations, issus de la littérature et de l’expérience. / The work proposed here is devoted to the prediction and the characterization of the mechanical behavior of interlock woven composite structures. We propose an approach to characterize the mechanical properties of interlock woven composite structures and particularly to solve the problems associated with the creation of these complex geometries and their discretization into a conform mesh. One of the difficulties of this meso-macro approach is to reproduce faithfully the geometry of these architectures with complex shapes and to obtain a Representative Volume Element (RVE). Once this complex step is achieved, the mechanical properties of the composite can be thereafter obtained by homogenization from a finite element analysis. The difficulties to generate a RVE of such structures are well known: interpenetration and contacts between yarns, meshing of thin resin layers at interfaces, determination of the orientation of the fibers at all points of the structure. We propose an approach which consists of creating a geometric model of the yarns limiting or controlling the intersections and the contacts, defining a periodic RVE, meshing this RVE by tetrahedral with compatible meshes at the interfaces. Once the model is meshed and the symmetry conditions are defined, the properties are obtained by homogenization. The finite element calculations are performed on the ABAQUS software. Complex weaves can be automatically processed with this technique. The results are compared whit other modeling from the literature and with experimental data.
14

Delaunay-admissiblité en dimensions 2 et 3

Pébay, Philippe 14 June 2000 (has links) (PDF)
La méthode des éléments finis, largement utilisée en analyse numérique, requiert que le domaine considéré soit préalablement maillé, c'est-à-dire partitionné en un ensemble de polytopes généralement, mais pas nécessairement, simpliciaux. Parmi les méthodes permettant la génération de tels maillages, la triangulation de Delaunay présente le double intérêt d'avoir un support théorique fondant la robustesse des algorithmes, ainsi que de produire des éléments de qualité, conditionnant fortement la précision des calculs ultérieurs. Elle présente cependant l'inconvénient de ne pas être à même de prendre en compte des considérations topologiques, lui interdisant de facto d'être utilisée en l'état pour produire des maillages. Un certain nombre de méthodes ont été proposées pour tenter de résoudre ce problème, mais aucune ne constitue une solution générale. Par ailleurs, les maillages qu'elles restituent ne possèdent plus la propriété de Delaunay. Ce travail étudie les conditions dans lesquelles une contrainte, en dimensions 2 et 3, apparaîtra dans toute triangulation de Delaunay du nuage de points auquel elle est associée. En particulier, des théorèmes de Delaunay-admissibilité a priori sont établis. A l'aide de ces résultats, des algorithmes de redéfinition de contraintes sont proposés, de telle sorte que les nouvelles discrétisations, recouvrements des anciennes, soient construites par toute triangulation de Delaunay. Ainsi, les contraintes étant satisfaites automatiquement, aucune opération de forçage a posteriori n'est requise, et les maillages produits sont de Delaunay. En raison du coût prohibitif de la convergence en dimension 3, deux algorithmes efficaces sont proposés, sans qu'aucune conjecture sur leur convergence ne soit formulée. A titre d'application de la méthode en dimension 3, l'interfaçage avec un mailleur de Delaunay contraint existant est étudié. En particulier, la pertinence de la méthode est illustrée grâce au déblocage d'une configuration que ce mailleur ne parvient pas à résoudre. D'autres applications possibles, ainsi que les développements en cours sont également évoqués.
15

Plant canopy modeling from Terrestrial LiDAR System distance and intensity data / Modélisation géométrique de la canopée des plantes à partir des données d'intensité et de distance fournies par un Système LiDAR Terrestre

Balduzzi, Mathilde 24 November 2014 (has links)
Le défi de cette thèse est de reconstruire la géométrie 3D de la végétation à partir des données de distance et d'intensité fournies par un scanner de type LiDAR. Une méthode de « shape-from-shading » par propagation est développée pour être combinée avec une méthode de fusion de données type filtre de Kalman pour la reconstruction optimale des surfaces foliaires.-Introduction-L'analyse des données LiDAR nous permet de dire que la qualité du nuage de point est variable en fonction de la configuration de la mesure : lorsque le LiDAR mesure le bord d'une surface ou une surface fortement inclinée, il intègre dans sa mesure une partie de l'arrière plan. Ces configurations de mesures produisent des points aberrants. On retrouve souvent ce type de configuration pour la mesure de feuillages puisque ces derniers ont des géométries fragmentées et variables. Les scans sont en général de mauvaise qualité et la quantité d'objets présents dans le scan rend la suppression manuelle des points aberrants fastidieuse. L'objectif de cette thèse est de développer une méthodologie permettant d'intégrer les données d'intensité LiDAR aux distances pour corriger automatiquement ces points aberrants. -Shape-From-Shading-Le principe du Shape-From-Shading (SFS) est de retrouver les valeurs de distance à partir des intensités d'un objet pris en photo. La caméra (capteur LiDAR) et la source de lumière (laser LiDAR) ont la même direction et sont placés à l'infini relativement à la surface, ce qui rend l'effet de la distance sur l'intensité négligeable et l'hypothèse d'une caméra orthographique valide. En outre, la relation entre angle d'incidence lumière/surface et intensité est connue. Par la nature des données LiDAR, nous pourrons choisir la meilleure donnée entre distance et intensité à utiliser pour la reconstruction des surfaces foliaires. Nous mettons en place un algorithme de SFS par propagation le long des régions iso-intenses pour pouvoir intégrer la correction de la distance grâce à l'intensité via un filtre de type Kalman. -Design mathématique de la méthode-Les morceaux de surface correspondant aux régions iso-intenses sont des morceaux de surfaces dites d'égales pentes, ou de tas de sable. Nous allons utiliser ce type de surface pour reconstruire la géométrie 3D correspondant aux images d'intensité.Nous démontrons qu'à partir de la connaissance de la 3D d'un bord d'une région iso-intense, nous pouvons retrouver des surfaces paramétriques correspondant à la région iso-intense qui correspondent aux surfaces de tas de sable. L'initialisation de la région iso-intense initiale (graine de propagation) se fait grâce aux données de distance LiDAR. Les lignes de plus grandes pentes de ces surfaces sont générées. Par propagation de ces lignes (et donc génération du morceau de la surface en tas de sable), nous déterminons l'autre bord de la région iso-intense. Puis, par itération, nous propagerons la reconstruction de la surface. -Filtre de Kalman-Nous pouvons considérer cette propagation des lignes de plus grande pente comme étant le calcul d'une trajectoire sur la surface à reconstruire. Dans le cadre de notre étude, la donnée de distance est toujours disponible (données du scanner 3D). Ainsi il est possible de choisir, lors de la propagation, quelle donnée (distance ou intensité) utiliser pour la reconstruction. Ceci peut être fait notamment grâce à une fusion de type Kalman. -Algorithme-Pour procéder à la reconstruction par propagation, il est nécessaire d'hiérarchiser les domaines iso-intenses de l'image. Une fois que les graines de propagation sont repérées, elles sont initialisées avec l'image des distances. Enfin, pour chacun des nœuds de la hiérarchie (représentant un domaine iso-intense), la reconstruction d'un tas de sable est faite. C'est lors de cette dernière étape qu'une fusion de type Kalman peut être introduite. / The challenge of this thesis is reconstruct the 3D geometry of vegetation from distance and intensity data provided by a 3D scanner LiDAR. A method of “Shape-From-Shading” by propagation is developed to be combined with a fusion method of type “Kalman” to get an optimal reconstruction of the leaves. -Introduction-The LiDAR data analysis shows that the point cloud quality is variable. This quality depends upon the measurement set up. When the LiDAR laser beam reaches the edge of a surface (or a steeply inclined surface), it also integrate background measurement. Those set up produce outliers. This kind of set up is common for foliage measurement as foliages have in general fragmented and complex shape. LiDAR data are of bad quality and the quantity of leaves in a scan makes the correction of outliers fastidious. This thesis goal is to develop a methodology to allow us to integrate the LiDAR intensity data to the distance to make an automatic correction of those outliers. -Shape-from-shading-The Shape-from-shading principle is to reconstruct the distance values from intensities of a photographed object. The camera (LiDAR sensor) and the light source (LiDAR laser) have the same direction and are placed at infinity relatively to the surface. This makes the distance effect on intensity negligible and the hypothesis of an orthographic camera valid. In addition, the relationship between the incident angle light beam and intensity is known. Thanks to the LiDAR data analysis, we are able to choose the best data between distance and intensity in the scope of leaves reconstruction. An algorithm of propagation SFS along iso-intense regions is developed. This type of algorithm allows us to integrate a fusion method of type Kalman. -Mathematical design of the method-The patches of the surface corresponding to the iso-intense regions are patches of surfaces called the constant slope surfaces, or sand-pile surfaces. We are going to use those surfaces to rebuild the 3D geometry corresponding to the scanned surfaces. We show that from the knowledge of the 3d of an iso-intensity region, we can construct those sand-pile surfaces. The initialization of the first iso-intense regions contour (propagation seeds) is done with the 3D LiDAR data. The greatest slope lines of those surfaces are generated. Thanks to the propagation of those lines (and thus of the corresponding sand-pile surface), we build the other contour of the iso-intense region. Then, we propagate the reconstruction iteratively. -Kalman filter-We can consider this propagation as being the computation of a trajectory on the reconstructed surface. In our study framework, the distance data is always available (3D scanner data). It is thus possible to choose which data (intensity vs distance) is the best to reconstruct the object surface. This can be done with a fusion of type Kalman filter. -Algorithm-To proceed a reconstruction by propagation, it is necessary to order the iso-intensity regions. Once the propagation seeds are found, they are initialized with the distances provided by the LiDAR. For each nodes of the hierarchy (corresponding to an iso-intensity region), the sand-pile surface reconstruction is done. -Manuscript-The thesis manuscript gathers five chapters. First, we give a short description of the LiDAR technology and an overview of the traditional 3D surface reconstruction from point cloud. Then we make a state-of-art of the shape-from –shading methods. LiDAR intensity is studied in a third chapter to define the strategy of distance effect correction and to set up the incidence angle vs intensity relationship. A fourth chapter gives the principal results of this thesis. It gathers the theoretical approach of the SFS algorithm developed in this thesis. We will provide its description and results when applied to synthetic images. Finally, a last chapter introduces results of leaves reconstruction.
16

High Performance Computational Fluid Dynamics on Clusters and Clouds : the ADAPT Experience / Haute performance pour le calcul de la fluide dynamique sur les clusters et les clouds : l’expérience ADAPT

Kissami, Imad 28 February 2017 (has links)
Dans cette thèse, nous présentons notre travail de recherche dans le domaine du calcul haute performance en mécanique des fluides (CFD) pour architectures de type cluster et cloud. De manière générale, nous nous proposons de développer un solveur efficace, appelé ADAPT, pour la résolution de problèmes de CFD selon une vue classique correspondant à des développements en MPI et selon une vue qui nous amène à représenter ADAPT comme un graphe de tâches destinées à être ordonnancées sur une plateforme de type cloud computing. Comme première contribution, nous proposons une parallélisation de l’équation de diffusion-convection couplée àun système linéaire en 2D et en 3D à l’aide de MPI. Une parallélisation à deux niveaux est utilisée dans notre implémentation pour exploiter au mieux les capacités des machines multi-coeurs. Nous obtenons une distribution équilibrée de la charge de calcul en utilisant la décomposition du domaine à l’aide de METIS, ainsi qu’une résolution pertinente de notre système linéaire creux de très grande taille en utilisant le solveur parallèle MUMPS (Solveur MUltifrontal Massivement Parallèle). Notre deuxième contribution illustre comment imaginer la plateforme ADAPT, telle que représentée dans la premièrecontribution, comme un service. Nous transformons le framework ADAPT (en fait, une partie du framework)en DAG (Direct Acyclic Graph) pour le voir comme un workflow scientifique. Ensuite, nous introduisons de nouvelles politiques à l’intérieur du moteur de workflow RedisDG, afin de planifier les tâches du DAG, de manière opportuniste.Nous introduisons dans RedisDG la possibilité de travailler avec des machines dynamiques (elles peuvent quitter ou entrer dans le système de calcul comme elles veulent) et une approche multi-critères pour décider de la “meilleure”machine à choisir afin d’exécuter une tâche. Des expériences sont menées sur le workflow ADAPT pour illustrer l’efficacité de l’ordonnancement et des décisions d’ordonnancement dans le nouveau RedisDG. / In this thesis, we present our research work in the field of high performance computing in fluid mechanics (CFD) for cluster and cloud architectures. In general, we propose to develop an efficient solver, called ADAPT, for problemsolving of CFDs in a classic view corresponding to developments in MPI and in a view that leads us to represent ADAPT as a graph of tasks intended to be ordered on a cloud computing platform. As a first contribution, we propose a parallelization of the diffusion-convection equation coupled to a linear systemin 2D and 3D using MPI. A two-level parallelization is used in our a implementation to take advantage of thecurrent distributed multicore machines. A balanced distribution of the computational load is obtained by using the decomposition of the domain using METIS, as well as a relevant resolution of our very large linear system using the parallel solver MUMPS (Massive Parallel MUltifrontal Solver). Our second contribution illustrates how to imagine the ADAPT framework, as depicted in the first contribution, as a Service. We transform the framework (in fact, a part of the framework) as a DAG (Direct Acyclic Graph) in order to see it as a scientific workflow. Then we introduce new policies inside the RedisDG workflow engine, in order to schedule tasks of the DAG, in an opportunistic manner. We introduce into RedisDG the possibility to work with dynamic workers (they can leave or enter into the computing system as they want) and a multi-criteria approach to decide on the “best” worker to choose to execute a task. Experiments are conducted on the ADAPT workflow to exemplify howfine is the scheduling and the scheduling decisions into the new RedisDG.
17

Progressive and Random Accessible Mesh Compression / Compression Progressive et avec Accès Aléatoire de Maillages

Maglo, Adrien, Enam 10 July 2013 (has links)
Les travaux de l'état de l'art en compression progressive de maillages se sont concentrés sur les maillages triangulaires. Mais les maillages contenant d'autres types de faces sont aussi couramment utilisés. Nous proposons donc une nouvelle méthode de compression progressive qui peut efficacement encoder des maillages polygonaux. Ce nouvel algorithme atteint un niveau de performance comparable aux algorithmes dédiés aux maillages triangulaires. La compression progressive est liée à la décimation de maillages car ces deux applications génèrent des niveaux de détail. Par conséquent, nous proposons une nouvelle métrique volumique simple pour guider la décimation de maillages polygonaux. Nous montrons ensuite que les possibilités offertes par les algorithmes de compression progressive peuvent être exploitées pour adapter les données 3D en proposant un nouveau cadre applicatif pour la visualisation scientifique distante. Les algorithmes de compression progressive avec accès aléatoire peuvent mieux adapter les données 3D aux différentes contraintes en prenant en compte les régions d'intérêt de l'utilisateur. Notre premier algorithme de ce type est basé sur une segmentation préliminaire du maillage d'entrée. Chaque grappe est ensuite compressée de manière indépendante par un algorithme progressif. Notre second algorithme est basé sur le groupement hiérarchique des sommets obtenu par la décimation. Cette seconde méthode offre une forte granularité d'accès aléatoire et génère des maillages décompressés en une pièce avec des transitions lisses entre les parties décompressées à différents niveaux de détail. Des résultats expérimentaux démontrent l'efficacité des deux approches. / Previous work on progressive mesh compression focused on triangle meshes but meshes containing other types of faces are commonly used. Therefore, we propose a new progressive mesh compression method that can efficiently compress meshes with arbitrary face degrees. Its compression performance is competitive with approaches dedicated to progressive triangle mesh compression. Progressive mesh compression is linked to mesh decimation because both applications generate levels of detail. Consequently, we propose a new simple volume metric to drive the polygon mesh decimation. We apply this metric to the progressive compression and the simplification of polygon meshes. We then show that the features offered by progressive mesh compression algorithms can be exploited for 3D adaptation by the proposition of a new framework for remote scientific visualization. Progressive random accessible mesh compression schemes can better adapt 3D mesh data to the various constraints by taking into account regions of interest. So, we propose two new progressive random-accessible algorithms. The first one is based on the initial segmentation of the input model. Each generated cluster is compressed independently with a progressive algorithm. The second one is based on the hierarchical grouping of vertices obtained by the decimation. The advantage of this second method is that it offers a high random accessibility granularity and generates one-piece decompressed meshes with smooth transitions between parts decompressed at low and high levels of detail. Experimental results demonstrate the compression and adaptation efficiency of both approaches.
18

Tatouage 3D robuste / Robust 3D watermarking

Rolland-Nevière, Xavier 12 November 2014 (has links)
Les modèles 3D sont des contenus précieux très utilisés dans l'industrie, et donc la cible potentielle de piratages. Le tatouage robuste pour les maillages 3D apporte une réponse au problème du traçage de traître. Dans l'état de l'art du domaine, la couche d'adaptation du contenu en particulier est testée face des attaques standards. Une approche robuste à la pose est alors étudiée. Elle utilise une estimation robuste de l'épaisseur, définie comme la distance un nuage de points construits à partir de mesures du diamètre. Les performances expérimentales montrent qu'elle forme un point de départ prometteur pour le tatouage robuste de maillages 3D posés. Pour les maillages statiques, la modulation des distances radiales est une approche efficace du tatouage. Elle a été formulée comme un problème d'optimisation quadratique sous contrainte, dont nous proposons plusieurs extensions : une transformée par étalement, des primitives de référence calculées de manière intégrale, des directions de déplacement arbitraires, et de nouvelles métriques pour minimiser la distorsion perçue par un utilisateur. Des expériences illustrent leurs bénéfices pour le compromis entre la robustesse et la fidélité du tatouage. La sécurité est analysée par l'intermédiaire de deux mécanismes de protection et par une série d'attaques et de contre-Mesures. Un système de resynchronisation est intégré afin d'améliorer la résistance au rognage. Des points de recalage sont insérés dans une configuration spécifique qui porte les informations habituellement éliminées par l'attaque. Au décodage, elles sont récupérées de manière aveugle. Un gain significatif des performances est mesuré expérimentalement. / 3D models are valuable assets widely used in the industry and likely to face piracy issues. This dissertation deals with robust mesh watermarking that is used for traitor-Tracing. Following a review of state-Of-The-Art 3D watermarking systems, the robustness of several content adaptation transforms are benchmarked. An embedding domain robust against pose is investigated, with a thickness estimation based on a robust distance function to a point cloud constructed from some mesh diameters. A benchmark showcases the performance of this domain that provides a basis for robust watermarking in 3D animations. For static meshes, modulating the radial distances is an efficient approach to watermarking. It has been formulated as a quadratic programming problem minimizing the geometric distortion while embedding the payload in the radial distances. This formulation is leveraged to create a robust watermarking framework, with the integration of the spread-Transform, integral reference primitives, arbitrarily selected relocation directions and alternate metrics to minimize the distortion perceived. Benchmarking results showcase the benefits of these add-Ons w.r.t the fidelity vs. robustness watermarking trade-Off. The watermark security is then investigated with two obfuscation mechanisms and a series of attacks that highlight the remaining limitations. A resynchronization approach is finally integrated to deal with cropping attacks. The resynchronization embeds land-Marks in a configuration that conveys synchronization information that will be lost after cropping. During the decoding, this information is blindly retrieved and significant robustness improvements are achieved.
19

Numerical methods and mesh adaptation for reliable rans simulations / Méthodes numériques et adaptation de maillage pour des simulations rans fiables

Menier, Victorien 23 November 2015 (has links)
Cette thèse porte sur la prédiction haute-fidélité de phénomènes visqueux turbulents modélisés par les équations Reynolds-Averaged Navier-Stokes (RANS). Si l’adaptation de maillage a été appliquée avec succès aux simulations non-visqueuses comme la prédiction du bang sonique ou la propagation d’explosion, prouver que ces méthodes s’étendent et s’appliquent également aux simulations RANS avec le même succès reste un problème ouvert. Dans ce contexte, cette thèse traite des problématiques relatives aux méthodes numériques (solveur de mécanique des fluides) et aux stratégies d’adaptation de maillage. Pour les méthodes numériques, nous avons implémenté un modèle de turbulence dans notre solveur et nous avons conduit une étude de vérification et validation en deux et trois dimensions avec comparaisons à l’expérience. Des bons résultats ont été obtenus sur un ensemble de cas tests, notamment sur le calcul de la traînée pour des géométries complexes. Nous avons également amélioré la robustesse et la rapidité de convergence du solveur, grâce à une intégration en temps implicite, et grâce à une procédure d’accélération multigrille. En ce qui concerne les stratégies d’adaptation de maillage, nous avons couplé les méthodes multigrilles à la boucle d’adaptation dans le but de bénéficier des propriétés de convergence du multigrille, et ainsi, améliorer la robustesse du processus et le temps CPU des simulations. Nous avons également développé un algorithme de génération de maillage en parallèle. Celui-ci permet de générer des maillages anisotropes adaptés d’un milliard d’éléments en moins de 20 minutes sur 120 coeurs de calcul. Enfin, nous avons proposé une procédure pour générer automatiquement des maillages anisotropes adaptés quasi-structurés pour les couches limites. / This thesis deals with the high-fidelity prediction of viscous turbulent flows modelized by the Reynolds-Averaged Navier-Stokes (RANS) equations. If mesh adaptation has been successfully applied to inviscid simulations like the sonic boom prediction or the blast propagation, demonstrating that these methods are also well-suited for 3D RANS simulations remains a challenge. This thesis addresses research issues that arise in this context, which are related to both numerical methods (flow solver) and mesh adaptation strategies. For the numerical methods, we have implemented a turbulence model in our in-house flow solver and carried out its verification & validation study. Accurate results were obtained for a representative set of test cases, including the drag prediction workshop. Additional developments have been done to improve the robustness and the convergence speed of the flow solver. They include the implementation of an implicit time integration and of a multigrid acceleration procedure. As regards mesh adaptation, we have coupled the adaptive process to multigrid in order to benefit from its convergence properties and thus improve the robustness while preventing losses of computational effort. We also have devised a parallel mesh generation algorithm. We are able to generate anisotropic adapted meshes containing around one billion elements in less than 20min on 120 cores. Finally, we introduced a procedure to automatically generate anisotropic adapted quasi-structured meshes in boundary layer regions.
20

Simulation des effets de détérioration de surfaces rigides pour un rendu réaliste

Paquette, Éric January 2002 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0418 seconds