• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 8
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation des calottes polaires par des formulations multi-modèles

Seroussi, Hélène 22 December 2011 (has links) (PDF)
La modélisation numérique des écoulements de glace est indispensable pour prédire l'évolution des calottes polaires suite au réchauffement climatique. De récentes études ont souligné l'importance des modèles d'écoulement dits d'ordre supérieur voir même de Stokes au lieu de la traditionnelle approximation de couche mince dont les hypothèses ne sont pas valables dans certaines zones critiques mais à l'étendue limitée. Cependant, ces modèles d'ordre supérieur sont difficiles à utiliser à l'échelle d'un continent en raison de leurs temps de calculs prohibitifs. Ce travail de thèse propose une nouvelle technique qui permet de réduire les temps de calculs tout en maximisant la précision des modèles. Plusieurs modèles d'écoulement de glace de complexité variables ont été mis en place dans ISSM (Ice Sheet System Model), un code élément fini massivement parallèle développé par le Jet Propulsion Laboratory. L'analyse et la comparaison des différents modèles, à la fois sur des cas théoriques et réels, montrent que l'utilisation des modéles les plus complets est principalement nécessaire au voisinage de la zone d'échouage, transition entre les parties flottantes et posées de la glace, mais aussi que des modèles plus simples peuvent être utilisés sur la majeure partie des glaciers. Coupler différents modèles présente donc un avantage significatif en terme de temps de calcul mais aussi d'amélioration de la physique utilisées dans les modèles. Plusieurs méthodes de couplage de modèles existent et sont présentées dans ce manuscrit. Une nouvelle technique, dite de tuilage, particulièrement adaptée au couplage de modèles d'écoulement de glace est décrite ici : son principe repose sur la superposition et le raccordement de plusieurs modèles mécaniques. Une analyse mathématique est effectuée afin de définir les conditions d'utilisation de cette méthode de tuilage. Le traitement du couplage entre un modèle de Stokes et des modèles simplifiés, pour lesquels le calcul des vitesses horizontales et verticales est découplé, est ensuite présenté. Cette technique a été mise en place dans ISSM afin de pouvoir créer des modèles hybrides combinant plusieurs modèles d'écoulement de complexité variable. Après avoir été validée sur des cas synthétiques, cette technique est utilisée sur des glaciers réels comme Pine Island Glacier, dans l'Antarctique de l'Ouest, afin d'illustrer sa pertinence. Les modèles hybrides ont le potentiel d'améliorer la précision des résultats en combinant différents modèles mécaniques, utilisés chacun dans les zones où leurs approximations sont valides, tout en réduisant les temps de calcul et en étant compatibles avec les ressources informatiques actuelles.
2

Modélisation des calottes polaires par des formulations multi-modèles, / Modeling ice flow dynamics with advanced multi-model formulations

Seroussi, Hélène 22 December 2011 (has links)
La modélisation numérique des écoulements de glace est indispensable pour prédire l’évolution des calottes polaires suite au réchauffement climatique. De récentes études ont souligné l’importance des modèles d’écoulement dits d’ordre supérieur voir même de Stokes au lieu de la traditionnelle approximation de couche mince dont les hypothèses ne sont pas valables dans certaines zones critiques mais à l’étendue limitée. Cependant, ces modèles d’ordre supérieur sont difficiles à utiliser à l’échelle d’un continent en raison de leurs temps de calculs prohibitifs. Ce travail de thèse propose une nouvelle technique qui permet de réduire les temps de calculs tout en maximisant la précision des modèles. Plusieurs modèles d’écoulement de glace de complexité variables ont été mis en place dans ISSM (Ice Sheet System Model), un code élément fini massivement parallèle développé par le Jet Propulsion Laboratory. L’analyse et la comparaison des différents modèles, à la fois sur des cas théoriques et réels, montrent que l’utilisation des modéles les plus complets est principalement nécessaire au voisinage de la zone d’échouage, transition entre les parties flottantes et posées de la glace, mais aussi que des modèles plus simples peuvent être utilisés sur la majeure partie des glaciers. Coupler différents modèles présente donc un avantage significatif en terme de temps de calcul mais aussi d’amélioration de la physique utilisées dans les modèles. Plusieurs méthodes de couplage de modèles existent et sont présentées dans ce manuscrit. Une nouvelle technique, dite de tuilage, particulièrement adaptée au couplage de modèles d’écoulement de glace est décrite ici : son principe repose sur la superposition et le raccordement de plusieurs modèles mécaniques. Une analyse mathématique est effectuée afin de définir les conditions d’utilisation de cette méthode de tuilage. Le traitement du couplage entre un modèle de Stokes et des modèles simplifiés, pour lesquels le calcul des vitesses horizontales et verticales est découplé, est ensuite présenté. Cette technique a été mise en place dans ISSM afin de pouvoir créer des modèles hybrides combinant plusieurs modèles d’écoulement de complexité variable. Après avoir été validée sur des cas synthétiques, cette technique est utilisée sur des glaciers réels comme Pine Island Glacier, dans l’Antarctique de l’Ouest, afin d’illustrer sa pertinence. Les modèles hybrides ont le potentiel d’améliorer la précision des résultats en combinant différents modèles mécaniques, utilisés chacun dans les zones où leurs approximations sont valides, tout en réduisant les temps de calcul et en étant compatibles avec les ressources informatiques actuelles. / Ice flow numerical models are essential for predicting the evolution of ice sheets in a warming climate. Recent research emphasizes the need for higher-order and even full-Stokes flow models instead of the traditional Shallow-Ice Approximation whose assumptions are not valid in certain critical but spatially limited areas. These higher-order models are however computationally intensive and difficult to use at the continental scale. The purpose of this work, therefore, is to develop a new technique that reduces the computational cost of ice flow models while maximizing their accuracy. To this end, several ice flow models of varying order of complexity have been implemented in the Ice Sheet System Model, a massively parallelized finite element software developed at the Jet Propulsion Laboratory. Analysis and comparison of model results on both synthetic and real geometries shows that sophisticated models are only needed in the grounding line area, transition between grounded and floating ice, whereas simpler models yield accurate results in most of the model domain. There is therefore a strong need for coupling such models in order to balance computational cost and physical accuracy. Several techniques and frameworks dedicated to model coupling already exist and are investigated. A new technique adapted to the specificities of ice flow models is developed: the Tiling method, a multi-model computation strategy based on the superposition and linking of different numerical models. A mathematical analysis of a mixed Tiling formulation is first performed to define the conditions of application. The treatment of the junction between full-Stokes and simpler models that decouple horizontal and vertical equation is then elaborated in order to rigorously combine all velocity components. This method is finally implemented in the Ice Sheet System Model to design hybrid models that combine several ice flow approximations of varying order of complexity. Following a validation on synthetic geometries, this method is applied to real cases, such as Pine Island Glacier, in West Antarctica, to illustrate its relevance. Hybrid models have the potential to significantly improve physical accuracy by combining models in their domain of validity, while preserving the computational cost and being compatible with the actual computational resources.
3

Detection of linear algebra operations in polyhedral programs / Reconnaissance d'opérations d'algèbre linéaire dans un programme polyédrique

Iooss, Guillaume 01 July 2016 (has links)
Durant ces dernières années, Il est de plus en plus compliqué d'écrire du code qui utilise une architecture au mieux de ses capacités. Certaines opérations clefs ont soit un accélérateur dédié, ou admettent une implémentation finement optimisée qui délivre les meilleurs performances. Ainsi, il est intéressant d'identifier ces opérations pendant la compilation d'un programme, et de faire appel à une implémentation optimisée.Nous nous intéressons dans cette thèse au problème de détection de ces opérations. Nous proposons un procédé qui détecte des sous-calculs correspondant à des opérations d'algèbre linéaire à l'intérieur de programmes polyédriques. L'idée principale de ce procédé est de découper le programme en sous-calculs isolés, et essayer de reconnaître chaque sous-calculs comme une combinaison d'opérateurs d'algèbre linéaire.Le découpage du calcul est effectué en utilisant une transformation de programme appelée tuilage monoparamétrique. Cette transformation partitionne le calcul en tuiles dont la forme est un agrandissement paramétrique d'une tuile de taille constante. Nous montrons que le programme tuilé reste polyédrique tout en permettant une paramétrisation limitée des tailles de tuile. Les travaux précédents sur le tuilage nous forçaient à choisir l'une de ces deux propriétés.Ensuite, afin d'identifier les opérateurs, nous introduisons un algorithme de reconnaissance de template, qui est une extension d'un algorithme d'équivalence de programme. Nous proposons plusieurs extensions afin de tenir compte des propriétés sémantiques communément rencontrées en algèbre linéaire.Enfin, nous combinons les deux contributions précédentes en un procédé qui détecte les sous-calculs correspondant à des opérateurs d'algèbre linéaire. Une de ses composantes est une librairie de template, inspirée de la spécification BLAS. Nous démontrons l'efficacité de notre procédé sur plusieurs applications. / Writing a code which uses an architecture at its full capability has become an increasingly difficult problem over the last years. For some key operations, a dedicated accelerator or a finely tuned implementation exists and delivers the best performance. Thus, when compiling a code, identifying these operations and issuing calls to their high-performance implementation is attractive. In this dissertation, we focus on the problem of detection of these operations. We propose a framework which detects linear algebra subcomputations within a polyhedral program. The main idea of this framework is to partition the computation in order to isolate different subcomputations in a regular manner, then we consider each portion of the computation and try to recognize it as a combination of linear algebra operations.We perform the partitioning of the computation by using a program transformation called monoparametric tiling. This transformation partitions the computation into blocks, whose shape is some homothetic scaling of a fixed-size partitioning. We show that the tiled program remains polyhedral while allowing a limited amount of parametrization: a single size parameter. This is an improvement compared to the previous work on tiling, that forced us to choose between these two properties.Then, in order to recognize computations, we introduce a template recognition algorithm. This template recognition algorithm is built on a state-of-the-art program equivalence algorithm. We also propose several extensions in order to manage some semantic properties.Finally, we combine these two previous contributions into a framework which detects linear algebra subcomputations. A part of this framework is a library of template, based on the BLAS specification. We demonstrate our framework on several applications.
4

Impact du liant sur le comportement structurel des matériaux cimentaires fluides : Mécanismes et modélisation / Binder’s impact on the structural behavior of fluid cementitious materials : Mechanisms and modeling

Jaafri, Reda 19 October 2018 (has links)
Le séchage des matériaux cimentaires et le retrait induit ont des conséquences majeures sur le comportement structurel des dalles et chapes. Le retrait empêché est une des principales causes de la fissuration de ces ouvrages. En sus, si le séchage est unidirectionnel, le retrait différentiel favorise le tuilage qui traduit le soulèvement des coins et des bords des dalles minces. Afin de mieux cerner les phénomènes induits par les gradients d’humidité relative interne, des études expérimentales et numériques ont été menées conjointement, et de nouveaux dispositifs expérimentaux ont été développés. On montre que l’évolution du tuilage dépend principalement de la progression du front de séchage. L’influence prédominante du séchage impose donc de recourir à une cure adaptée. Grâce à sa forte capacité de rétention d’eau, une étude systématique a été conduite sur la chaux en vue d’étudier son potentiel effet de cure. La chaux hydraulique a permis, par son influence sur la microstructure et son effet de cure, de retarder et réduire le tuilage. Sur la base des résultats expérimentaux, deux approches différentes de modélisation du tuilage ont été développées : i/ un modèle analytique continu, et ii/ une modélisation par éléments discrets. Les calculs montrent que des retraits plus importants apparaissent en surface et entraînent une microfissuration qui permet de relaxer les contraintes internes. La chaux semble conduire à une profondeur d’endommagement plus importante, ce qui explique en partie son effet sur l’amplitude du tuilage. L’approche par éléments discrets est capable de reproduire l’évolution du tuilage aussi bien en cinétique qu’en amplitude à partir des seules mesures du retrait différentiel. La chaux s’est aussi révélée bénéfique quand elle est incorporée dans les bétons autoplaçants en agissant à la fois sur le retrait et sur les propriétés viscoélastiques. / Drying of cementitious materials and the induced shrinkage have major consequences on the structural behavior of slabs and screeds. The restrained shrinkage is one of the main causes of cracking. In addition, if the drying is unidirectional, the differential shrinkage leads to curling which is defined as the lifting of the corners and the edges of thin slabs.To understand the phenomena induced by internal relative humidity gradients, experimental and numerical studies have been jointly conducted, and new experimental devices have been developed. It is shown that the evolution of curling mainly depends on the progression of the drying front. The predominant influence of drying therefore requires the use of a suitable method for curing. Thanks to its high water retention capacity, a systematic study has been conducted on lime in order to study its potential curing effect. The hydraulic lime, through its influence on the microstructure and its curing effect, delayed and reduced curling. Based on the experimental results, two different approaches have been developed to model the curling of slabs: i / a continuous analytical model,and ii / a discrete element model. Calculations show that higher shrinkage appears on the surface and causes microcracking that may relax internal stresses. The lime seems to lead to a greater depth of damage, which partly explains its effect on the curling amplitude. The discrete element approach is able to reproduce the evolution of curling both in terms of kinetics and amplitude from the sole measurements of differential shrinkage. Lime is also shown to be beneficial when incorporated into self compacting concretes by acting on both shrinkage and viscoelastic properties.
5

Improving tiling, reducing compilation time, and extending the scope of polyhedral compilation / Amélioration du tuilage, réduction du temps de compilation, et extension de l'utilisabilité de la compilation polyédrique

Baghdadi, Mohamed Riyadh 25 September 2015 (has links)
Les processeurs multi-coeurs sont maintenant largement utilisés presque partout en informatique: ordinateurs de bureau, ordinateurs portables et accélérateurs tels que les GPGPU (General Purpose Graphics Processing Units). La difficulté de la programmation des systèmes parallèles est considérée comme un problème majeur qui va empêcher l'exploitation de leurs capacités dans le futur. Pour exploiter la puissance des processeurs multi-coeurs et les hiérarchies complexes de mémoire, il y a une grande nécessité pour utiliser des outils de parallélisation et d'optimisation automatique de code. L'optimisation polyédrique est un axe de recherche qui a comme but de résoudre ces problèmes. C'est est une représentation algébrique du programme et un ensemble d'analyses, de transformations et d'algorithmes de génération de code qui permettent à un compilateur de raisonner sur des transformations avancées de nids de boucle. Dans cette thèse, nous abordons certaines des limites du modèle polyédrique. Nous nous intéréssons particulièrement à trois problèmes et nous proposons des solutions pratiques à ces trois problèmes. Le premier problème est lié à la capacité d'appliquer l'optimisation de tuilage sur un code qui contient des fausses dépendances. Nous proposons une téchnique qui permet d'ignorer certaines fausses dépendences et donc qui permet d'appliquer l'optimisation de tuilage qui n'est pas possible sinon. Le second problème est lié au temps de compilation qui peut être trés long pour certains programmes. Nous proposons une téchnique qui transforme la représentation originale du programme à une nouvelle representation dans laquelle il y a moins d'instructions. L'optimisation de cette nouvelle représentation du programme est moins couteuse en terme de temps de compilation en comparaison avec l'optimisation de la représentation originale du programme. Le troisième problème est lié à deux limites: la première limite concerne la possibilité d'utiliser la compilation polyédrique sur des programmes qui ne resepectent pas les restrictions classiques du modèle polyédrique (un programme peut être représenté de façon précise dans le modèle polyédrique s'il ne contient pas des conditionnelles non-affines, des bornes de boucles non-affines et des accés non-affines). La seconde limite est liée à l'aptitude des outils à générer un code performant dans les performances se rapprochent des performances du code écrit à la main. Pour éviter ces deux limites, nous proposons un language de programmation que l'on appelle PENCIL, c'est un sous-ensemble de GNU C99 avec des règles de programmation spécifiques et quelques extensions. L'utilisation de ce sous-ensemble et l'utilisation de ces extensions permettent aux compilateurs de mieux exploiter le parallélisme et de mieux optimiser le code. / Multi-core processors are now in widespread use in almost all areas of computing: desktops, laptops and accelerators such as GPGPUs (General Purpose Graphics Processing Units). To harness the power of multi-core processors and complex memory hierarchies, the need for powerful compiler optimizations and especially loop nest transformations is now in high demand. The polyhedral optimization framework is showing promising results in addressing such a problem. It's an algebraic program representation and a set of analyses, transformations and code generation algorithms that enable a compiler to reason about advanced loop nest transformations addressing most of the parallelism and locality-enhancing challenges.In this thesis we address some of the limitations of the polyhedral framework. We address three problems and propose practical solutions to these three problems.The first problem is related to the ability to apply tiling on code that has false dependences (loop nest tiling is an optimization that changes the order of execution of statements in a loop nest in order to enhance data locality; false dependences are induced by the reuse of a single memory location to store multiple values during the life of the program). To preserve the validity of loop nest transformations and parallelization, data-dependences need to be analyzed. Memory dependences come in two varieties: true dependences (a.k.a. flow dependences) and false dependences (a.k.a. output and anti dependences). While true dependences must be satisfied in order to preserve the correct order of computations. False dependences reduce the degrees of freedom for loop transformations. In particular, loop tiling is severely limited in the presence of these dependences. While array expansion, a transformation that transforms scalars into arrays and arrays into higher dimensional arrays, removes all false dependences, the overhead of this transformation on memory and the detrimental impact on register-level reuse can be catastrophic. We propose and evaluate a compilation technique to safely ignore a large number of false dependences in order to enable loop nest tiling in the polyhedral model. It is based on the precise characterization of interferences between live range intervals, and it does not incur any scalar or array expansion.The second problem is related to the long compilation time that one may experience when using polyhedral tools to optimize a program. Particularly, the long execution time of the Pluto affine scheduling algorithm. The Pluto affine scheduling algorithm is the algorithm that is responsible for changing the schedule (order of execution) of statements in order to optimize the code (maximize parallelism and data locality). Reducing the execution time of this affine scheduling algorithm enhances the overall compilation time. We introduce and evaluate a technique called offline statement clustering. It is a practical technique designed to reduce the execution time of the Pluto affine scheduling algorithm without much loss in optimization opportunities. Using this technique, the statements of the program are clustered into macro-statements, the Pluto affine scheduling algorithm is then used to schedule the macro-statements instead of scheduling the original statements of the program. Since the number of macro-statements is less than the number of statements in the original program, scheduling the macro-statements is in general faster than scheduling the original statements of the program. We present the statement clustering algorithm, we show how offline statement clustering integrates transparently with the work-flow of a state-of-the-art polyhedral compiler and present two heuristics for choosing how statements should be clustered together. We show experimentally that statement clustering can reduce the scheduling time by a factor of 8x (in median) without a significant loss in optimization opportunities...
6

Extending Polyhedral Techniques towards Parallel Specifications and Approximations / Extension des Techniques Polyedriques vers les Specifications Parallelles et les Approximations

Isoard, Alexandre 05 July 2016 (has links)
Les techniques polyédriques permettent d’appliquer des analyses et transformations de code sur des structures multidimensionnelles telles que boucles imbriquées et tableaux. Elles sont en général restreintes aux programmes séquentiels dont le contrôle est affine et statique. Cette thèse consiste à les étendre à des programmes comportant par exemple des tests non analysables ou exprimant du parallélisme. Le premier résultat est l'extension de l’analyse de durée de vie et conflits mémoire, pour les scalaires et les tableaux, à des programmes à spécification parallèle ou approximée. Dans les travaux précédents sur l’allocation mémoire pour laquelle cette analyse est nécessaire, la notion de temps ordonne totalement les instructions entre elles et l’existence de cet ordre est implicite et nécessaire. Nous avons montré qu'il est possible de mener à bien de telles analyses sur un ordre partiel quelconque qui correspondra au parallélisme du programme étudié. Le deuxième résultat est d'étendre les techniques de repliement mémoire, basées sur les réseaux euclidiens, de manière à trouver automatiquement une base adéquate à partir de l'ensemble des conflits mémoire. Cet ensemble est fréquemment non convexe, cas qui était traité de façon insuffisante par les méthodes précédentes. Le dernier résultat applique les deux analyses précédentes au calcul par blocs "pipelinés" et notamment au cas de blocs de taille paramétrique. Cette situation donne lieu à du contrôle non-affine mais peut être traité de manière précise par le choix d’approximations adaptées. Ceci ouvre la voie au transfert efficace de noyaux de calculs vers des accélérateurs tels que GPU, FPGA ou autre circuit spécialisé. / Polyhedral techniques enable the application of analysis and code transformations on multi-dimensional structures such as nested loops and arrays. They are usually restricted to sequential programs whose control is both affine and static. This thesis extend them to programs involving for example non-analyzable conditions or expressing parallelism. The first result is the extension of the analysis of live-ranges and memory conflicts, for scalar and arrays, to programs with parallel or approximated specification. In previous work on memory allocation for which this analysis is required, the concept of time provides a total order over the instructions and the existence of this order is an implicit requirement. We showed that it is possible to carry out such analysis on any partial order which match the parallelism of the studied program. The second result is to extend memory folding techniques, based on Euclidean lattices, to automatically find an appropriate basis from the set of memory conflicts. This set is often non convex, case that was inadequately handled by the previous methods. The last result applies both previous analyzes to "pipelined" blocking methods, especially in case of parametric block size. This situation gives rise to non-affine control but can be processed accurately by the choice of suitable approximations. This paves the way for efficient kernel offloading to accelerators such as GPUs, FPGAs or other dedicated circuit.
7

Caractérisation expérimentale et modélisation multi-échelles du tuilage de cartons ondulés / Experimental characterization and multiscale modeling of the curl of corrugated boards

Roux, Gustave 15 December 2015 (has links)
Les objectifs de cette thèse sont (i) de caractériser expérimentalement les phénomènes physiques responsables du tuilage des cartons ondulés observé en usine et (ii) d’en proposer une modélisation hygro-mécanique pertinente. Afin de répondre à ces objectifs, des essais instrumentés ont été réalisés en usine. Ces essais originaux ont permis de mesurer en continu (i) les évolutions de l’humidité relative et la température au sein des piles de cartons ondulés, et (ii) l’évolution du tuilage des plaques de carton ondulé au sein des piles grâce à une suivi par imagerie. Les résultats obtenus ont été analysés au regard des paramètres procédé. Afin de mieux appréhender le phénomène de tuilage observé, qui est par nature multi-échelle (échelle du papier et du carton ondulé) et multi-physique (humidité relative, température, mécanique), des essais en laboratoire (hygroexpansion, traction, flexion) à différentes humidités relatives ont été développés et mis en œuvre afin de caractériser le comportement hygro-mécanique de différents papiers et cartons ondulés. Des essais de tuilage originaux, couplés à des mesures par imagerie, ont été réalisés et ont pu mettre en évidence l’influence de l’humidité relative et de la composition des cartons ondulés sur le tuilage. En s’appuyant sur ces expériences, une modélisation 1D du tuilage, basée sur la théorie des composites sandwich, a été proposée. Ce modèle a ensuite été comparé aux mesures de tuilage réalisées en laboratoire et en usine. Les premières comparaisons modèle-expérience ont montré la pertinence de la modélisation proposée pour décrire le tuilage du carton ondulé. Un outil permettant d’estimer l’évolution tuilage, à court et moyen terme, dans les encours a été développé et mis en place en cartonnerie afin d’améliorer la maîtrise du tuilage des cartons ondulés. / The objective of this thesis is to (i) experimentally characterize the physical phenomena responsible of curl of corrugated board usually observed during the process and (ii) to propose a hygro-mechanical modeling of the curl. For that purpose, in situ instrumented tests were carried out in the corrugated board factory. These original tests allowed to measure continuously (i) the evolution of the relative humidity and the temperature in stacks of corrugated board, and (ii) the evolution of the curl. This latter one was measured using high quality images and advanced image processing. The obtained results were analyzed in relation to the process parameters. In order to better understand the observed curl phenomenon, which is a multi-scale (scale of papers and corrugated boards) and multi-physics (relative humidity, temperature, mechanics) phenomenon, laboratory tests (hygroexpansion, tensile tests, bending tests) at different relative humidities have been performed in order to characterize the hygro-mechanical behavior of several papers and corrugated boards. Original curl tests, using high quality images and advanced image processing, have been developed and carried out. The obtained results highlight the influence of the relative humidity and the composition of corrugated cardboard on the curl. According to these experimental results, a 1D modeling of the curl, based on the sandwich composite theory, was proposed. This model was then compared to the curl measured in the laboratory and in the corrugated board factory. These first comparisons showed the relevance of the proposed modeling to describe the curl of corrugated board. Finally, a practical tool to estimate the evolution of the curl in the factory has been developed and implemented in the factory to prevent the corrugated board curl.
8

Méthodes hybrides parallèles pour la résolution de problèmes d'optimisation combinatoire : application au clustering sous contraintes / Parallel hybrid methods for solving combinatorial optimization problems : application to clustering under constraints

Ouali, Abdelkader 03 July 2017 (has links)
Les problèmes d’optimisation combinatoire sont devenus la cible de nombreuses recherches scientifiques pour leur importance dans la résolution de problèmes académiques et de problèmes réels rencontrés dans le domaine de l’ingénierie et dans l’industrie. La résolution de ces problèmes par des méthodes exactes ne peut être envisagée à cause des délais de traitement souvent exorbitants que nécessiteraient ces méthodes pour atteindre la (les) solution(s) optimale(s). Dans cette thèse, nous nous sommes intéressés au contexte algorithmique de résolution des problèmes combinatoires, et au contexte de modélisation de ces problèmes. Au niveau algorithmique, nous avons appréhendé les méthodes hybrides qui excellent par leur capacité à faire coopérer les méthodes exactes et les méthodes approchées afin de produire rapidement des solutions. Au niveau modélisation, nous avons travaillé sur la spécification et la résolution exacte des problématiques complexes de fouille des ensembles de motifs en étudiant tout particulièrement le passage à l’échelle sur des bases de données de grande taille. D'une part, nous avons proposé une première parallélisation de l'algorithme DGVNS, appelée CPDGVNS, qui explore en parallèle les différents clusters fournis par la décomposition arborescente en partageant la meilleure solution trouvée sur un modèle maître-travailleur. Deux autres stratégies, appelées RADGVNS et RSDGVNS, ont été proposées qui améliorent la fréquence d'échange des solutions intermédiaires entre les différents processus. Les expérimentations effectuées sur des problèmes combinatoires difficiles montrent l'adéquation et l'efficacité de nos méthodes parallèles. D'autre part, nous avons proposé une approche hybride combinant à la fois les techniques de programmation linéaire en nombres entiers (PLNE) et la fouille de motifs. Notre approche est complète et tire profit du cadre général de la PLNE (en procurant un haut niveau de flexibilité et d’expressivité) et des heuristiques spécialisées pour l’exploration et l’extraction de données (pour améliorer les temps de calcul). Outre le cadre général de l’extraction des ensembles de motifs, nous avons étudié plus particulièrement deux problèmes : le clustering conceptuel et le problème de tuilage (tiling). Les expérimentations menées ont montré l’apport de notre proposition par rapport aux approches à base de contraintes et aux heuristiques spécialisées. / Combinatorial optimization problems have become the target of many scientific researches for their importance in solving academic problems and real problems encountered in the field of engineering and industry. Solving these problems by exact methods is often intractable because of the exorbitant time processing that these methods would require to reach the optimal solution(s). In this thesis, we were interested in the algorithmic context of solving combinatorial problems, and the modeling context of these problems. At the algorithmic level, we have explored the hybrid methods which excel in their ability to cooperate exact methods and approximate methods in order to produce rapidly solutions of best quality. At the modeling level, we worked on the specification and the exact resolution of complex problems in pattern set mining, in particular, by studying scaling issues in large databases. On the one hand, we proposed a first parallelization of the DGVNS algorithm, called CPDGVNS, which explores in parallel the different clusters of the tree decomposition by sharing the best overall solution on a master-worker model. Two other strategies, called RADGVNS and RSDGVNS, have been proposed which improve the frequency of exchanging intermediate solutions between the different processes. Experiments carried out on difficult combinatorial problems show the effectiveness of our parallel methods. On the other hand, we proposed a hybrid approach combining techniques of both Integer Linear Programming (ILP) and pattern mining. Our approach is comprehensive and takes advantage of the general ILP framework (by providing a high level of flexibility and expressiveness) and specialized heuristics for data mining (to improve computing time). In addition to the general framework for the pattern set mining, two problems were studied: conceptual clustering and the tiling problem. The experiments carried out showed the contribution of our proposition in relation to constraint-based approaches and specialized heuristics.

Page generated in 0.0436 seconds