151 |
Etude numérique d'écoulements de paroi compressibles : méthodes d'intégration temporelle semi-implicites et application au canal plan turbulentKremer, François 12 December 2012 (has links)
Cette thèse est consacrée à la simulation des écoulements de paroi turbulents. L’approche numérique utilisée consiste à calculer directement les champs aérodynamiques et acoustiques de l’écoulement par simulation des grandes échelles (LES), à l’aide de schémas numériques peu dissipatifs et peu dispersifs. Cette approche repose généralement sur une intégration temporelle explicite qui se révèle fortement pénalisante dans le cas des écoulements de paroi, où le raffinement du maillage entraîne une forte diminution du pas de temps. Pour répondre à cette problématique, deux méthodes d’intégration temporelle semi-implicites d’ordre 4 à 6 étapes sont développées. Ces méthodes consistent à intégrer de manière implicite les termes contenant des dérivées spatiales normales à la paroi, et de manière explicite les autres termes, ce qui permet de relâcher la contrainte sur le pas de temps. Une analyse dans l’espace de Fourier et des cas test de propagation acoustique montrent que les méthodes développées ont une précision au moins égale à celle du schéma de Runge-Kutta standard d’ordre 4. Une technique de partitionnement semi-implicite/explicite du maillage est ensuite mise en œuvre afin de réduire le coût numérique. A l’aide de cette technique, les schémas semi-implicites permettent de réduire le temps CPU des simulations par rapport à des calculs s’appuyant uniquement sur un schéma explicite. Des LES de canal plan turbulent sont ensuite mises en œuvre pour un nombre de Mach de 0.5 et des nombres de Reynolds de friction de 350, 600 et 960, et pour un nombre de Mach de 0.1 et un nombre de Reynolds de 350. Les caractéristiques aérodynamiques de l’écoulement sont comparées avec succès à des simulations numériques directes de la littérature. Les résultats des simulations permettent ensuite d’analyser les effets du nombre de Reynolds sur les profils de vitesse moyenne et fluctuante, sur les spectres de pression pariétale, et sur les structures de la zone interne de la couche limite. Les dimensions de ces structures, estimées à l’aide des spectres de vitesse longitudinale, se révèlent peu dépendantes du nombre de Reynolds. Enfin, pour le calcul à nombre de Mach de 0.1, des composantes acoustiques sont détectées dans le spectre de pression pariétale. Ces composantes représentent l’empreinte du rayonnement acoustique de la couche limite, calculé directement par la simulation. / No abstract
|
152 |
Modélisation et simulations en turbulence homogène anisotrope : effets de rotation et magnétohydrodynamiqueFavier, Benjamin 03 November 2009 (has links)
Cette thèse s’intéresse à la turbulence incompressible homogène et anisotrope, et plus particulièrement à l’effet d’une rotation solide et d’un champ magnétique uniforme et stationnaire. En plus des simulations numériques directes (DNS), nous présentons également un modèle synthétique de turbulence (Kinematic Simulation ou KS) construit à partir d’une superposition de modes de Fourier, et au sein duquel la dynamique linéaire (basée sur la Rapid Distorsion Theory) peut être incluse. Dans un premier temps, l’effet de la rotation solide est étudié avec un effort particulier porté sur les corrélations en deux-temps. Une comparaison entre DNS et KS est proposée dans le cas isotrope comme dans le cas en rotation. Dans le contexte aéroacoustique, on montre dans quelle mesure la rotation modifie l’émission acoustique d’une turbulence homogène. L’effet d’un champ magnétique est ensuite considéré et l’anisotropie de l’écoulement est étudiée en fonction du nombre de Reynolds magnétique. Il est montré dans quelle mesure la turbulence magnétohydrodynamique quasi-statique est similaire à la turbulence “deux-dimensions trois-composantes” du fait de la dissipation Joule anisotrope et comment l’écoulement restaure son isotropie lorsque le nombre de Reynolds magnétique croît. Enfin, l’effet couplé d’une rotation et d’un champ magnétique est considéré. Les propriétés énergétiques ainsi que l’anisotropie sont étudiés et une étude paramétrique en fonction du nombre d’Elsasser est proposée. / This thesis focuses on incompressible homogeneous anisotropic turbulence, with a particuliar interest on the effect of a solid-body rotation and a uniform steady magnetic field. In addition to Direct Numerical Simulations (DNS), we also propose a stochastic model of anisotropic turbulence (Kinematic Simulation or KS) based on a superposition of Fourier modes, in which linear dynamics (based on Rapid Distorsion Theory) is included. First, the effect of a solid body rotation is studied and we focus on two-time velocity correlations. Comparisons between KS and DNS are presented in the isotropic and rotating cases. We then apply these results to aeroacoutics and show how the rotation modifies the acoustic emission of homogeneous turbulence. Secondly, we focus on the effect of an imposed magnetic field and we describe the anisotropy of the flow in function of the magnetic Reynolds number. The quasi-static magnetohydrodynamic turbulence is very similar to the so-called 2D-3C turbulence due to anisotropic Joule dissipation and we show how the isotropy is restored as the magnetic Reynolds numbers increases. Finally, we consider the coupled effect of rotation and magnetic field. Energetic properties and anisotropy are studied and a dependance of the results on the Elsasser number is also proposed.
|
153 |
Réduction de modèle a priori par séparation de variables espace-temps : Application en dynamique transitoire / A priori model order reduction based on space-time separated representation : Applications to transient dynamicsBoucinha, Luca 15 November 2013 (has links)
La simulation numérique des phénomènes physiques est devenue un élément incontournable dans la boite à outils de l'ingénieur mécanicien. Des outils robustes et modulables, basés sur les méthodes classiques d'approximation, sont désormais couramment utilisés dans l'industrie. Cependant, ces outils nécessitent des moyens de calculs importants lorsqu'ils sont utilisés pour résoudre des problèmes complexes. Même si les progrès remarquables de l'industrie informatique rendent de tels moyens de calcul toujours plus abordables, il s'avère aujourd'hui nécessaire de proposer des méthodes d'approximation innovantes permettant de mieux exploiter les ressources informatiques disponibles. Les méthodes de réduction de modèle sont présentées comme un candidat idéal pour atteindre cet objectif. Parmi celles-ci, les méthodes basées sur la construction d'une approximation à variables séparées se sont révélées être très efficaces pour approcher la solution d'une grande variété de problèmes, réduisant les coûts numériques de plusieurs ordres de grandeur. Néanmoins, l'efficacité de ces méthodes dépend considérablement du problème traité. Aussi, on se propose ici d'évaluer l'intérêt d'une approximation à variables séparées espace-temps dans le cadre de problèmes académiques de dynamique transitoire. On définit tout d'abord la meilleure approximation (au sens d'un problème de minimisation) de la solution d'un problème transitoire, sous la forme d'une représentation à variables séparées espace-temps. Le calcul de cette approximation étant basé sur l'hypothèse que la solution du problème de référence est connue (méthode a posteriori), la suite du manuscrit est dédiée à la construction d'une telle approximation sans autres connaissances a priori sur la solution de référence, que les opérateurs du problème espace-temps dont elle est solution (méthode a priori). Un formalisme générique, basé sur une représentation tensorielle des opérateurs du problème espace-temps est alors introduit dans un cadre multichamps. On développe ensuite un solveur exploitant ce format générique, pour construire une approximation à variables séparées espace-temps de la solution d'un problème transitoire. Ce solveur est basé sur la décomposition généralisée propre de la solution (Proper Generalized Decomposition - PGD). Un état de l'art des algorithmes existants permet alors d'évaluer l'efficacité des définitions classiques de la PGD pour approcher la solution de problèmes académiques de dynamique transitoire. Les résultats obtenus mettant en défaut l'optimalité de la PGD la plus robuste, une nouvelle définition, récemment introduite dans la littérature, est appliquée dans un cadre multichamps à la résolution d'un problème d'élastodynamique 2D. Cette nouvelle définition, basée sur la minimisation du résidu dans une norme idéale, permet finalement d'obtenir une très bonne approximation de la meilleure approximation de rang donné, sans avoir à calculer un grand nombre de modes espace-temps. / Numerical simulation of physical phenomena has become an indispensable part of the mechanical engineer's toolbox. Robust and flexible tools, based on classical approximation methods, are now commonly used in industry. However, these tools require lots of computational resources to solve complex problems. Even if such resources are more and more affordable thanks to the remarkable progress in computer industry, it is now necessary to propose innovative approximation methods in order to better exploit the impressive amount of computational resources that are todays available. Reduced order modeling techniques are presented as ideal candidates to address this issue. Among these, methods based on the construction of low rank separated approximations have been shown to be very efficient to approach solutions of a wide variety of problems, reducing computational costs by several orders of magnitude. Nonetheless, efficiency of these methods significantly depends on the considered problem. In this manuscript, we propose to evaluate interest of space-time separated representations to approach solutions of academical transient dynamic problems. We first define the best space-time separated approximation (with respect to a minimization problem) of a given solution of a transient problem. The construction of this approximation being based on the hypothesis that the problem's solution is known (a posteriori method), the following of the manuscript is dedicated to the construction of such an approximation without any other knowledge on the reference solution than the operators of the space-time problem from which it is solution (a priori method). We then introduce a generic formalism, based on the tensor product structure of the operators of the space-time problem, in a multi-field framework. Next, this formalism is used to develop a generic solver that builds a separated approximation of a transient problem's solution, with the help of the Proper Generalized Decomposition (PGD). A state of art of existing algorithms is done, and efficiency of classical definitions of PGD to approach solutions of several academical transient dynamic problems is evaluated. Numerical results highlight the lack of optimality of the more robust PGD. Therefore, a new PGD definition, recently introduced in literature, is applied to solution of an elastodynamic problem in a multi-field framework. This new definition is based on minimization of an ideal residual norm and allows to find a very good approximation of the best approximation of a given rank, without having to calculate more space-time modes than needed.
|
154 |
Modélisation des calottes polaires par des formulations multi-modèles, / Modeling ice flow dynamics with advanced multi-model formulationsSeroussi, Hélène 22 December 2011 (has links)
La modélisation numérique des écoulements de glace est indispensable pour prédire l’évolution des calottes polaires suite au réchauffement climatique. De récentes études ont souligné l’importance des modèles d’écoulement dits d’ordre supérieur voir même de Stokes au lieu de la traditionnelle approximation de couche mince dont les hypothèses ne sont pas valables dans certaines zones critiques mais à l’étendue limitée. Cependant, ces modèles d’ordre supérieur sont difficiles à utiliser à l’échelle d’un continent en raison de leurs temps de calculs prohibitifs. Ce travail de thèse propose une nouvelle technique qui permet de réduire les temps de calculs tout en maximisant la précision des modèles. Plusieurs modèles d’écoulement de glace de complexité variables ont été mis en place dans ISSM (Ice Sheet System Model), un code élément fini massivement parallèle développé par le Jet Propulsion Laboratory. L’analyse et la comparaison des différents modèles, à la fois sur des cas théoriques et réels, montrent que l’utilisation des modéles les plus complets est principalement nécessaire au voisinage de la zone d’échouage, transition entre les parties flottantes et posées de la glace, mais aussi que des modèles plus simples peuvent être utilisés sur la majeure partie des glaciers. Coupler différents modèles présente donc un avantage significatif en terme de temps de calcul mais aussi d’amélioration de la physique utilisées dans les modèles. Plusieurs méthodes de couplage de modèles existent et sont présentées dans ce manuscrit. Une nouvelle technique, dite de tuilage, particulièrement adaptée au couplage de modèles d’écoulement de glace est décrite ici : son principe repose sur la superposition et le raccordement de plusieurs modèles mécaniques. Une analyse mathématique est effectuée afin de définir les conditions d’utilisation de cette méthode de tuilage. Le traitement du couplage entre un modèle de Stokes et des modèles simplifiés, pour lesquels le calcul des vitesses horizontales et verticales est découplé, est ensuite présenté. Cette technique a été mise en place dans ISSM afin de pouvoir créer des modèles hybrides combinant plusieurs modèles d’écoulement de complexité variable. Après avoir été validée sur des cas synthétiques, cette technique est utilisée sur des glaciers réels comme Pine Island Glacier, dans l’Antarctique de l’Ouest, afin d’illustrer sa pertinence. Les modèles hybrides ont le potentiel d’améliorer la précision des résultats en combinant différents modèles mécaniques, utilisés chacun dans les zones où leurs approximations sont valides, tout en réduisant les temps de calcul et en étant compatibles avec les ressources informatiques actuelles. / Ice flow numerical models are essential for predicting the evolution of ice sheets in a warming climate. Recent research emphasizes the need for higher-order and even full-Stokes flow models instead of the traditional Shallow-Ice Approximation whose assumptions are not valid in certain critical but spatially limited areas. These higher-order models are however computationally intensive and difficult to use at the continental scale. The purpose of this work, therefore, is to develop a new technique that reduces the computational cost of ice flow models while maximizing their accuracy. To this end, several ice flow models of varying order of complexity have been implemented in the Ice Sheet System Model, a massively parallelized finite element software developed at the Jet Propulsion Laboratory. Analysis and comparison of model results on both synthetic and real geometries shows that sophisticated models are only needed in the grounding line area, transition between grounded and floating ice, whereas simpler models yield accurate results in most of the model domain. There is therefore a strong need for coupling such models in order to balance computational cost and physical accuracy. Several techniques and frameworks dedicated to model coupling already exist and are investigated. A new technique adapted to the specificities of ice flow models is developed: the Tiling method, a multi-model computation strategy based on the superposition and linking of different numerical models. A mathematical analysis of a mixed Tiling formulation is first performed to define the conditions of application. The treatment of the junction between full-Stokes and simpler models that decouple horizontal and vertical equation is then elaborated in order to rigorously combine all velocity components. This method is finally implemented in the Ice Sheet System Model to design hybrid models that combine several ice flow approximations of varying order of complexity. Following a validation on synthetic geometries, this method is applied to real cases, such as Pine Island Glacier, in West Antarctica, to illustrate its relevance. Hybrid models have the potential to significantly improve physical accuracy by combining models in their domain of validity, while preserving the computational cost and being compatible with the actual computational resources.
|
155 |
Extracting cell complexes from 4-dimensional digital images / Généralisation à dimension 4 des méthodes pour manipuler des images numériques binairesPacheco-Martínez, Ana María 10 July 2012 (has links)
Une image numérique peut être définie comme un ensemble de n-xels sur une grille constituée de n-cubes. La segmentation consiste à calculer une partition d'une image en régions. Les n-xels ayant des caractéristiques similaires (couleur, intensité, etc.) sont regroupés. Schématiquement, à chaque n-xel est attribuée une étiquette, et chaque région de l'image est constituée de n-xels de même étiquette. Les méthodes "de type" Marching cubes et Kenmochi et al. construisent des complexes représentant la topologie de la région d'intérêt d'une image numérique binaire de dimension 3. Dans la première méthode, l'algorithme construit un complexe simplicial, dont 0-cellules sont des points des arêtes de la grille duale. Dans la deuxième méthode, les auteurs construisent un complexe cellulaire sur une grille duale, c.a.d les 0-cellules du complexe sont des sommets de la grille duale. Afin de construire le complexe, Kenmochi et al. calculent (à rotations près) les différentes configurations de sommets blancs et noirs d'un cube, puis, ils construisent les enveloppes convexes des points noirs de ces configurations. Ces enveloppes convexes définissent les cellules du complexe, à rotations près. Le travail développé dans cette thèse étend la méthode de Kenmochi et al. en dimension 4. L'objectif est de construire un complexe cellulaire à partir d'une image numérique binaire définie sur une grille duale. Nous calculons d'abord les différentes configurations de sommets blancs et noirs d'un 4-cube (à isométries près), puis, nous construisons des enveloppes convexes définies par ces configurations. Ces enveloppes convexes sont construites par déformation du 4-cube d'origine, et nous distinguon / A digital image can be defined as a set of n-xels on a grid made up by n-cubes. Segmentation consists in computing a partition of an image into regions. The n-xels having similar characteristics (color, intensity, etc.) are regrouped. Schematically, each n-xel is assigned a label, and each region of the image is made up by n-xels with the same label. The methods "type" Marching cubes and Kenmochi et al. construct complexes representing the topology of the region of interest of a 3-dimensional binary digital image. In the first method, the algorithm constructs a simplicial complex, whose 0-cells are points of the edges of the dual grid. Inthe second one, the authors construct a cell complex on a dual grid, i.e. the 0-cells of the complex are vertices of the dual grid. In order to construct the complex, Kenmochi et al. compute (up to rotations) the different configurations of white and black vertices of a cube, and then, they construct the convex hulls of the black points of these configurations. These convex hulls define the cells of the complex, up to rotations. The work developed in this thesis extends Kenmochi et al. method todimension 4. The goal is to construct a cell complex from a binary digital image defined on a dual grid. First, we compute the different configurations of white and black vertices of a 4-cube, up to isometries, and then, we construct the convex hulls defined by these configurations. These convex hulls are constructed by deforming the original 4-cube, and we distinguishseveral basic construction operations (deformation, degeneracy of cells, etc.). Finally, we construct the cell complex corresponding to the dual image by assembling the cells so o / Una imagen digital puede ser definida como un conjunto de n–xeles en un mallado constituido de n–cubos. Los n–xeles pueden ser identificados con: (1) los n–cubos del mallado, o con (2) los puntos centrales de estos n–cubos. En el primer caso, trabajamos con un mallado primal, mientras que en el segundo, trabajamos con un mallado dual construido a partir del mallado primal. La segmentación consiste en calcular una partición de una imagen en regiones. Los n–xeles que tienen características similares (color, intensidad, etc.) son reagrupados. Esquemáticamente, a cada n–xel se le asocia una etiqueta, y cada región de la imagen está constituida de n–xeles con la misma etiqueta. En particular, si las únicas etiquetas permitidas para los n–xeles son “blanca” y “negra”, la segmentación se dice binaria: los n–xeles negros forman el primer plano (foreground) o región de interés en cuestión de análisis de la imagen, y los n–xeles blancos forman el fondo (background). Ciertos modelos, como los Grafos de Adyacencia de Regiones (RAGs), los Grafos Duales (DGs) y la carta topológica, han sido propuestos para representar las particiones en regiones, y en particular para representar la topología de estas regiones, es decir las relaciones de incidencia y/o adyacencia entre las diferentes regiones. El RAG [27] es un precursor de este tipo de modelos, y ha sido una fuente de inspiración de los DGs [18] y de la carta topológica [9, 10]. Un RAG representa una imagen primal etiquetada por un grafo: los vértices del grafo corresponden a regiones de la imagen, y las aristas del grafo representan las relaciones de adyacencia entre la regiones. Los DGs son un modelo que permite resolver ciertos inconvenientes de los RAGs para representar imágenes de dimensión 2. La carta topológica es una extensión de los modelos anteriores definida para manipular imágenes primales de dimensión 2 y 3, representando no solamente las relaciones topológicas, sino también las relaciones geométricas.
|
156 |
Approche multi-échelle pour la prédiction de la tenue d'une aile caisson dédiée à l'aviation légère : expérimentation et simulation / Multi Scale Approach for the Prediction of the Hollow Box Wing Strength Dedicated to Light Aviation : Experimental and SimulationFleuret, Clément 26 May 2016 (has links)
Les ailes d’avion sont composées d’une part croissante de pièces composites. Afin de réduire les coûts de production et de certification des assemblages, une nouvelle architecture en caissons creux, en fabrication ‘one shot’, est proposée. Cette structure contient des liaisons en T entre des sections sandwichs. Le comportement et les modes de dégradation de cette structure sont méconnus. Une méthodologie multi-échelle est mise en place pour appréhender l’endommagement de la voilure et ainsi améliorer l’outil numérique de dimensionnement.Tout d’abord, des systèmes essai – éprouvette spécifiques sont conçus pour représenter les modes de sollicitation de la liaison dans la voilure. Une analyse fine des essais instrumentés permet d’appréhender les scénarios d’endommagement pour chaque mode. Les premiers stades sont principalement pilotés par le nid d’abeille (cisaillement, déchirement). Un modèle numérique 3D permet de représenter les premiers stades d’endommagement. Il est construit avec une représentation en coque du nid d’abeille intégrant les variabilités de la structure (collage, déformation de cellules). Egalement, une loi de comportement élasto-plastique endommageable des matériaux constitutifs de la voilure (plis unidirectionnels et tissés) est développée et implémentée pour les stratifiés multi-matériaux. Sur les bases de ce modèle, une modélisation simplifiée du comportement de la liaison est développée. Elle consiste à assembler des coques par des connecteurs avec des propriétés élasto-plastiques. La création d’un calcul prédictif de voilure intègre le modèle simplifié de comportement de la liaison. / Aircraft wings are composed of a growing composite part portion. To reduce production and assembly certification costs, a new hollow box architecture is proposed with a one shot manufacturing process. This structure includes T-connections between honeycomb sandwich panels. Mechanical behavior and degradation modes are unknown for this structure. A multiscale methodology is developed to deepen the wing damage knowledge and to improve the numerical sizing tool.Firstly, specimen-testing couples are designed to represent the loading modes of the T-connections. A detailed analysis of instrumented testing allows to understand the damage scenarios for each mode. The first damage stages are mainly driven by the honeycomb behavior (shear, tear). A 3D numerical model represents the first damage stages. It is built with a shell representation of the honeycomb which integrates the structure variability (bonding, deformation of cells). An elastic-plastic damage law (unidirectional and woven plies) is developed for the wing materials. Then, it is implemented for multi material laminate. Based on this model, a simplified modeling is realized for the connection behavior. It consists of assembling shells by connectors with elastic-plastic properties. Building a predictive wing simulation requires a simplified model integration of the T-bond behavior.
|
157 |
Etude numérique de l'auto-inflammation des solides par simulation numérique directe : application au polyméthacrylate de méthyle / Numerical Study of Solid Fuels Auto-Ignition Using Direct Numerical Simulation : Application to the Polymethyl Methacrylate.Roblin, Simon 16 December 2016 (has links)
La propagation des incendies à l’échelle de locaux et de villes est un enjeu majeur. Elle est notamment conditionnée par l’inflammation des matériaux dans les locaux attenants au sinistre. Cette dernière résulte de l’allumage du mélange gazeux combustible issu de la décomposition thermique de la phase condensée.Deux types d’inflammation sont définis dans la littérature : l’inflammation pilotée par la présence d’une source d’allumage, et l’auto-inflammation, résultant de l’emballement de la réaction dans la phase gazeuse. L’auto-inflammation joue un rôle majeur dans le contexte d’une propagation de local à local. Toutefois, ce processus n’a été que très peu étudié expérimentalement du fait de sa complexité et seules des analyses théoriques sont aujourd’hui disponibles concernant les phénomènes en jeu.L’enjeu de la présente étude est de caractériser les régimes d’autoallumage en fonction de différentes typologies de solide (comportement thermique et cinétique), afin de mieux comprendre leurs processus et leurs conditions d’occurrence. Cette compréhension fine permet alors de développer des modèles plus globaux de propagation pour une considération déterministe du risque incendie à l’échelle urbaine.Le caractère bref et local de l’auto-inflammation impose le choix d’une méthode de résolution complète des écoulements, des transferts et de la chimie. La Simulation Numérique Directe (DNS) a donc été sélectionnée afin de capter ces phénomènes, avec l’introduction d’une cinétique fine et non infiniment rapide de la décomposition thermique et de la combustion. / Fire propagation on the scale of buildings and cities is a major stake. It is conditioned by the ignition of solid fuels in rooms adjacent to the one where the disaster originally takes place. The ignition is so piloted by the initiation of the combustion reaction of the gaseous mixture stemming from the thermal decomposition of the condensed phase induced by heat transfer.Two types of ignition are defined in the literature: piloted-ignition related to the presence of a hot spot and auto-ignition resulting from the thermal runaway within the gas phase. The auto-ignition plays a major role in the context of fire spread between rooms. However, this process has been very little experimentally studied, because of its complexity, and only theoretical analyses were lead concerning the phenomena which take place during solid fuels auto ignition.The aim of the present study is to characterize auto-ignition regimes according to various solid typologies (regarding to thermal and kinetic behaviour) in order to understand better their processes and their occurrence conditions. Thereby, this fine understanding allows to develop global models of fire spread for a deterministic consideration of the fire hazards at urban scale.The brief and local character of the auto-ignition requires the choice of a complete resolution for flows, transfers and chemistry. Thus, the Direct Numerical Simulation (DNS) was selected to capture the phenomena, with the introduction of a fine and non-infinitely fast chemistry of thermal decomposition and combustion.
|
158 |
Photographier la peinture : de la photographie document de l’oeuvre à la photographie de notation / Photographing painting : from photography documenting artworts to photography as noteMolina Martinez, Miguel-Angel 17 November 2012 (has links)
Les taches de couleur au sol ont toujours existé dans l’atelier. Je ne sais comment, subitement, un jour, je lesai vues, non pas comme une saleté «pittoresque», mais comme de la peinture, une peinture sur le sol, desprolongations du tableau en dehors de ses limites. J’ai photographié ces taches de peinture comme d’autresphénomènes périphériques au tableau. La pratique photographique à l’atelier a généré des documents quiincarnaient un regard sur la peinture en train de se faire. Je pense aujourd’hui que cette activité photographiquea largement contribué à une prise de conscience de mon travail en peinture et de ce qu’il est devenu par lasuite. L’enregistrement photographique des oeuvres fait partie de ce que l’on pourrait appeler la production dedocuments pour l’archive. Ces images sont destinées à la préservation d’une mémoire, à la création de dossiersou bien à l’illustration de sites Internet ou de publications.J’ai constaté chez d’autres peintres de ma génération, que le passage au numérique a non seulement développéle travailde postproduction directement lié à l’enregistrement des oeuvres -le plus souvent assumé par l’artistelui-même-, mais qu’il a aussi facilité une activité photographique parallèle que certains artistes assimilent à dela notation ou du croquis. Photographier son propre travail implique de donner à voir, en même temps queles oeuvres, le regard que nous portons sur elles. Mais la plupart du temps, ces images sont des documents.Le devenir-oeuvre de l’archive tient à une opération par laquelle, d’après Olivier Corpet, l’archive évite à l’oeuvrede se renfermer sur elle-même, de se dégrader, voire de se perdre: l’archive peut alors lui sauver la mise, laremettre en mouvement / Stains of color on the floor have always existed in the studio. I do not know how, suddenly, one day, I saw them, not as“picturesque” mess but as painting; a painting on the floor; extensions of the painting beyond its edges. I photographedthese paint stains like other phenomena peripheral to the painting. Photographic practice in the studio generateddocuments that incarnated a way of looking at the painting being made. Today, I think that this photographicactivity greatly contributed to an emerging awareness of my work in painting and what it became thereafter.Recording artworks in photographs is part of what we could call the production of documents for archives.These images are destined to preserve a memory, create files or illustrate websites or publications.I have observed among other painters of my generation that the change to digital not only developed postproductionwork directly linked to recording artworks – most often done by the artist him/herself – but alsofacilitated a parallel photographic activity that certain artists see as similar to note taking or sketching.Photographing one’s own work involves showing both the artwork and the way we look at it. But most often,these images are documents. The archival image becomes artwork in an operation by which, according to OlivierCorpet, the archive prevents the artwork closing in on itself, from degrading itself, or even becoming lost:the archive can thus save it and put it back in motion
|
159 |
L’imaginaire des dispositifs numériques pour la médiation au musée d’ethnographie / Repositioning the ethnographic museum in the production of digital devices for mediationSandri, Eva 05 December 2016 (has links)
Cette thèse propose d’observer l’imaginaire des dispositifs numériques dans les musées d’ethnographie confrontés à la réalisation de dispositifs numériques pour la médiation tels que les tablettes tactiles ou les navigateurs de réalité augmentée. Ce travail s’intéresse au positionnement des professionnels de musée face à la présence croissante d’outils numériques dans l’espace d’exposition, sous-tendue par un discours promotionnel technophile de la part des sphères journalistique et politique qui décrivent ces technologies comme fortement souhaitables. Une enquête ethnographique réalisée dans deux musées soumis à une injonction technologique (le Museon Arlaten d’Arles et le musée McCord de Montréal) interroge les attentes et les imaginaires qu’ont les professionnels du musée de ces dispositifs. À l’aune du concept de trivialité d’Yves Jeanneret, il s’agit de comparer les discours d’escorte portant sur le numérique avec les discours des professionnels de deux musée d’ethnographie, afin de mettre à jour les modes de circulation de ces discours et les imaginaires qui les fondent. Répondre à ce questionnement a nécessité une démarche en trois temps. Il s’est agi dans un premier temps de relever les différents discours d’escorte portant sur les dispositifs numériques au musée et les injonctions qu’ils véhiculent afin de comprendre à quelles prescriptions les professionnels étaient exposés. D’autre part, interroger les professionnels de musée afin de relever leur imaginaire des dispositifs technologiques a permis de connaitre leurs attentes et craintes vis-à-vis de ces supports. Enfin, questionner les enquêtés sur leurs pratiques concrètes lors de la conception effective de ces dispositifs a permis d’observer des processus d’ajustement, prenant la forme de logiques d’opposition, d’adaptation et d’invention. Après avoir comparé le discours des professionnels avec les discours d’escorte médiatiques et politiques, nous avons observé un décalage entre les discours d’escorte sur l’innovation technologique au musée et la façon dont les professionnels de ces institutions culturelles évoquaient ces questions. Le caractère révolutionnaire des discours décrivant les technologies n’est pas repris par les professionnels des musées mais il est fortement nuancé dans un imaginaire raisonné et pertinent des technologies, assorti d’un rapport ambigu à l’innovation qui interroge les enjeux symboliques du progrès technologique dans la médiation muséale. / This thesis observes and explores the imaginary of digital devices when the latter are introduced, in the form of tablets or augmented reality browsers, to support mediation work in ethnography museums. The thesis examines how museum professionals position themselves in relation to the growing presence of digital devices in the exhibition space, which is underpinned by a technophile promotional narrative spun by the media and politicians who present the introduction of these technologies as highly desirable. An ethnographic study in two museums faced with the imposition of such technological agendas – the Museon Arlaten in Arles and the McCord Museum in Montreal – allows for an analysis of the expectations towards and imaginary of these devices by museum professionals. The concept of triviality, as defined by Yves Jeanneret, is used to compare the accompanying discourses on digital technologies with the discourses of professionals in the two ethnography museums, in order to highlight how discourses circulate, as do the imaginaries underpinning them. There were three stages in this study. First, the various accompanying discourses on digital technologies in museums – from both inside and outside of the institutions – and the agendas they carry were identified, so as to understand what was dictated to the professionals. Besides, the museum professionals were interviewed in order to identify what their imaginaries of technological devices were, which allowed for an understanding of their expectations and fears regarding these devices. Finally, asking the interviewees about their concrete practices when effectively devising the devices made it possible to observe processes of adjustment, from opposition to adaptation to invention. The comparison between the professionals’ discourses and the accompanying discourses offered by the media and politicians revealed a discrepancy between the accompanying discourses on technological innovation in museums and the way in which the professionals from the cultural institutions talked about this issue. The narratives describing these technologies as revolutionary were not taken up by museum professionals; rather, they were significantly qualified by reasoned, adequate imaginary of technologies, alongside with an ambivalent perception of innovation, questioning the symbolic dimension of technological changes affecting mediation work in museums.
|
160 |
Faire fleurir l'innovation à partir de la racine : le développement et l’évaluation du potentiel de la plateforme informatique CogEx pour la conception en génie mécaniqueFoley, David January 2017 (has links)
Ce projet doctoral porte sur le développement d'une plateforme informatique nommée
CogEx pour permettre aux concepteurs de mieux organiser et partager l'information.
L'objectif à long-terme est de remplacer le registre papier et d'exploiter la puissance de
l'informatique pour supporter la réalisation des projets de conception complexes.
Plusieurs théories et modèles reliés à l'activité de conception sont synthétisés dans un
modèle conceptuel fondé sur la théorie de l'activité. Ce modèle a permis d'identi er et
de développer un ensemble de mécanismes qui supportent les activités du concepteur. La
plateforme innove particulièrement de trois façons : 1) toute l'information est structurée
dans des schémas conceptuels étendus, qui sont une forme de schéma conceptuel récursif,
2) deux espaces séparent d'un côté les travaux du projet et de l'autre côté la base des
connaissances du concepteur, 3) la collaboration o re un espace personnel de travail qui
est attaché à un espace partagé avec des collaborateurs.
La plateforme de conception est fondée sur une architecture qui permet de répondre aux
attentes modernes des utilisateurs. La plateforme exploite une architecture modulaire qui
s'adapte à un nombre croissant d'utilisateurs, qui o re un espace de stockage sur le nuage et
une interface de travail collaboratif qui fonctionne sous plusieurs systèmes d'exploitation.
En particulier, le logiciel permet de travailler et d'interagir entre un PC et une tablette
Android. Le PC est idéal pour rédiger, programmer, travailler avec les outils de conception
assistée par ordinateur (CAO) alors que la tablette est idéale pour produire des esquisses,
écrire des notes et elle est facile à transporter partout.
Le potentiel de la plateforme pour remplacer le registre papier est évalué à partir de
trois projets pilotes avec des étudiants en génie mécanique. Les participants ont utilisé la
plateforme pendant une session pour travailler sur leur projet majeur de conception. Les
participants ont donné en entrevue individuelle leurs avis sur diverses facettes de l'outil,
autant au niveau conceptuel qu'au niveau des fonctionnalités la plateforme.
Les résultats des entrevues démontrent que l'organisation dans un schéma conceptuel
étendu permet d'organiser l'ensemble des informations d'un registre de conception. Les
shémas conceptuels étendus permettent de produire une vue d'ensemble et sont plus ef-
caces que la structure chronologique du registre papier pour retrouver de l'information
et faire évoluer les concepts. Les participants ont aussi expliqué que la division des espaces
de projet et de la base de connaissances a un bon potentiel, mais que cette division
peut parfois ralentir le travail. La présentation visuelle et les interactions semblent appré-
ciées. Par contre, l'écriture manuscrite et le sketch ne fonctionnent pas su sament bien
et devront être améliorés. Les outils de collaboration n'ont pas été évalués lors des essais
pilotes. Toutefois, les entrevues démontrent que c'est un aspect majeur pour l'acceptation
de l'outil et pour centraliser l'information partagée.
|
Page generated in 0.0426 seconds