401 |
Métaheuristiques pour l'optimisation topologique : application à la conception de dispositifs électromagnétiquesDenies, Jonathan 10 September 2013 (has links) (PDF)
L'optimisation topologique est une méthode de conception qui permet de définir de manière autonome la topologie, les formes et les dimensions d'un dispositif en vue de répondre de manière optimale à des critères de design. Initialement réservée au dimensionnement de pièces mécaniques, elle s'oriente aujourd'hui vers la conception de dispositifs plus complexes comme ceux rencontrés dans le domaine de l'électromécanique. C'est dans ce cadre que se situe notre travail. Un outil d'optimisation topologique étant formé de l'association d'un algorithme d'optimisation et d'un formalisme de distribution de matière, nous avons dans une première étape comparé différents couplages d'algorithmes métaheuristiques et de formalismes de distribution de matière en vue de choisir le couple qui semble le mieux adapté au problème traité. Cette comparaison nous a conduits à choisir comme outil d'optimisation l'association d'un algorithme génétique et d'une distribution de matière par cellules de Voronoï. Nous avons ensuite examiné comment améliorer les capacités d'exploration et d'exploitation de cet outil. Nous avons, à cet effet, étudié les aspects liés à la gestion de la taille de la population et à l'adaptation des mécanismes de reproduction au caractère graphique du problème. A l'issue de cette deuxième étape, nous avons finalisé un outil d'optimisation que nous avons testé sur des cas d'étude dont la complexité se rapproche de celle rencontrée au niveau industriel. Nous avons ainsi montré le potentiel de notre outil d'optimisation au niveau de la conception dans le cadre de l'électromécanique.
|
402 |
Apport des réalités virtuelles et augmentées dans la planification et le suivi in situ de travaux de rénovation.Landrieu, Jeremie 18 December 2013 (has links) (PDF)
Ce mémoire de thèse de doctorat présente l'évaluation d'un système de réalité mixte dans le cadre d'une utilisation sur le site d'opération de construction. Il s'agit notamment de déterminer la pertinence d'un tel outil mobile pour des opérateurs pour les assister dans leurs tâches quotidiennes, et notamment dans la préparation et le suivi des opérations de construction ou rénovation. Cet outil se voudrait être un outil d'aide à la décision pour les maîtres d'ouvrages et maîtres d'œuvre. Le cas d'étude porte sur la rénovation virtuelle des baies anciennes (datées du XVIIIème siècle) dans une cellule des bâtiments conventuels de Cluny (Saône et Loire, France). L'approche consiste à comparer l'efficacité, la précision et la rapidité d'opérateurs dans la réalisation de tâches identiques. Trois méthodes liées à l'utilisation des nouvelles technologies dans le domaine de l'AIC (Architecture Ingénierie et Construction) sont comparées, elles ont guidé la définition du protocole expérimental. La première méthode traditionnelle fournit à l'opérateur de la documentation papier. La seconde met en œuvre la dématérialisation des données constructives, accessibles depuis un ordinateur de bureau. La troisième méthode plus innovante ajoute à la précédente l'accès colocalisé à la base de données grâce à un terminal mobile. Une étude qui a suivi a porté sur la visualisation et l'interprétation de résultats de simulation thermique, en réalité virtuelle. La comparaison des trois premières méthodes a donné lieu à une première expérimentation dont les résultats ont montré la légère prédominance du second scénario (travail sur ordinateur de bureau). Cependant, au-delà des aspects d'ergonomie et d'interface utilisateur, des investigations complémentaires doivent être menées pour étudier l'opportunité du développement du BIM in situ, c'est-à-dire l'utilisation du modèle de données du bâtiment (BIM- Building Information Model) sur le chantier.
|
403 |
Réalité évoquée, des rêves aux simulations : un cadre conceptuel de la réalité au regard de la présencePillai, Jayesh s. 20 June 2013 (has links) (PDF)
Dans cette recherche, nous présentons le concept de "Réalité Évoquée" (" Evoked Reality ") afin d'essayer de relier différentes notions entourant la présence et la réalité au sein d'un cadre commun. Nous introduisons et illustrons le concept en tant que " illusion de la réalité " (Réalité Évoquée) qui évoque un " sentiment de présence " (Présence Évoquée) dans nos esprits. Nous distinguons les concepts de " Réalité Média-Évoquée " et " Réalité Auto-Évoquée " et nous les définissons clairement. Le concept de " Réalité Évoquée " nous permet d'introduire un modèle tripolaire de la réalité, qui remet en cause le modèle classique des deux pôles. Nous présentons également un modèle graphique appelé " Reality-Presence Map " (Carte Réalité-Présence) qui nous permet de localiser et d'analyser toutes les expériences cognitives concernant la présence et la réalité. Nous explorons également les qualia et la subjectivité de nos expériences de Réalité Évoquée. Deux expériences ont été réalisées : l'une dans le domaine de la Réalité Média-Évoquée et l'autre dans celui de l'Auto-Évoquée. Les expériences nous ont permis de valider nos hypothèses et de réaliser que nos recherches empiriques pouvaient encore être poussées plus loin encore. Enfin, nous illustrons les différentes implications et nous examinons les applications et les utilisations possibles de notre concept, en particulier dans le domaine de la recherche sur la présence. En outre, nous proposons d'étendre la recherche sur la présence au-delà du domaine de la réalité virtuelle et des moyens de communication et de l'étudier dans une perspective plus large que celle des sciences cognitives. Nous sommes convaincus que ce concept de Réalité Évoquée et le modèle proposé peuvent avoir des applications significatives dans l'étude de la présence et dans l'exploration des possibilités qui dépassent la réalité virtuelle.
|
404 |
De la conception collaborative à l'ingénierie peformante de produits optimisés à base de connaissances métierVarret, Antoine 12 January 2012 (has links) (PDF)
Dans un processus traditionnel de conception de produits mécaniques, l'organisation classique est la conception du produit puis son dimensionnement et enfin son optimisation. Les concepteurs prennent des risques en n'évaluant les performances du produit que dans les dernières phases du processus, et l'étape d'optimisation est bien souvent mise de côté, faute de temps ou à cause du retard pris sur les autres phases. La phase de conception préliminaire est une étape délicate car les décisions doivent y être prises dans un contexte imprécis ou peu de choses sont définies. Il n'existe pas d'outils informatiques adaptés et l'étude de plusieurs concepts multiplie les tâches routinières et les pertes de temps associées. Le concepteur prend donc des risques en réduisant le nombre de concepts développés. Le dimensionnement de produits comporte également un certain nombre de difficultés, comme un positionnement tardif dans le processus, entraînant des étapes de pré et post traitement lourdes ainsi que des simulations longues. L'analyse d'aide à la décision est prometteuse mais elle reste marginale, faute de modèles simplifiés disponibles dans les phases amont du processus de conception.Cette thèse expose la synthèse de nos travaux de recherche portant sur l'optimisation en conception de systèmes mécaniques. L'étude proposée s'intègre dans une démarche d'ingénierie hautement productive de systèmes mécaniques et comporte plusieurs facettes : conception fonctionnelle paramétrique, application d'ingénierie à base de connaissances, outils de simulation numérique et d'optimisation. Nous proposons une méthodologie permettant d'introduire au plus tôt dans le processus de conception, une étape d'optimisation couplée à des simulations d'aide à la décision, en vue d'identifier des architectures optimales inédites, présentant les meilleurs compromis vis-à-vis d'objectifs multiples relatifs au comportement mécanique. L'objectif du travail de recherche est de développer des modèles, des méthodes et des outils dédiés à la génération semi-automatique de modèles géométriques tridimensionnels multiples identifiés comme solutions les plus performantes dans un cadre de conception collaborative de produits mécaniques. Notre méthodologie est ensuite expérimentée sur plusieurs projets de conception de systèmes mécaniques relevant de la mécanique des structures, en analyses statique et dynamique. Il s'agit en particulier de la conception d'organes du véhicule de l'UTBM participant au trophée SIA.
|
405 |
Simulation du procédé de nanoimpression thermiquesur silicium revêtu d'un film polymère ultraminceTEYSSEDRE, Hubert 12 November 2013 (has links) (PDF)
La nano-structuration des surfaces est un intrigant domaine de la physique des matériaux que l'homme s'est approprié aussi bien à des fins esthétiques que fonctionnelles. Les nanostructures peuvent être présentes à l'état naturel (effet déperlant de la feuille de lotus) ou à l'état artificiel pour répondre à des besoins techniques et peuvent alors être fabriquées par lithographie. Le procédé étudié dans cette thèse est la nanoimpression thermique qui permet de répliquer à moindre coût les micro- et nanostructures d'un moule vers la surface d'un substrat. Ce procédé d'embossage consiste à imprimer le moule dans un film mince de polymère thermoplastique (50 à 500 nm d'épaisseur) préalablement déposé sur le substrat. Eventuellement, une étape ultérieure de gravure permet de transférer dans ce dernier les motifs imprimés. On s'intéresse en particulier à l'évaluation des vitesses d'impression des structures dans des films de polystyrène sur substrat de silicium. Un logiciel de simulation numérique a été développé ; il utilise la méthode des éléments naturels contraints (C-NEM). L'accent a été mis sur la prise en compte de trois effets éminemment importants à l'échelle nanométrique : tension de surface, mouillage, glissement à l'interface fluide-solide. Combiné à un comportement visqueux non linéaire, cela permet de rendre partiellement compte des phénomènes physiques qui surviennent lors de l'impression et d'avoir des temps de simulation compatibles avec les contraintes industrielles tout en conservant une évaluation pertinente des vitesses d'impression. Cette démarche nous place à mi-chemin entre des modèles analytiques très simples mais ayant un cadre d'utilisation très restreint et des modèles plus complexes trop onéreux pour la simulation, comme la viscoélasticité en grandes transformations. Ces travaux abordent enfin le problème de la caractérisation du polymère à l'échelle des films minces. Un des défis majeurs relevés ici consistait à appliquer à des films minces le comportement du polymère caractérisé à l'échelle macroscopique. La validation expérimentale de toute la théorie élaborée a permis d'appuyer cette démarche et d'en révéler les limites. Ces approches théorique et expérimentale sont un premier pas vers la conception d'un outil numérique d'optimisation de la nanoimpression thermique.
|
406 |
Détermination de la vitesse limite par fusion de données vision et cartographiques temps-réel embarquéesPuthon, Anne-Sophie 02 April 2013 (has links) (PDF)
Les systèmes d'aide à la conduite sont de plus en plus présents dans nos véhicules et nous garantissent un meilleur confort et plus de sécurité. Dans cette thèse, nous nous sommes particulièrement intéressés aux systèmes d'adaptation automatique de la vitesse limite. Nous avons proposé une approche alliant vision et navigation pour gérer de façon optimale l'environnement routier.Panneaux, panonceaux et marquages sont autant d'informations visuelles utiles au conducteur pour connaître les limitations temporaires en vigueur sur la route. La reconnaissance des premiers ont fait l'objet ces dernières années d'un grand nombre d'études et sont même commercialisés, contrairement aux seconds. Nous avons donc proposé un module de détection et classification de panonceaux sur des images à niveaux de gris. Un algorithme de reconstruction morphologique associé à une croissance de régions nous ont permis de concentrer la segmentation sur les zones fortement contrastées de l'image entourées d'un ensemble de pixels d'intensité similaire. Les rectangles ainsi détectés ont ensuite fait l'objet d'une classification au moyen de descripteurs globaux de type PHOG et d'une structure hiérarchique de SVMs. Afin d'éliminer en dernier lieu les panonceaux ne s'appliquant pas à la voie sur laquelle circule le véhicule, nous avons pris en compte les informations de marquages à l'aide d'une machine d'états.Après avoir élaboré un module de vision intégrant au mieux toutes les informations disponibles, nous avons amélioré le système de navigation. Son objectif est d'extraire d'une base de données embarquée, le contexte de conduite lié à la position du véhicule. Ville ou non, classe fonctionnelle et type de la route, vitesse limite sont extraits et modélisés sous forme d'attributs. La fiabilité du capteur est ensuite calculée en fonction du nombre de satellites visibles et de la qualité de numérisation du réseau. La confiance en chaque vitesse limite sera alors fonction de ces deux ensembles.La fusion des deux sources au moyen de Demspter-Shafer a conduit à de très bonnes performances sur nos bases de données et démontré l'intérêt de tous ces éléments.
|
407 |
Meso-scale FE and morphological modeling of heterogeneous media : applications to cementitious materials "Roubin, Emmanuel 10 October 2013 (has links) (PDF)
The present thesis is part of an approach that attempts to represent the quasi-brittle behavior of heterogeneous materials such as cementitious ones. The guideline followed fits in a sequenced multi-scale framework for which descriptions of the material are selected at a thin scale (mesoscopic or microscopic) and information is transferred to a larger scale (macroscopic). It shows how the explicit representation of heterogeneities offers interesting prospects on identification, understanding and modeling of macroscopic behaviors. In practice, from a simple description of each phases and interfaces behavior, a structural effect that leads to more complex macroscopic behavior is observed. This work is therefore focusing on two main axes. On the one hand, the morphological representation of the heterogeneities is handle using the excursion sets theory. Randomly shaped inclusions, which geometrical and topological characteristics are analytically controlled, are produced by applying a threshold on realizations of correlated Random Fields. On the other hand, the FE implementation of both heterogeneity and local degradation behavior (micro-cracking) are dealt with by a double kinematics enhancement (weak and strong discontinuity) using the Embedded Finite Element Method. Finally, combining both axes of the problematic, the resulting model is tested by modeling cementitious materials at the meso-scale under uniaxial loadings mainly. It reveals an emergent macroscopic response that exhibits several features such as asymmetry of the tension-compression stress-strain relationship, crack patterns or historical-dependency, which are typical of concrete-like materials.
|
408 |
Etude de stratégies de gestion énergétique des bâtiments par l'application de la programmation dynamiqueFavre, Bérenger 24 September 2013 (has links) (PDF)
Ce travail de thèse porte sur la gestion énergétique des bâtiments par l'application de la programmation dynamique. Cet algorithme d'optimisation permet de développer des commandes prédictives, c'est à dire un ensemble de commandes à appliquer pendant une période donnée pour réduire la consommation énergétique du bâtiment ou améliorer le confort thermique des habitants.Un premier cas d'étude développe le cas du pilotage du chauffage d'un bâtiment pour effacer sa consommation en période de pointe électrique ou de pointe d'émission de CO2.Un second cas d'étude s'intéresse à une période de forte chaleur estivale ou le pilotage des protections solaires et de la ventilation mécanique contrôlée permet l'amélioration du confort thermique des occupants. Le pilotage des ouvertures (porte, fenêtre) est également étudié avec une comparaison de la régulation obtenue avec une régulation mise en place sur une maison test "Air et Lumière".Enfin la dernière partie du travail s'intéresse à la prévision des données climatiques locales grâce aux méthodes des chaînes de Markov et des réseaux de neurones artificiels. L'influence des erreurs de prévision sur la mise en place d'une stratégie d'effacement de la consommation de pointe dans le bâtiment est également étudiée.
|
409 |
Étude théorique et expérimentale d'une torche plasma triphasée à arcs libres associée à un procédé de gazéification de matière organiqueRehmet, Christophe 24 September 2013 (has links) (PDF)
Les torches à arcs plasma sont actuellement utilisées dans de nombreuses applications industrielles. Une technologie plasma triphasée à électrodes en graphite est en cours de développement au Centre PERSEE MINES ParisTech. Cette technologie diffère sensiblement des technologies à courant continu traditionnelles et vise à dépasser certaines limites des systèmes actuels en termes de robustesse, de coûts d'équipement et d'exploitation pour des applications liées à conversion et la valorisation de biomasse et déchets. Dans le but d'améliorer la compréhension des phénomènes physiques instationnaires intervenant dans les décharges triphasées, une étude menée en parallèle sur les plans théorique et expérimental a été conduite en conditions non réactives (azote et gaz de synthèse). Sur un plan expérimental cette étude s'est appuyée sur des analyses réalisées avec une caméra ultra rapide (100 000 images par seconde) et l'analyse des signaux électriques. Sur un plan théorique cette étude a consisté à développer un modèle Magnéto-Hydro-Dynamique (MHD) 3D instationnaire de la zone d'arc dans l'environnement du logiciel Code Saturne® et à effectuer une étude paramétrique basée sur le courant, la fréquence et le débit de gaz plasma. Deux configurations : électrodes coplanaires et parallèles ont été étudiées. Cette étude a permis de mettre en avant l'influence des phénomènes électromagnétiques et hydrodynamiques sur le déplacement de l'arc. Dans le cas coplanaire les jets aux électrodes semblent jouer un rôle prépondérant sur le mouvement des arcs, les transferts de chaleur dans l'espace inter électrode et l'amorçage des arcs. Dans le cas parallèle le mouvement des canaux chauds semble être le paramètre dominant. La confrontation des résultats théoriques et expérimentaux a montré un très bon accord à la fois au niveau du mouvement des arcs et des signaux électriques.
|
410 |
Transformations de programme automatiques et source-à-source pour accélérateurs matériels de type GPUAmini, Mehdi 13 December 2012 (has links) (PDF)
Depuis le début des années 2000, la performance brute des cœurs des processeurs a cessé son augmentation exponentielle. Les circuits graphiques (GPUs) modernes ont été conçus comme des circuits composés d'une véritable grille de plusieurs centaines voir milliers d'unités de calcul. Leur capacité de calcul les a amenés à être rapidement détournés de leur fonction première d'affichage pour être exploités comme accélérateurs de calculs généralistes. Toutefois programmer un GPU efficacement en dehors du rendu de scènes 3D reste un défi.La jungle qui règne dans l'écosystème du matériel se reflète dans le monde du logiciel, avec de plus en plus de modèles de programmation, langages, ou API, sans laisser émerger de solution universelle.Cette thèse propose une solution de compilation pour répondre partiellement aux trois "P" propriétés : Performance, Portabilité, et Programmabilité. Le but est de transformer automatiquement un programme séquentiel en un programme équivalent accéléré à l'aide d'un GPU. Un prototype, Par4All, est implémenté et validé par de nombreuses expériences. La programmabilité et la portabilité sont assurées par définition, et si la performance n'est pas toujours au niveau de ce qu'obtiendrait un développeur expert, elle reste excellente sur une large gamme de noyaux et d'applications.Une étude des architectures des GPUs et les tendances dans la conception des langages et cadres de programmation est présentée. Le placement des données entre l'hôte et l'accélérateur est réalisé sans impliquer le développeur. Un algorithme d'optimisation des communications est proposé pour envoyer les données sur le GPU dès que possible et les y conserver aussi longtemps qu'elle ne sont pas requises sur l'hôte. Des techniques de transformations de boucles pour la génération de code noyau sont utilisées, et même certaines connues et éprouvées doivent être adaptées aux contraintes posées par les GPUs. Elles sont assemblées de manière cohérente, et ordonnancées dans le flot d'un compilateur interprocédural. Des travaux préliminaires sont présentés au sujet de l'extension de l'approche pour cibler de multiples GPUs.
|
Page generated in 0.0284 seconds