111 |
Fab-Cell : outil d'aide à la conception de parois non standards en bois / Fab-Cell : Aided-design tool for non-standard timber wallsGámez Bohórquez, Oscar 24 March 2017 (has links)
L’intégration du langage informatique dans l’architecture et l’ingénierie a commencé dès les années 1960, mais a connu un réel essor dans les années 1990. Les outils de modélisation ont alors progressivement fait émerger une nouvelle architecture. Tout d’abord baptisée « architecture blob », on lui a ensuite attribué le nom de « blobisme » et ses dérivés sont aujourd’hui appelés « architecture non standard ». Au cours de la dernière décennie, certains chercheurs comme Mario Carpo ou praticiens comme Patrick Schumacher ont introduit les termes de « paramétrisme », « customisation de masse », et « architecture non standard » pour définir ces nouvelles constructions complexes. Elles ne sont pas nécessairement savantes, mais ont été conçues grâce à des outils numériques et réalisées avec des méthodes de fabrication digitales. Cette thèse prend appui sur le postulat qu’une approche non standard dans un projet est loin de se résumer à une démarche purement plastique ou fonctionnelle : elle est destinée à produire des objets constructibles. Le domaine d’étude est celui des murs et enveloppes construites en bois et plus particulièrement les parois de type cellulaire. Ce travail inclut donc un outil paramétrique d’aide à la conception (ACPT, Aided-Conception Parametric Tool) et à la fabrication qui peut accompagner les concepteurs dans l’exploration de solutions non-standards pour des problèmes architecturaux spécifiques Cet outil paramétrique et intégré s’appuie sur une modélisation géométrique et technique des parois murales et des différents dispositifs cellulaires qui les composent. L’approche paramétrique autorise le développement de nombreuses variantes morphologiques. Sa dimension intégrée permet la production et l’optimisation des données tant topologiques que constructives. La production grandeur nature d’une paroi réalisée par un robot de coupe a servi de cadre expérimental pour démontrer les potentialités de notre approche mais aussi en identifier les difficultés. Les améliorations effectuées ont conduit à produire une série de clusters (groupes de fonctions) pour Rhinoceros-Grasshopper (RGH) qui ont permis de mettre en oeuvre la première version opérationnelle de cet outil, baptisée Fab-Cell / The integration of computing language into architecture and engineering has been present since the 1960s but it only proved practical by the 1990s when modeling tools started to participate in an architectural shift that has conceptually mutated through the years. By then, the trend was called “blob architecture” and thirteen years ago, trends succeeding “blobism” were named as non-standard architecture. In the last ten years, academicians like Mario Carpo and practitioners such as Patrick Schumacher nested the terms parametricism, mass customization, and nonstandard architecture to define those complex –not necessarily complicated architectures created by using of digital tools and aided-manufacturing methods. This thesis is underpinned on the fact that using the non-standard approach in any architectural project needs more than just a plastic or functional intention but the means to translate that intention into actual buildable objects. The aims of this study are therefore oriented towards architectural elements using cellular-like patterns as morphologic resource. This work brings up an Aided-Conception Parametric Tool (ACPT) that actually helps designers to explore non-standard solutions to specific architectural problems regarding timber-built walls and envelopes. This ACPT is meant then to succeed architectural intentions in which geometric patterns –as morphologic modifiers- are used to provide walls and envelopes with a particular language (a cellular structure) that might require morphologic form searching (Carpo, 2015a) and topologic optimization by means of parametric generative modeling. The previously mentioned aims were validated by means of a full-scale prototyping exercise in which the first version of the ACPT is tested. Furthermore A series of modeling improvements regarding pattern generation, jointing calculation and fabrication simulation, helped fixing the difficulties found during the first validation stage in order to produce a set of Rhinoceros-Grasshopper (RGH) functional clusters that embody the early operational state of this ACPT called Fab-Cell
|
112 |
Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique / Blind source separation methods and applications to astrophysical hyperspectral dataBoulais, Axel 15 December 2017 (has links)
Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature. / This thesis deals with the development of new blind separation methods for linear instantaneous mixtures applicable to astrophysical hyperspectral data sets. We propose three approaches to perform data separation. A first contribution is based on hybridization of two existing blind source separation (BSS) methods: the SpaceCORR method, requiring a sparsity assumption, and a non-negative matrix factorization (NMF) method. We show that using SpaceCORR results to initialize the NMF improves the performance of the methods used alone. We then proposed a first original method to relax the sparsity constraint of SpaceCORR. The method called MASS (Maximum Angle Source Separation) is a geometric method based on the extraction of single-source pixels to achieve the separation of data. We also studied the hybridization of MASS with the NMF. Finally, we proposed an approach to relax the sparsity constraint of SpaceCORR. The original method called SIBIS (Subspace-Intersection Blind Identification and Separation) is a geometric method based on the identification of intersections of subspaces generated by regions of the hyperspectral image. Under a sparsity assumption, these intersections allow one to achieve the separation of the data. The approaches proposed in this manuscript have been validated by experimentations on simulated data and then applied to real data. The results obtained on our data are very encouraging and are compared with those obtained by methods from the literature.
|
113 |
Arrangements de cercles sur une sphère: Algorithmes et Applications aux modèles moléculaires representés par une union de boulesLoriot, Sebastien 02 December 2008 (has links) (PDF)
Depuis les travaux précurseurs de Richard et al., les constructions géométriques<br />occupent une place importante dans la description des macro-molécules et leurs assemblages.<br />En particulier, certains complexes cellulaires liés au diagramme de Voronoï<br />ont été utilisés pour décrire les propriétés de compacité des empilement atomiques,<br />calculer des surfaces moléculaires, ou encore détecter des cavités à la surface des molécules.<br />Cette thèse se positionne dans ce contexte, et après une brève introduction à la<br />structure des protéines, détaille quatre contributions.<br /><br />Premièrement, en utilisant le principe de balayage introduit par <br />Bentley et Ottmann, cette thèse présente le premier algorithme effectif<br />pour construire l'arrangement exact de cercles sur une sphère.<br />De plus, en supposant que les cercles proviennent de l'intersection entre<br />sphères, une stratégie pour calculer les listes couvrantes d'une face de<br />l'arrangement (i.e. la liste des boules qui la recouvrent) est proposée.<br />L'exactitude n'étant pas une fin en soi, mais plutôt une façon de rendre l'algorithmique<br />robuste, nous montrons expérimentalement que le surcoût induit est modeste.<br /><br />Deuxièmement, cette thèse développe les primitives algébriques et géométriques<br />requises par l'algorithme de balayage afin de le rendre générique et robuste. Ces primitives<br />sont intégrées dans une contexte plus général, à savoir le noyau CGAL pour les objets sphériques.<br /><br />Troisièmement, la machinerie introduite est utilisée pour traiter un problème<br />de biologie structurale computationelle : la sélection d'un sous-ensemble varié<br />à partir d'un ensemble redondant de conformations de boucles.<br />Nous proposons de résoudre ce problème de sélection en retenant les <br />représentants qui maximisent l'aire ou le volume de la sélection.<br />Ces questions peuvent être traitées géométriquement à l'aide d'arrangements de cercles sur une sphère.<br />La validation est faîte sur deux fronts.<br />D'un point de vue géométrique, nous montrons que notre approche génère des sélections<br />dont l'aire de la surface moléculaire équivaut à celle de sélections obtenues par des stratégies <br />classiques, mais qui sont de taille nettement inférieure.<br />Du point de vue amarrage de protéines, nous montrons que nos sélections améliorent de<br />manière significative les résultats obtenus à l'aide d'un algorithme manipulant des<br />parties flexibles.<br /><br />Pour finir, nous discutons les problèmes et choix d'implémentation, en<br />les replaçant dans le contexte de la librairie CGAL.
|
114 |
Application au désaccordage des roues aubagées.Dynamique des structures tournantes à symétrie cyclique en présence d'incertitudes aléatoiresCapiez-Lernout, Evangéline 14 October 2004 (has links) (PDF)
L'objet de ce travail de recherche est de proposer de nouvelles méthodologies probabilistes pour l'analyse<br />dynamique basses fréquences du désaccordage des structures tournantes à symétrie cyclique. La classe de structure étudiée est<br />la roue aubagée. Tout d'abord, un modèle probabiliste non paramétrique récent est utilisé pour construire une approche<br />probabiliste directe, permettant d'analyser l'amplification dynamique de la réponse forcée des aubes, induite par le<br />désaccordage. En particulier, une telle approche permet de modéliser de manière cohérente le désaccordage en fréquences des<br />aubes et le désaccordage en modes des aubes. Ensuite, une approche probabiliste inverse, reposant sur une méthode<br />d'identification des paramètres de dispersion du modèle probabiliste non paramétrique, est construite afin de déterminer les<br />tolérances des aubes, conduisant à une probabilité donnée du facteur d'amplification dynamique de la réponse forcée. Enfin, ces<br />méthodologies sont mises en oeuvre numériquement sur un exemple numérique simple et sur un modèle complexe de roue aubagée.<br />Les réponses forcées désaccordées obtenues par le modèle probabiliste non paramétrique et par le modèle probabiliste<br />paramétrique classiquement utilisé pour la problématique du désaccordage sont comparées. Par ailleurs, la méthodologie du<br />problème inverse permet d'optimiser les tolérances de l'aube pour réduire l'amplification de la réponse forcée. L'analyse des<br />résultats valide la pertinence des méthodologies proposées.
|
115 |
Modèle de Littelmann pour cristaux géométriques, fonctions de Whittaker sur des groupes de Lie et mouvement brownien.Chhaibi, Reda 24 January 2013 (has links) (PDF)
De façon générale, cette thèse s'intéresse aux liens entre théorie des représentations et probabilités. Elle se subdivise en principalement trois parties. Dans un premier volet plutôt algébrique, nous construisons un modèle de chemins pour les cristaux géométriques de Berenstein et Kazhdan, pour un groupe de Lie complexe semi-simple. Il s'agira pour l'essentiel de décrire la structure algébrique, ses morphismes naturels et ses paramétrisations. La théorie de la totale positivité y jouera un role particulièrement important. Ensuite, nous avons choisi d'anticiper sur les résultats probabilistes et d'exhiber une mesure canonique sur les cristaux géométriques. Celle-ci utilise comme ingrédients le superpotentiel de variété drapeau, et une mesure invariante sous les actions cristallines. La mesure image par l'application poids joue le role de mesure de Duistermaat-Heckman. Sa transformée de Laplace définit les fonctions de Whittaker, fournissant une formule intégrale particulièrement intéressante pour tous les groupes de Lie. Il apparait alors clairement que les fonctions de Whittaker sont aux cristaux géométriques, ce que les caractères sont aux cristaux combinatoires classiques. La règle de Littlewood-Richardson est aussi exposée. Enfin nous présentons l'approche probabiliste permettant de trouver la mesure canonique. Elle repose sur l'idée fondamentale que la mesure de Wiener induira la bonne mesure sur les structures algébriques du modèle de chemins. Dans une dernière partie, nous démontrons comment notre modèle géométrique dégénère en le modèle de Littelmann continu classique, pour retrouver des résultats connus. Par exemple, la mesure canonique sur un cristal géométrique de plus haut poids dégénère en une mesure uniforme sur un polytope, et retrouve les paramétrisations des cristaux continus.
|
116 |
Aide au tolérancement tridimensionnel : modèle des domainesMansuy, Mathieu 25 June 2012 (has links) (PDF)
Face à la demande de plus en plus exigeante en terme de qualité et de coût de fabrication des produits manufacturés, la qualification et quantification optimal des défauts acceptables est primordial. Le tolérancement est le moyen de communication permettant de définir les variations géométriques autorisé entre les différents corps de métier intervenant au cours du cycle de fabrication du produit. Un tolérancement optimal est le juste compromis entre coût de fabrication et qualité du produit final. Le tolérancement repose sur 3 problématiques majeures: la spécification (normalisation d'un langage complet et univoque), la synthèse et l'analyse de tolérances. Nous proposons dans ce document de nouvelles méthodes d'analyse et de synthèse du tolérancement tridimensionnel. Ces méthodes se basent sur une modélisation de la géométrie à l'aide de l'outil domaine jeux et écarts développé au laboratoire. La première étape consiste à déterminer les différentes topologies composant un mécanisme tridimensionnel. Pour chacune de ces topologies est définie une méthode de résolution des problématiques de tolérancement. Au pire des cas, les conditions de respect des exigences fonctionnelles se traduisent par des conditions d'existence et d'inclusions sur les domaines. Ces équations de domaines peuvent ensuite être traduites sous forme de système d'inéquations scalaires. L'analyse statistique s'appuie sur des tirages de type Monte-Carlo. Les variables aléatoires sont les composantes de petits déplacements des torseur écarts défini à l'intérieur de leur zone de tolérance (modélisée par un domaine écarts) et les dimensions géométriques fixant l'étendue des jeux (taille du domaine jeux associé). A l'issue des simulations statistiques, il est possible d'estimer le risque de non-qualité et les jeux résiduels en fonction du tolérancement défini. Le développement d'une nouvelle représentation des domaines jeux et écarts plus adapté, permet de simplifier les calculs relatifs aux problématiques de tolérancement. Le traitement local de chaque topologie élémentaire de mécanisme permet d'effectuer le traitement global des mécanismes tridimensionnels complexes avec prise en compte des jeux.
|
117 |
Caractérisation du réseau veineux en imagerie scanner 4D. Contribution à la planification de Thérapie par Resynchronisation Cardiaque.Garcia, Marie-Paule 27 January 2011 (has links) (PDF)
Ce travail de thèse se place dans le contexte clinique de la Thérapie par Resynchronisation Cardiaque (CRT), approche thérapeutique efficace pour les patients souffrant d'insuffisance cardiaque et d'asynchronie ventriculaire. Dans le cadre de la stimulation biventriculaire, la stimulation de la paroi latérale du ventricule gauche via le réseau veineux coronaire, pose en particulier problème. La planification de ce geste interventionnel à partir de données pré-opératoires permettrait d'optimiser la procédure. Afin d'atteindre cet objectif, ce travail a pour finalité l'extraction et la caractérisation 3D du réseau veineux en imagerie scanner multibarrette acquise en phase pré-opératoire. Une approche hybride a été développée spécifiquement pour la détection de vaisseaux présentant des inhomogénéités de contraste. Cette méthode est composée d'un algorithme de suivi de vaisseau 3D basé sur les chemins minimaux, permettant l'extraction d'un vaisseau sur toute sa longueur avec une première estimation de sa ligne centrale. Cette extraction est ensuite complétée par une estimation précise des paramètres locaux du vaisseau à l'aide des moments géométriques. La méthode a été évaluée sur les veines coronaires d'intérêt pour la CRT à partir de bases scanner acquises en phase pré-opératoire. Enfin, une analyse prospective des problèmes liés à la planification de la pose du stimulateur ventriculaire gauche via le réseau veineux a été effectuée.
|
118 |
Indecomposabilité dans les théories des champs et applications aux systèmes désordonnés et aux problèmes géométriquesRomain, Vasseur 27 September 2013 (has links) (PDF)
Les théories des champs conformes logarithmiques (LCFTs) sont cruciales pour décrire le comportement critique de systèmes physiques variés: les transitions de phase dans les systèmes électroniques désordonnés sans interaction (comme par exemple la transition entre plateaux dans l'effet Hall quantique entier), les points critiques désordonnés dans les systèmes statistiques classiques (comme le modèle d'Ising avec liens aléatoires), ou encore les modèles géométriques critiques (comme la percolation ou les marches aléatoires auto-évitantes). Les LCFTs décrivent des théories non unitaires, qui ne seraient probablement pas pertinentes dans le contexte de la physique des particules, mais qui apparaissent naturellement en matière condensée et en physique statistique. Sans cette condition d'unitarité, toute la puissance algébrique qui a fait le succès des théories conformes est fortement compromise à cause de ''l'indécomposabilité'' de la théorie des représentations sous-jacente. Ceci a pour conséquence de modifier les fonctions de corrélation algébriques par des corrections logarithmiques, et réduit sévèrement l'espoir d'une classification générale. Le but de cette thèse est d'analyser ces théories logarithmiques en étudiant leur régularisation sur réseau, l'idée principale étant que la plupart des difficultés algébriques causées par l'indécomposabilité sont déjà présentes dans des systèmes de taille finie. Notre approche consiste à considérer des modèles statistiques critiques avec matrice de transfert non diagonalisable (ou des chaînes de spins critiques avec Hamiltonien non diagonalisable) et d'analyser leur limite thermodynamique à l'aide de différentes méthodes numériques, algébriques et analytiques. On explique en particulier comment mesurer numériquement les paramètres universels qui caractérisent les représentations indécomposables qui apparaissent à la limite continue. L'analyse détaillée d'une vaste classe de modèles sur réseau nous permet également de conjecturer une classification de toutes les LCFTs chirales pertinentes physiquement, pour lesquelles la seule symétrie est donnée par l'algèbre de Virasoro. Cette approche est aussi partiellement étendue aux théories non chirales, avec une attention particulière portée au problème bien connu de la formulation d'une théorie des champs cohérente qui décrirait la percolation en deux dimensions. On montre que les modèles sur réseaux périodiques ou avec bords peuvent être reliés algébriquement seulement dans le cas des modèles minimaux, impliquant des conséquences intéressantes pour les théories des champs sous-jacentes. Un certain nombre d'applications aux systèmes désordonnés et aux modèles géométriques sont également abordées, avec en particulier une discussion détaillée des observables avec comportement logarithmique au point critique dans le modèle de Potts en dimension arbitraire.
|
119 |
Commande numérique ouverte : interpolation optimisée pour l'usinage 5 axes grande vitesse des surfaces complexesBeudaert, Xavier 04 July 2013 (has links) (PDF)
Le processus de fabrication des pièces usinées arrive à maturité concernant la fabrication assistée par ordinateur et la maîtrise du procédé d'usinage. Aujourd'hui, les perspectives d'améliorations importantes sont liées à l'optimisation de la commande numérique et de ses interactions avec le reste du processus de fabrication. L'objectif de cette thèse est donc de maîtriser les briques de base de la commande numérique pour optimiser le processus d'usinage 5 axes grande vitesse des surfaces complexes. La création d'une commande numérique ouverte nécessite le développement des algorithmes qui transforment le programme d'usinage en consignes échantillonnées pour les axes de la machine. La première partie des travaux consiste à rendre la géométrie suffisamment continue notamment pour les trajets interpolés linéairement en 5 axes qui présentent des discontinuités en tangence. Ensuite, l'interpolation temporelle du trajet crée la trajectoire d'usinage respectant les contraintes cinématiques et en particulier le jerk de chacun des 5 axes de la machine. L'implémentation matérielle de ces algorithmes permet de piloter une machine d'usinage grande vitesse 5 axes avec une commande numérique ouverte. Ainsi, les verrous technologiques associés aux commandes numériques industrielles sont levés et la chaîne numérique est entièrement contrôlée de la CFAO jusqu'au déplacement des axes. La maîtrise complète de la commande numérique offre la possibilité de définir exactement le trajet d'usinage à partir de la CAO sans introduire les écarts géométriques inhérents aux formats de description standards. L'interpolation de la trajectoire d'usinage directement sur la surface à usiner améliore de manière significative la qualité et la productivité de l'usinage des surfaces complexes. La commande numérique PREMIUM-OpenCNC permet la validation expérimentale de ces travaux et ouvre de nombreuses autres voies d'amélioration du processus de fabrication.
|
120 |
Identification passive en acoustique : estimateurs et applications au SHM / Passive estimation in acoustics : estimators and applications to SHMVincent, Rémy 08 January 2016 (has links)
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome. / Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network.
|
Page generated in 0.0632 seconds