61 |
Inverse geometry : from the raw point cloud to the 3d surface : theory and algorithms / Géométrie inverse : du nuage de points brut à la surface 3D : théorie et algorithmesDigne, Julie 23 November 2010 (has links)
De nombreux scanners laser permettent d'obtenir la surface 3D a partir d'un objet. Néanmoins, la surface reconstruite est souvent lisse, ce qui est du au débruitage interne du scanner et aux décalages entre les scans. Cette these utilise des scans haute precision et choisit de ne pas perdre ni alterer les echantillons initiaux au cours du traitement afin de les visualiser. C'est en effet la seule façon de decouvrir les imperfections (trous, decalages de scans). De plus, comme les donnees haute precision capturent meme le plus leger detail, tout debruitage ou sous-echantillonnage peut amener a perdre ces details.La these s'attache a prouver que l'on peut trianguler le nuage de point initial en ne perdant presque aucun echantillon. Le probleme de la visualisation exacte sur des donnees de plus de 35 millions de points et de 300 scans differents est ainsi resolu. Deux problemes majeurs sont traites: le premier est l'orientation du nuage de point brut complet et la creation d'un maillage. Le second est la correction des petits decalages entre les scans qui peuvent creer un tres fort aliasing et compromettre la visualisation de la surface. Le second developpement de la these est une decomposition des nuages de points en hautes/basses frequences. Ainsi, des methodes classiques pour l'analyse d'image, l'arbre des ensembles de niveau et la representation MSER, sont etendues aux maillages, ce qui donne une methode intrinseque de segmentation de maillages. Une analyse mathematiques d'operateurs differentiels discrets, proposes dans la litterature et operant sur des nuages de points est realisee. En considerant les developpements asymptotiques de ces operateurs sur une surface reguliere, ces operateurs peuvent etre classifies. Cette analyse amene au developpement d'un operateur discret consistant avec Ie mouvement par courbure moyenne (l'equation de la chaleur intrinseque) definissant ainsi un espace-echelle numerique simple et remarquablement robuste. Cet espace-echelle permet de resoudre de maniere unifiee tous les problemes mentionnes auparavant (orientation et triangulation du nuage de points, fusion de scans, segmentation de maillages) qui sont ordinairement traites avec des techniques distinctes. / Many laser devices acquire directly 3D objects and reconstruct their surface. Nevertheless, the final reconstructed surface is usually smoothed out as a result of the scanner internal de-noising process and the offsets between different scans. This thesis, working on results from high precision scans, adopts the somewhat extreme conservative position, not to loose or alter any raw sample throughout the whole processing pipeline, and to attempt to visualize them. Indeed, it is the only way to discover all surface imperfections (holes, offsets). Furthermore, since high precision data can capture the slightest surface variation, any smoothing and any sub-sampling can incur in the loss of textural detail.The thesis attempts to prove that one can triangulate the raw point cloud with almost no sample loss. It solves the exact visualization problem on large data sets of up to 35 million points made of 300 different scan sweeps and more. Two major problems are addressed. The first one is the orientation of the complete raw point set, an the building of a high precision mesh. The second one is the correction of the tiny scan misalignments which can cause strong high frequency aliasing and hamper completely a direct visualization.The second development of the thesis is a general low-high frequency decomposition algorithm for any point cloud. Thus classic image analysis tools, the level set tree and the MSER representations, are extended to meshes, yielding an intrinsic mesh segmentation method.The underlying mathematical development focuses on an analysis of a half dozen discrete differential operators acting on raw point clouds which have been proposed in the literature. By considering the asymptotic behavior of these operators on a smooth surface, a classification by their underlying curvature operators is obtained.This analysis leads to the development of a discrete operator consistent with the mean curvature motion (the intrinsic heat equation) defining a remarkably simple and robust numerical scale space. By this scale space all of the above mentioned problems (point set orientation, raw point set triangulation, scan merging, segmentation), usually addressed by separated techniques, are solved in a unified framework.
|
62 |
L'enseignement des identités remarquables : un dispositif de formation initiale des maîtresTouré, Mohamed Lamine January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
63 |
Sur des problèmes topologiques de la géométrie systolique. / On some topological problems of systolic geometry.Bulteau, Guillaume 18 December 2012 (has links)
Soit G un groupe de présentation finie. Un résultat de Gromov affirme l'existence de cycles géométriques réguliers qui représentent une classe d'homologie non nulle h dans le énième groupe d'homologie à coefficients entiers de G, cycles géométriques dont le volume systolique est aussi proche que souhaité du volume systolique de h. Ce théorème, dont aucune démonstration exhaustive n'avait été faite, a servi à obtenir plusieurs résultats importants en géométrie systolique. La première partie de cette thèse est consacrée à une démonstration complète de ce résultat. L'utilisation de ces cycles géométriques réguliers est connue sous le nom de technique de régularisation. Cette technique permet notamment de relier le volume systolique de certaines variétés fermées à d'autres invariants topologiques de ces variétés, tels que les nombres de Betti ou l'entropie minimale. La seconde partie de cette thèse propose d'examiner ces relations, et la mise en oeuvre de la technique de régularisation.La troisième partie est consacrée à trois problèmes liés à la géométrie systolique. Dans un premier temps on s'intéresse à une inégalité concernant les tores pleins plongés dans l'espace tridimensionnel. Puis, on s'intéresse ensuite aux triangulations minimales des surfaces compactes, afin d'obtenir des informations sur le volume systolique de ces surfaces. Enfin, on présente la notion de complexité simpliciale d'un groupe de présentation finie, et ses liens avec la géométrie systolique. / Let G be a finitely presented group. A theorem of Gromov asserts the existence of regular geometric cycles which represent a non null homology class h in the nth homology group with integral coefficients of G, geometric cycles which have a systolic volume as close as desired to the systolic volume of h. This theorem, of which no complete proof has been given, has lead to major results in systolic geometry. The first part of this thesis is devoted to a complete proof of this result.The regularizationtechnique consists in the use of these regular geometric cycles to obtain information about the class $h$. This technique allows to link the systolic volume of some closed manifolds to homotopical invariants of these manifolds, such as the minimal entropy and the Betti numbers. The second part of this thesis proposes to investigate these links.The third part of this thesis is devoted to three problems of systolic geometry. First we are investigating an inequality about embeded tori in $R^3$. Second, we are looking into minimal triangulations of compact surfaces and some information they can provide in systolic geometry. And finally, we are presenting the notion of simplicial complexity of a finitely-presented group and its links with the systolic geometry.
|
64 |
Modélisation et simulation du procédé de prépolissage automatique sur centre d'usinage 5 axes / Modeling and simulation of automatic pre-polishing process on 5-axis machining centerGuiot, Anthony 06 December 2012 (has links)
La réalisation de formes complexes comme les moules ou les prothèses médicales nécessite l’utilisation d’opérations de super finition pour obtenir de faibles défauts géométriques, pouvant aller jusqu’au poli-miroir. Ces opérations de pré-polissage et de polissage sont encore régulièrement réalisées manuellement. En effet, malgré des avantages en termes de répétabilité, de productivité et de qualité géométrique, les méthodes de polissage automatique sont peu utilisées car elles nécessitent une mise au point importante. Les travaux de recherche présentés participent à la maîtrise du procédé de polissage automatique tout en contrôlant la qualité géométrique des pièces. Pour parvenir à cette maîtrise, un outil de simulation de l’enlèvement de matière est mis en place. Cet outil permet de simuler l’enlèvement de matière au cours d’une opération de prépolissage réalisée sur centre d’usinage 5 axes. Il se base sur un modèle du contact obtenu entre l’outil de pré-polissage et la pièce, ainsi que sur un modèle du pouvoir abrasif intégrant l’usure et l’encrassement du disque. Cette simulation permet de vérifier la régularité de l’abrasion sur une surface et d’identifier les zones pouvant faire apparaitre des défauts macro-géométriques importants. Une méthode est également proposée pour compenser les variations du pouvoir abrasif au cours du temps. La compensation s’effectue en optimisant les consignes de vitesse d’avance et/ou de fréquence de broche le long de la trajectoire. Cette méthode de pilotage permet d’obtenir un taux d’enlèvement de matière plus constant et ainsi de réduire les défauts géométriques générés pendant une opération de prépolissage. / Complex shapes such as medical implants or injection molds require the use of super-finishing operations to minimize geometrical defects, down to mirror effect finish. These pre-polishing and polishing operations are still regularly performed manually by skilled workers. In spite of advantages in terms of repeatability, productivity and geometrical quality, automatic polishing methods are not widely used because they require systematic and significant developments. The present work contributes to enhance the automatic polishing process compared to the geometric quality of the parts. To achieve this control, a numerical simulation of material removal is implemented. This software simulates the material removal during a pre-polishing operation performed on 5-axis machining center. It is based on a contact model obtained between the pre-polishing tool and the part, as well as an abrasive model including wear of the disc. This simulation allows to check the uniformity of the material removal on the surface and to identify potential areas where macro-geometric defects appear. A method is also proposed to balance variations of the abrasive efficiency. The correction is performed by optimizing the federate and/or the spindle speed along the tool path. This method provides a constant material removal and reduces the geometrical deviations generated during pre-polishing operations.
|
65 |
Radiothérapie guidée par l'image du cancer de la prostate : vers l'intégration des déformations anatomiques / Image-guided radiotherapy of prostate cancer : towards the integration of anatomical deformationsCazoulat, Guillaume 17 December 2013 (has links)
Ce travail de thèse porte sur la quantification et la prise en compte des variations anatomiques en cours de radiothérapie guidée par l'image pour le cancer de la prostate. Nous proposons tout d'abord une approche basée population pour quantifier et analyser les incertitudes géométriques, notamment à travers des matrices de probabilité de présence de la cible en cours de traitement. Nous proposons ensuite une méthode d'optimisation des marges suivant des critères de couverture géométrique de la cible tumorale. Cette méthode permet d'obtenir des marges objectives associées aux différents types d'incertitudes géométriques et aux différentes modalités de repositionnement du patient. Dans un second temps, nous proposons une méthode d'estimation de la dose cumulée reçue localement par les tissus pendant un traitement de radiothérapie de la prostate. Cette méthode repose notamment sur une étape de recalage d'images de façon à estimer les déformations des organes entre les séances de traitement et la planification. Différentes méthodes de recalage sont proposées, suivant les informations disponibles (délinéations ou points homologues) pour contraindre la déformation estimée. De façon à évaluer les méthodes proposées au regard de l'objectif de cumul de dose, nous proposons ensuite la génération et l'utilisation d'un fantôme numérique reposant sur un modèle biomécanique des organes considérés. Les résultats de l'approche sont présentés sur ce fantôme numérique et sur données réelles. Nous montrons ainsi que l'apport de contraintes géométriques permet d'améliorer significativement la précision du cumul et que la méthode reposant sur la sélection de contraintes ponctuelles présente un bon compromis entre niveau d'interaction et précision du résultat. Enfin, nous abordons la question de l'analyse de données de populations de patients dans le but de mieux comprendre les relations entre dose délivrée localement et effets cliniques. Grâce au recalage déformable d'une population de patients sur une référence anatomique, les régions dont la dose est significativement liée aux événements de récidive sont identifiées. Il s'agit d'une étude exploratoire visant à terme à mieux exploiter l'information portée par l'intégralité de la distribution de dose, et ce en fonction du profil du cancer. / This work deals with the quantification and the compensation of anatomical deformations during image-guided radiotherapy of prostate cancer. Firstly, we propose a population-based approach to quantify the geometrical uncertainties by means of coverage probability matrices of the target tumor during the treatment. We then propose a margins optimization method based on geometrical coverage criteria of the tumor target. This method provides rationnal margins models associated to the different geometrical uncertainties and patient repositioning protocols. Secondly, we propose a method to estimate the locally accumulated dose during the treatment. This method relies on a deformable image registration process in order to estimate the organ deformations between each treatment fraction and the planning. Different registration methods are proposed, using different level of user interactions (landmarks specification or delineations) to constrain the deformation estimation. In order to evaluate the performance of the proposed methods, we then describe the generation of a numerical phantom based on a biomechanical model. The results are presented for the numerical phantom and real clinical cases. We show that the benefit brought by the manual placement of some landmarks to constrain the registration represents a good compromise between the required interaction level and the dose estimation accuracy. Finally, we address the issue of the analysis of population data in order to better understand the relationship between the locally delivered dose and clinical effects. With deformable image registration of a population of patients on an anatomical template, regions whose dose is significantly associated with recurrence events are identified. This last part is an exploratory study aiming to better use the information carried by the entire distribution dose, and according to the cancer profile.
|
66 |
Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanismsGouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
|
67 |
Strain integration and performance optimization in sub-20nm FDSOI CMOS technology / Intégration de contraintes mécaniques et optimisation des performances des technologies CMOS FDSOI pour les noeuds 20nm et en deçàBerthelon, Rémy 26 April 2018 (has links)
La technologie CMOS à base de Silicium complètement déserté sur isolant (FDSOI) est considérée comme une option privilégiée pour les applications à faible consommation telles que les applications mobiles ou les objets connectés. Elle doit cela à son architecture garantissant un excellent comportement électrostatique des transistors ainsi qu'à l'intégration de canaux contraints améliorant la mobilité des porteurs. Ce travail de thèse explore des solutions innovantes en FDSOI pour nœuds 20nm et en deçà, comprenant l'ingénierie de la contrainte mécanique à travers des études sur les matériaux, les dispositifs, les procédés d'intégration et les dessins des circuits. Des simulations mécaniques, caractérisations physiques (µRaman), et intégrations expérimentales de canaux contraints (sSOI, SiGe) ou de procédés générant de la contrainte (nitrure, fluage de l'oxyde enterré) nous permettent d'apporter des recommandations pour la technologie et le dessin physique des transistors en FDSOI. Dans ce travail de thèse, nous avons étudié le transport dans les dispositifs à canal court, ce qui nous a amené à proposer une méthode originale pour extraire simultanément la mobilité des porteurs et la résistance d'accès. Nous mettons ainsi en évidence la sensibilité de la résistance d'accès à la contrainte que ce soit pour des transistors FDSOI ou nanofils. Nous mettons en évidence et modélisons la relaxation de la contrainte dans le SiGe apparaissant lors de la gravure des motifs et causant des effets géométriques (LLE) dans les technologies FDSOI avancées. Nous proposons des solutions de type dessin ainsi que des solutions technologiques afin d'améliorer la performance des cellules standard digitales et de mémoire vive statique (SRAM). En particulier, nous démontrons l'efficacité d'une isolation duale pour la gestion de la contrainte et l'extension de la capacité de polarisation arrière, qui un atout majeur de la technologie FDSOI. Enfin, la technologie 3D séquentielle rend possible la polarisation arrière en régime dynamique, à travers une co-optimisation dessin/technologie (DTCO). / The Ultra-Thin Body and Buried oxide Fully Depleted Silicon On Insulator (UTBB FDSOI) CMOS technology has been demonstrated to be highly efficient for low power and low leakage applications such as mobile, internet of things or wearable. This is mainly due to the excellent electrostatics in the transistor and the successful integration of strained channel as a carrier mobility booster. This work explores scaling solutions of FDSOI for sub-20nm nodes, including innovative strain engineering, relying on material, device, process integration and circuit design layout studies. Thanks to mechanical simulations, physical characterizations and experimental integration of strained channels (sSOI, SiGe) and local stressors (nitride, oxide creeping, SiGe source/drain) into FDSOI CMOS transistors, we provide guidelines for technology and physical circuit design. In this PhD, we have in-depth studied the carrier transport in short devices, leading us to propose an original method to extract simultaneously the carrier mobility and the access resistance and to clearly evidence and extract the strain sensitivity of the access resistance, not only in FDSOI but also in strained nanowire transistors. Most of all, we evidence and model the patterning-induced SiGe strain relaxation, which is responsible for electrical Local Layout Effects (LLE) in advanced FDSOI transistors. Taking into account these geometrical effects observed at the nano-scale, we propose design and technology solutions to enhance Static Random Access Memory (SRAM) and digital standard cells performance and especially an original dual active isolation integration. Such a solution is not only stress-friendly but can also extend the powerful back-bias capability, which is a key differentiating feature of FDSOI. Eventually the 3D monolithic integration can also leverage planar Fully-Depleted devices by enabling dynamic back-bias owing to a Design/Technology Co-Optimization.
|
68 |
Problèmes classiques en vision par ordinateur et en géométrie algorithmique revisités via la géométrie des droites / Classical problems in computer vision and computational geometry revisited through line geometryBatog, Guillaume 15 December 2011 (has links)
Systématiser : tel est le leitmotiv des résultats de cette thèse portant sur trois domaines d'étude en vision et en géométrie algorithmique. Dans le premier, nous étendons toute la machinerie du modèle sténopé des appareils photos classiques à un ensemble d'appareils photo (deux fentes, à balayage, oblique, une fente) jusqu'à présent étudiés séparément suivant différentes approches. Dans le deuxième, nous généralisons avec peu d'efforts aux convexes de R3 l'étude des épinglages de droites ou de boules, menée différemment selon la nature des objets considérés. Dans le troisième, nous tentons de dégager une approche systématique pour élaborer des stratégies d'évaluation polynomiale de prédicats géométriques, les méthodes actuelles étant bien souvent spécifiques à chaque prédicat étudié. De tels objectifs ne peuvent être atteints sans un certain investissement mathématique dans l'étude des congruences linéaires de droites, de propriétés différentielles des ensembles de tangentes à des convexes et de la théorie des invariants algébriques, respectivement. Ces outils ou leurs utilisations reposent sur la géométrie de P3 (R), construite dans la seconde moitié du XIXe siècle mais pas complètement assimilée en géométrie algorithmique et dont nous proposons une synthèse adaptée aux besoins de la communauté. / Systematize is the leitmotiv of the results in this thesis. Three problems are studied in the field of computer vision and computational geometry. In the first one, we extend all the machinery of the pinhole model for classical cameras to a whole set of cameras (two-slit, pushbroom, oblique, pencil), which were separately studied with different approaches. In the second one, we generalize to convex bodies in R3 the work on pinning lines by or balls, which had so far been tackled by techniques intimately linked to the geometry of the objects. In the third one, we attempt to work out a systematic approach in place of problem-specific methods in order to build polynomial evaluation trees for geometric predicates. Such goals could not be reached without a mathematical investigation in the study of linear line congruences, differential properties of sets of tangent lines to a convex and classical invariant theory respectively. These tools or their uses are mostly based on line geometry in P3 (R). This geometry was designed in the second half of the 19th century but its full power hos not yet been used by the computational geometry community. This thesis therefore also serves as an extended tutorial.
|
69 |
Étude de fonctionnelles géométriques dépendant de la courbure par des méthodes d'optimisation de formes. Applications aux fonctionnelles de Willmore et Canham-Helfrich / Study of geometric functionals depending on curvature by shape optimization methods. Applications to the functionals of Willmore and Canham-HelfrichDalphin, Jérémy 05 December 2014 (has links)
En biologie, lorsqu'une quantité importante de phospholipides est insérée dans un milieu aqueux, ceux-Ci s'assemblent alors par paires pour former une bicouche, plus communément appelée vésicule. En 1973, Helfrich a proposé un modèle simple pour décrire la forme prise par une vésicule. Imposant la surface de la bicouche et le volume de fluide qu'elle contient, leur forme minimise une énergie élastique faisant intervenir des quantités géométriques comme la courbure, ainsi qu'une courbure spontanée mesurant l'asymétrie entre les deux couches. Les globules rouges sont des exemples de vésicules sur lesquels sont fixés un réseau de protéines jouant le rôle de squelette au sein de la membrane. Un des principaux travaux de la thèse fut d'introduire et étudier une condition de boule uniforme, notamment pour modéliser l'effet du squelette. Dans un premier temps, on cherche à minimiser l'énergie de Helfrich sans contrainte puis sous contrainte d'aire. Le cas d'une courbure spontanée nulle est connu sous le nom d'énergie de Willmore. Comme la sphère est un minimiseur global de l'énergie de Willmore, c'est un bon candidat pour être un minimiseur de l'énergie de Helfrich parmi les surfaces d'aire fixée. Notre première contribution dans cette thèse a été d'étudier son optimalité. On montre qu'en dehors d'un certain intervalle de paramètres, la sphère n'est plus un minimum global, ni même un minimum local. Par contre, elle est toujours un point critique. Ensuite, dans le cas de membranes à courbure spontanée négative, on se demande si la minimisation de l'énergie de Helfrich sous contrainte d'aire peut être effectuée en minimisant individuellement chaque terme. Cela nous conduit à minimiser la courbure moyenne totale sous contrainte d'aire et à déterminer si la sphère est la solution de ce problème. On montre que c'est le cas dans la classe des surfaces axisymétriques axiconvexes mais que ce n'est pas vrai en général.Enfin, lorsqu'une contrainte d'aire et de volume sont considérées simultanément, le minimiseur ne peut pas être une sphère qui n'est alors plus admissible. En utilisant le point de vue de l'optimisation de formes, la troisième et plus importante contribution de cette thèse est d'introduire une classe plus raisonnable de surfaces, pour laquelle l'existence d'un minimiseur suffisamment régulier est assurée pour des fonctionnelles et des contraintes générales faisant intervenir les propriétés d'ordre un et deux des surfaces. En s'inspirant de ce que fit Chenais en 1975 quand elle a considéré la propriété de cône uniforme, on considère les surfaces satisfaisant une condition de boule uniforme. On étudie d'abord des fonctionnelles purement géométriques puis nous autorisons la dépendance à travers la solution de problèmes aux limites elliptiques d'ordre deux posés sur le domaine intérieur à la surface / In biology, when a large amount of phospholipids is inserted in aqueous media, they immediatly gather in pairs to form bilayers also called vesicles. In 1973, Helfrich suggested a simple model to characterize the shapes of vesicles. Imposing the area of the bilayer and the volume of fluid it contains, their shape is minimizing a free-Bending energy involving geometric quantities like curvature, and also a spontanuous curvature measuring the asymmetry between the two layers. Red blood cells are typical examples of vesicles on which is fixed a network of proteins playing the role of a skeleton inside the membrane. One of the main work of this thesis is to introduce and study a uniform ball condition, in particular to model the effects of the skeleton. First, we minimize the Helfrich energy without constraint then with an area constraint. The case of zero spontaneous curvature is known as the Willmore energy. Since the sphere is the global minimizer of the Willmore energy, it is a good candidate to be a minimizer of the Helfrich energy among surfaces of prescribed area. Our first main contribution in this thesis was to study its optimality. We show that apart from a specific interval of parameters, the sphere is no more a global minimizer, neither a local minimizer. However, it is always a critical point. Then, in the specific case of membranes with negative spontaneous curvature, one can wonder whether the minimization of the Helfrich energy with an area constraint can be done by minimizing individually each term. This leads us to minimize total mean curvature with prescribed area and to determine if the sphere is a solution to this problem. We show that it is the case in the class of axisymmetric axiconvex surfaces but that it does not hold true in the general case. Finally, considering both area and volume constraints, the minimizer cannot be the sphere, which is no more admissible. Using the shape optimization point of view, the third main and most important contribution of this thesis is to introduce a more reasonable class of surfaces, in which the existence of an enough regular minimizer is ensured for general functionals and constraints involving the first- and second-Order geometric properties of surfaces. Inspired by what Chenais did in 1975 when she considered the uniform cone property, we consider surfaces satisfying a uniform ball condition. We first study purely geometric functionals then we allow a dependence through the solution of some second-Order elliptic boundary value problems posed on the inner domain enclosed by the shape
|
70 |
Algorithmes pour la prédiction in silico d'interactions par similarité entre macromolécules biologiques / Similarity-based algorithms for the prediction of interactions between biomoleculesVoland, Mathieu 03 April 2017 (has links)
Un médicament, ou tout autre petite molécule biologique, agit sur l’organisme via des interactions chimiques qui se produisent avec d’autres macromolécules telles que les protéines qui régissent le fonctionnement des cellules. La détermination de l’ensemble des cibles, c’est à dire de l’ensemble des macromolécules susceptibles de lier une même molécule, est essentielle pour mieux comprendre les mécanismes moléculaires à l’origine des effets d’un médicament. Cette connaissance permettrait en effet de guider la conception d’un composé pour éviter au mieux les effets secondaires indésirables, ou au contraire découvrir de nouvelles applications à des molécules connues. Les avancées de la biologie structurale nous permettent maintenant d’avoir accès à un très grand nombre de structures tridimensionnelles de protéines impliquées dans ces interactions, ce qui motive l’utilisation d’outils in silico (informatique) pour complémenter ou guider les expériences in vitro ou in vivo plus longues et plus chères.La thèse s’inscrit dans le cadre d’une collaboration entre le laboratoire DAVID de l’Université de Versailles-Saint-Quentin, et l’entreprise Bionext SA qui propose une suite logicielle permettant de visualiser et d’étudier les interactions chimiques. Les travaux de recherches ont pour objectif de développer un algorithme permettant, à partir des données structurales des protéines, de déterminer des cibles potentielles pour un composé donné. L’approche choisie consiste à utiliser la connaissance d’une première interaction entre un composé et une protéine afin de rechercher par similarité d’autres protéines pour lesquelles on peut inférer la capacité à se lier avec le même composé. Il s’agit plus précisément de rechercher une similarité locale entre un motif donné, qui est la région permettant à la cible connue de lier le composé, et un ensemble de protéines candidates.Un algorithme a été développé, BioBind, qui utilise un modèle des surfaces des macromolécules issu de la théorie des formes alpha afin de modéliser la surface accessible ainsi qu’une topologie sur cette surface permettant la définition de régions en surface. Afin de traiter le problème de la recherche d’un motif en surface, une heuristique est utilisée consistant à définir des motifs réguliers qui sont une approximation de disques géodésiques et permettant un échantillonnage exhaustif à la surface des macromolécules. Ces régions circulaires sont alors étendues à l’ensemble du motif recherché afin de déterminer une mesure de similarité.Le problème de la prédiction de cibles est ramené à un problème de classification binaire, où il s’agit pour un ensemble de protéines données de déterminer lesquelles sont susceptibles d’interagir avec le composé considéré, par similarité avec la première cible connue. Cette formalisation permet d’étudier les performances de notre approche, ainsi que de la comparer avec d’autres approches sur différents jeux de données. Nous utilisons pour cela deux jeux de données issus de la littérature ainsi qu’un troisième développé spécifiquement pour cette problématique afin d’être plus représentatif des molécules pertinentes du point de vue pharmacologique, c’est-à-dire ayant des propriétés proches des médicaments. Notre approche se compare favorablement sur ces trois jeux de données par rapport à une autre approche de prédiction par similarité, et plus généralement notre analyse confirme que les approches par docking (amarrage) sont moins performantes que les approches par similarité pour le problème de la prédiction de cibles. / The action of a drug, or another small biomolecule, is induced by chemical interactions with other macromolecules such as proteins regulating the cell functions. The determination of the set of targets, the macromolecules that could bind the same small molecule, is essential in order to understand molecular mechanisms responsible for the effects of a drug. Indeed, this knowledge could help the drug design process so as to avoid side effects or to find new applications for known drugs. The advances of structural biology provides us with three-dimensional representations of many proteins involved in these interactions, motivating the use of in silico tools to complement or guide further in vitro or in vivo experiments which are both more expansive and time consuming.This research is conducted as part of a collaboration between the DAVID laboratory of the Versailles-Saint-Quentin University, and Bionext SA which offers a software suite to visualize and analyze chemical interactions between biological molecules. The objective is to design an algorithm to predict these interactions for a given compound, using the structures of potential targets. More precisely, starting from a known interaction between a drug and a protein, a new interaction can be inferred with another sufficiently similar protein. This approach consists in the search of a given pattern, the known binding site, across a collection of macromolecules.An algorithm was implemented, BioBind, which rely on a topological representation of the surface of the macromolecules based on the alpha shapes theory. Our surface representation allows to define a concept of region of any shape on the surface. In order to tackle the search of a given pattern region, a heuristic has been developed, consisting in the definition of regular region which is an approximation of a geodesic disk. This circular shape allows for an exhaustive sampling and fast comparison, and any circular region can then be extended to the actual pattern to provide a similarity evaluation with the query binding site.The target prediction problem is formalized as a binary classification problem, where a set of macromolecules is being separated between those predicted to interact and the others, based on their local similarity with the known target. With this point of view, classic metrics can be used to assess performance, and compare our approach with others. Three datasets were used, two of which were extracted from the literature and the other one was designed specifically for our problem emphasizing the pharmacological relevance of the chosen molecules. Our algorithm proves to be more efficient than another state-of-the-art similarity based approach, and our analysis confirms that docking software are not relevant for our target prediction problem when a first target is known, according to our metric.
|
Page generated in 0.0469 seconds