Spelling suggestions: "subject:"oon rigidez"" "subject:"soon rigidez""
51 |
Cellules photovoltaïques organiques à base de nouveaux copolymères à blocs rigide-flexibleUrien, Mathieu 16 October 2008 (has links)
Ce travail de recherche pluridisciplinaire a consisté en l'étude de cellules photovoltaïques organiques à base de nouveaux copolymères à blocs de type rigide-flexible. L'idée était de proposer une alternative aux mélanges donneur/accepteur, dont la morphologie en film est très difficile à contrôler, en élaborant de nouveaux matériaux conjugués capables de s'auto-organiser et de créer une nano-structuration de la couche active, permettant ainsi d'optimiser certains paramètres du processus photovoltaïque (dissociation de l'exciton, conduction des charges vers les électrodes). La première étape a consisté à développer une synthèse simplifiée et versatile de copolymères constitués d'un bloc conjugué donneur (poly(3-hexylthiophène), d'un bloc flexible polystyrène, et d'un accepteur d'électron (C60). La seconde étape a consisté à caractériser ces matériaux originaux en tant que couche active ou compatibilisants dans des dispositifs photovoltaïques organiques et ainsi montrer leur potentiel. / This multidisciplinary work deals with the study of organic photovoltaic cells based on new rod-coil block copolymers. The aim was to replace donor/acceptor blends which are currently limited by poor control over their thin-film morphology. It was expected that the new materials may self-assemble to give a nano-structuration of the active layer, and thereby optimize the principal physical photovoltaic processes, namely exciton separation and conduction of charge-carriers through the film to the electrodes. A versatile and simplified synthesis of rod-coil copolymers consisting of a donor conjugated block [poly(3-hexylthiophene], a flexible block (polystyrene) and an electron acceptor (C60) was developed. The characterization of the new materials demonstrated their potential as an active layer or compatibilizer in photovoltaic devices.
|
52 |
Couplage de la rObotique et de la simulatioN mEdical pour des proCédures automaTisées (CONECT) / Coupling robotics and medical simulations for automatic percutaneous proceduresAdagolodjo, Yinoussa 06 September 2018 (has links)
Les techniques d'insertion d'aiguille font partie des interventions chirurgicales les plus courantes. L'efficacité de ces interventions dépend fortement de la précision du positionnement des aiguilles dans un emplacement cible à l'intérieur du corps du patient. L'objectif principal dans cette thèse est de développer un système robotique autonome, capable d'insérer une aiguille flexible dans une structure déformable le long d'une trajectoire prédéfinie. L’originalité de ce travail se trouve dans l’utilisation de simulations inverses par éléments finis (EF) dans la boucle de contrôle du robot pour prédire la déformation des structures. La particularité de ce travail est que pendant l’insertion, les modèles EF sont continuellement recalés (étape corrective) grâce à l’information extraite d’un système d’imagerie peropératoire. Cette étape permet de contrôler l’erreur des modèles par rapport aux structures réelles et ainsi éviter qu'ils divergent. Une seconde étape (étape de prédiction) permet, à partir de la position corrigée, d’anticiper le comportement de structures déformables, en se reposant uniquement sur les prédictions des modèles biomécaniques. Ceci permet ainsi d’anticiper la commande du robot pour compenser les déplacements des tissus avant même le déplacement de l’aiguille. Expérimentalement, nous avions utilisé notre approche pour contrôler un robot réel afin d'insérer une aiguille flexible dans une mousse déformable le long d'une trajectoire (virtuelle) prédéfinie. Nous avons proposé une formulation basée sur des contraintes permettant le calcul d'étapes prédictives dans l'espace de contraintes offrant ainsi un temps d'insertion total compatible avec les applications cliniques. Nous avons également proposé un système de réalité augmentée pour la chirurgie du foie ouverte. La méthode est basée sur un recalage initial semi-automatique et un algorithme de suivi peropératoire basé sur des marqueurs (3D) optiques. Nous avons démontré l'applicabilité de cette approche en salle d'opération lors d'une chirurgie de résection hépatique. Les résultats obtenus au cours de ce travail de thèse ont conduit à trois publications (deux IROS et un ICRA) dans les conférences internationales puis à un journal (Transactions on Robotics) en cours de révision. / Needle-based interventions are among the least invasive surgical approaches to access deep internal structures into organs' volumes without damaging surrounding tissues. Unlike traditional open surgery, needle-based approaches only affect a localized area around the needle, reducing this way the occurrence of traumas and risks of complications \cite{Cowan2011}. Many surgical procedures rely on needles in nowadays clinical routines (biopsies, local anesthesia, blood sampling, prostate brachytherapy, vertebroplasty ...). Radiofrequency ablation (RFA) is an example of percutaneous procedure that uses heat at the tip of a needle to destroy cancer cells. Such alternative treatments may open new solutions for unrespectable tumors or metastasis (concerns about the age of the patient, the extent or localization of the disease). However, contrary to what one may think, needle-based approaches can be an exceedingly complex intervention. Indeed, the effectiveness of the treatment is highly dependent on the accuracy of the needle positioning (about a few millimeters) which can be particularly challenging when needles are manipulated from outside the patient with intra-operative images (X-ray, fluoroscopy or ultrasound ...) offering poor visibility of internal structures. Human factors, organs' deformations, needle deflection and intraoperative imaging modalities limitations can be causes of needle misplacement and rise significantly the technical level necessary to master these surgical acts. The use of surgical robots has revolutionized the way surgeons approach minimally invasive surgery. Robots have the potential to overcome several limitations coming from the human factor: for instance by filtering operator tremors, scaling the motion of the user or adding new degrees of freedom at the tip of instruments. A rapidly growing number of surgical robots has been developed and applied to a large panel of surgical applications \cite{Troccaz2012}. Yet, an important difficulty for needle-based procedures lies in the fact that both soft tissues and needles tend to deform as the insertion proceeds in a way that cannot be described with geometrical approaches. Standard solutions address the problem of the deformation extracting a set of features from per-operative images (also called \textit{visual servoing)} and locally adjust the pose/motion of the robot to compensate for deformations \cite{Hutchinson1996}. [...]To overcome these limitations, we introduce a numerical method allowing performing inverse Finite Element simulations in real-time. We show that it can be used to control an articulated robot while considering deformations of structures during needle insertion. Our approach relies on a forward FE simulation of a needle insertion (involving complex non-linear phenomena such as friction, puncture and needle constraints).[...]
|
53 |
A p-adic quantum group and the quantized p-adic upper half planeWald, Christian 01 September 2017 (has links)
Eine Quantengruppe ist eine nichtkommutative und nichtkokommutative Hopfalgebra. In dieser Arbeit konstruieren wir eine Deformation der lokalkonvexen Hopfalgebra der lokalanalytischen Funktionen auf GL(2,O), wobei O hier der Bewertungsring einer endlichen Erweiterung der p-adischen Zahlen ist. Wir zeigen, dass diese Deformation eine nichtkommutative, nichtkokommutative lokalkonvexe Hopfalgebra, also eine p-adische Quantengruppe, ist. Unser Hauptresultat ist, dass das starke Dual dieser Deformation eine Fréchet-Stein Algebra ist. Dies bedeutet, dass das starke Dual ein projektiver Limes von noetherschen Banachalgebren unter rechtsflachen Übergangsabbildungen ist. Im kommutativen Fall wurde dies von P. Schneider und J. Teitelbaum gezeigt. Unser Beweis im nichtkommutativen Fall benutzt Ideen von M. Emerton, der einen alternativen Beweis im kommutativen Fall gefunden hat. Für unseren Beweis beschreiben wir gewisse Vervollständigungen der quanten-einhüllenden Algebra und benutzen die Technik der partiell dividierten Potenzen. Eine wichtige Klasse lokalanalytischer Darstellungen von GL(2,K) wird mithilfe globaler Schnitte von Linienbündeln auf der p-adischen oberen Halbebene konstruiert. Wir konstruieren ein nichtkommutatives Analogon der p-adischen oberen Halbebene, von dem wir erwarten, dass es interessante Darstellungen unserer p-adischen Quantengruppe induziert. Die wichtigsten Hilfsmittel der Konstruktion sind die Maninsche Quantenebene, der Bruhat-Tits Baum für PGL(2,K) und die Theorie der algebraischen Mikrolokalisierung. / A quantum group is a noncommutative noncocommutative Hopf algebra. In this thesis we deform the locally convex Hopf algebra of locally analytic functions on GL(2,O), where O is the valuation ring of a finite extension of the p-adic numbers. We show that this deformation is a noncommutative noncocommutative locally convex Hopf algebra, i.e. a p-adic quantum group. Our main result is that the strong dual of our deformation is a Fréchet Stein algebra, i.e. a projective limit of Noetherian Banach algebras with right flat transition maps. This was shown in the commutative case by P. Schneider and J. Teitelbaum. For our proof in the noncommutative case we use ideas of M. Emerton, who gave an alternative proof of the Fréchet Stein property in the commutative case. For the proof we describe completions of the quantum enveloping algebra and use partial divided powers. An important class of locally analytic representations of GL(2,K) is constructed from global sections of line bundles on the p-adic upper half plane. We construct a noncommutative analogue of an affine version of the p-adic upper half plane which we expect to give rise to interesting representations of our p-adic quantum group. We construct this space by using the Manin quantum plane, the Bruhat-Tits tree for PGL(2,K) and the theory of algebraic microlocalization.
|
54 |
Mise en oeuvre d'un système de reconstruction adaptif pour l'IRM 3D des organes en mouvement / Implementation of an adaptive reconstruction system for 3D MRI of moving organsMenini, Anne 09 December 2013 (has links)
L'Imagerie par Résonance Magnétique (IRM) présente deux caractéristiques principales. La première, sa capacité à manipuler le contraste, constitue son principal avantage par rapport aux autres modalités d'imagerie. Cela permet d'obtenir des informations complémentaires pour une meilleure détectabilité et une meilleure précision dans le diagnostic. Cela est particulièrement appréciable pour les pathologies du myocarde. La seconde caractéristique de l'IRM est également l'un de ces principaux inconvénients : le processus d'acquisition est relativement lent. De ce fait, les mouvements du patient constituent un obstacle important puisqu'ils perturbent ce processus d'acquisition, ce qui se traduit par des artéfacts dans l'image reconstruite. L'imagerie cardiaque et abdominale sont donc particulièrement sensibles à cette problématique du mouvement. L'objectif de cette thèse est donc de proposer une méthode de correction de mouvement intégrable dans un contexte multi-contraste. Nous avons étudié dans un premier temps la question de la correction de mouvement seule. Pour cela, nous nous sommes plus particulièrement intéressés à la méthode GRICS déjà développée au laboratoire IADI. Cette méthode permet la reconstruction conjointe d'une image sans artéfact et d'un modèle de mouvement non rigide permettant de corriger les déplacements qui surviennent pendant l'acquisition. Le premier apport majeur de cette thèse a consisté à améliorer la méthode GRICS, notamment pour l'adapter à l'imagerie volumique 3D. Il s'agit d'une nouvelle méthode de régularisation adaptative particulièrement adaptée au problème inverse posé dans GRICS. Le second apport majeur de cette thèse a consisté à gérer la correction de mouvement GRICS de manière conjointe sur des acquisitions présentant des contrastes différents. Il s'agit de concevoir l'examen IRM comme un tout et d'exploiter au mieux les informations partagées entre les différents contrastes. Toutes ces méthodes ont été appliquées et validées par des simulations, des tests sur fantôme, sur volontaires sains et sur des patients dans la cadre d'études cliniques. L'application cardiaque a été particulièrement visée. Les méthodes développées ont permis d'améliorer le processus d'acquisition et de reconstruction dans le contexte clinique réel / Magnetic Resonance Imaging (MRI) has two main features. The first one, its ability to manipulate contrast, is a major advantage compared to the other imaging modalities. It allows to access complementary information for a better detectability and a diagnostic more accurate. This is especially useful for myocardium pathologies. The second feature of MRI is also one of its main drawbacks: the acquisition process is slow. Therefore, patient motion is a significant obstacle because it disturbs the acquisition process, which leads to artifacts in the reconstructed image. Cardiac and thoracic imaging are particularly sensitive to this motion issue. The aim of this thesis is to develop a new motion correction method that can be integrated in a multi-contrast workflow. In a first phase, we studied apart the motion correction problem. To do so, we focused more particularly on the GRICS method which was already developed in the IADI laboratory. This method allows the joint reconstruction of an image free from artifact and a non-rigid motion model that describes the displacements occurring during the acquisition. The first major contribution of this thesis is an improvement of the GRICS method consisting mainly in adapting it to the 3D imaging. This was achieved with a new adaptive regularization method that perfectly suits the inverse problem posed in GRICS. The second major contribution of this thesis consists in the simultaneous management of the motion correction on multiple acquisitions with different contrasts. To do so, the MRI examination is considered as a whole. Thus we make the most of information shared between the different contrasts. All these methods have been applied and validated by simulations, tests on phantom, on healthy volunteers and on patients as part of clinical studies. We aimed more particularly at cardiac MR. Finally the developed methods improve the acquisition and reconstruction workflow in the framework of a real clinical routine
|
55 |
Local rigid cohomology of weighted homogeneous hypersurface singularitiesOuwehand, David 16 March 2017 (has links)
Das Ziel dieser Dissertation ist die Erforschung einer gewissen Invariante von Singularitäten über einem Grundkörper k von positiver Charakteristik. Sei x \in X ein singulärer Punkt auf einem k-Schema. Dann ist die lokale rigide Kohomologie im Grad i definiert als H^i_{rig, {x}}(X), also als die rigide Kohomologie von X mit Träger in der Teilmenge {x}. In Kapitel 2 zeigen wir, dass die lokale rigide Kohomologie tatsächlich eine Invariante ist. Das heißt: Sind x'' \in X'' und x \in X kontaktäquivalente singuläre Punkte auf k-Schemata, dann sind die Vektorräume H_{rig, {x}}(X) und H_{rig, {x''}}(X'') zueinander isomorph. Dieser Isomorphismus ist kompatibel mit der Wirkung des Frobenius auf der rigiden Kohomologie. In den Kapiteln 3 und 4 beschäftigen wir uns mit gewichtet homogenen Singularitäten von Hyperflächen. Der Hauptsatz des dritten Kapitels besagt, dass die lokale rigide Kohomologie einer solchen Singularität isomorph ist zu dem G-invarianten Teil von H_{rig}(\Proj^{n-1}_k \setminus \widetilde{S}_{\infty}). Hier bezeichnet \widetilde{S}_{\infty} \subset \Proj^{n-1}_k eine gewisse glatte projektive Hyperfläche und G ist eine endliche Gruppe, die auf der rigiden Kohomologie des Komplements wirkt. Dank einem Algorithmus von Abbott, Kedlaya und Roe ist es möglich, den Frobenius-Automorphismus auf H_{rig}(\Proj^{n-1}_k \setminus \widetilde{S}_{\infty}) annähernd zu berechnen. In Kapitel 4 formulieren wir eine Anpassung dieses Algorithmus, mithilfe derer Berechnungen auf dem G-invarianten Teil gemacht werden können. Der angepasste Algorithmus kann vollständig mithilfe gewichtet homogener Polynome formuliert werden, was für unsere Anwendungen sehr natürlich scheint. In Kapitel 5 formulieren wir einige Vermutungen und offene Probleme, die mit den Ergebnissen der früheren Kapitel zusammenhängen. / The goal of this thesis is to study a certain invariant of isolated singularities over a base field k of positive characteristic. This invariant is called the local rigid cohomology. For a singular point x \in X on a k-scheme, the i-th local rigid cohomology is defined as H^i_{rig, {x}}(X), the i-th rigid cohomology of X with supports in the subset {x}. In chapter 2 we show that the local rigid cohomology is indeed an invariant. That is: if x'' \in X'' and x \in X are contact-equivalent singularities on k-schemes, then the local rigid cohomology spaces H_{rig, {x}}(X) and H_{rig, {x''}}(X'') are isomorphic. The isomorphism that we construct is moreover compatible with the Frobenius action on rigid cohomology. In chapters 3 and 4 we focus our attention on weighted homogeneous hypersurface singularities. Our goal in chapter 3 is to show that for such a singularity, the local rigid cohomology may be identified with the G-invariants of a certain rigid cohomology space $H_{rig}(\Proj^{n-1}_k \setminus \widetilde{S}_{\infty}). Here \widetilde{S}_{\infty} \subset \Proj^{n-1}_k is a smooth projective hypersurface, and G is a certain finite group acting on the rigid cohomology of its complement. It is known that the rigid cohomology of a smooth projective hypersurface is amenable to direct computation. Indeed, an algorithm by Abbott, Kedlaya and Roe allows one to approximate the Frobenius on such a rigid cohomology space. In chapter 4 we will modify this algorithm to deal with the G-invariant part of cohomology. The modified algorithm can be formulated entirely in terms of weighted homogeneous polynomials, which seems natural for our applications. Chapter 5 is a collection of conjectures and open problems that are related to the earlier chapters.
|
56 |
Etude de la dynamique des matériaux poreux hybrides de type MOFs sous l'effet de la pression mécanique / Exploration of the dynamics of hybrid porous materials MOFs under mechanical stimuliYang, Ke 07 October 2014 (has links)
Les matériaux hybrides de type MOFs sont des solides poreux dans lesquels des centres métalliques sont reliés entre eux par des ligands organiques. Il est possible, non seulement de faire varier la taille et la géométrie de leurs porosités, mais aussi de moduler leurs compositions chimiques en modifiant à la fois la nature de la brique inorganique et des groupements sur le ligand organique. Cette nouvelle famille de matériaux a fait l'objet d'une attention particulière ces dernières années pour des applications potentielles dans différents domaines à fort intérêt socio-économique comme le captage ou la séparation de gaz ou bien encore la catalyse. Au-delà d'une stabilité chimique et thermique, ces matériaux doivent être aussi suffisamment résistants mécaniquement pour s'adapter au mieux aux contraintes de l'application visée (mise en forme de l'échantillon, conditions opératoires….). Il est donc impératif de connaître les propriétés mécaniques de ces nouveaux matériaux, sujet qui n'a fait l'objet à ce jour que de très peu d'études. L'objectif de ce travail est donc de mettre en œuvre des mesures de diffraction des rayons X et neutrons sur grands instruments afin de caractériser dans un premier temps le comportement structural du matériau flexible MIL-53 (MIL pour Matériaux de l'Institut Lavoisier) sous l'application d'une pression mécanique modérée (P~1 GPa) en fonction de la nature du métal (Al,Cr) et de la fonction greffée sur le ligand organique (-H, -Cl, -CH3). Ces données expérimentales sont ensuite discutées à partir de résultats issus de la simulation moléculaire. L'étape suivante consiste à étudier l'effet du confinement de molécules de solvants dans les pores de ce solide sur la transition structurale du réseau hôte. Enfin, deux familles de MOFs rigides, la MIL-125(Ti) et l'UiO-66(Zr) (UiO pour Unversité d'Oslo) sont considérées afin de caractériser non seulement leur domaine de stabilité mécanique en pression (Pmax~ 5 GPa) mais aussi leur compressibilité. Les résultats ainsi obtenus sont comparés aux performances mécaniques des meilleurs MOFs. / Metal Organic Framework (MOF) materials have been the focus of intense research activities over the past 10 years, with the emergence of a wide range of novel architectures, constructed from inorganic clusters linked by organic moieties. In order to maintain their useful functionalities and high performances in the different fields explored so far (gas storage/separation, catalysis, sensors and many others), besides high chemical and thermal stabilities, MOFs must be also stable enough to resist to different mechanical constraints in both processing and applications. Indeed, there is nowadays a growing interest to characterize the mechanical behaviours of this class of materials under moderate and high applied pressure. This work first aimed to probe the pressure dependence of the structural behaviour of the highly flexible MIL-53 system [MIL stands for Materials of Institut Lavoisier] as a function of the nature of (i) the metal center (Al,Cr) and (ii) the functional group grafted on the organic linker (-H,-Cl,-CH3) using a combination of high-pressure x-ray/neutron diffraction and molecular simulations. The same methodology was further applied to probe how the presence of guest molecules affects the structural transition of this class of hybrid porous solids. Finally, the mechanical stability and the compressibility of two families of rigid MOFs, the MIL-125(Ti) and the UiO-66(Zr) [UiO stands for University of Oslo] up to high pressure (P~5 GPa) have been investigated and their properties in terms of bulk modulus were compared with the most resilient MOFs reported so far.
|
57 |
Design of algorithms for the automatic characterization of marine dune morphology and dynamics / Description morphométrique de la dynamique des dunes et bancs de sable sous-marins en vue de leur classificationOgor, Julien 11 June 2018 (has links)
Les dunes marines sont de grandes structures sédimentaires qui, ensemble, couvrent de larges zones appelées champs de dunes. Des dunes ont été découvertes dans tous les océans, de la côte jusqu'aux talus continentaux. Leur forme et mobilité sont des témoins du lien étroit qui existe entre le transport sédimentaire, l'hydrodynamique (courants marins) et la topographie du fond. L'étude des dunes est intéressante scientifiquement parlant, mais elle est également motivée par des enjeux économiques et environnementaux. Les dunes peuvent être étudiées de deux manières : La modélisation et l'analyse de données de terrain (granulométrie, courantométrie, données sismiques, données bathymétriques). Ces deux approches sont très différentes mais complémentaires. Avec l'amélioration des données Sondeur Multi-Faisceaux (SMF), il est maintenant possible de visualiser la morphologie des dunes et de suivre leur évolution de manière plus détaillée. Plusieurs méthodes automatiques d'analyse de la morphologie et de la dynamique des dunes ont été développées pour analyser les Modèles Numériques de Terrain (MNTs) construits à partir de ces données SMF. Pourtant, aucun ne permet d'estimer les valeurs de descripteurs morphologiques et dynamiques pour chaque dune. L'analyse et l'évaluation de ces descripteurs restent régionales avec le découpage des MNTs en régions rectangulaires. Seul un traitement manuel permet d'estimer ces descripteurs pour chaque dune. L'objectif de cette thèse est de développer des algorithmes automatiques permettant de quanti er la morphologie et la dynamique de chaque dune. Pour ce faire, une représentation des données SMF sous forme d'une tessellation triangulaire a été préférée au classique MNT régulier. Tout d'abord, les dunes doivent être extraites de la topographie du fond marin. Un algorithme par accroissement de régions avec adaptation de l'échelle d'analyse, issu de la géomorphométrie est proposé. Les crêtes de dunes sont d'abord extraites en combinant un algorithme de simplification de tessellations avec un algorithme d'extraction de lignes de crête. La résolution de la tessellation est adaptée par l'algorithme de simplification afin de faciliter l'extraction des lignes de crête. Les lignes de crête sont des objets bien définis en géométrie différentielle. Leur extraction s'appuie sur l'interprétation de cette définition appliquée à des modèles discrets du fond (tessellations). Les crêtes servent d'embryons à l'algorithme d'extraction des dunes. L'estimation des paramètres morphologiques des dunes (longueur, largeur, hauteur, etc.) découle de l'extraction automatique des dunes. L'utilisation d'une méthode de recalage non rigide (isométrique) pour la quantification de la dynamique est discutée. Des tessellations représentant la topographie d'un même champ de dunes à différents moments sont analysées par l'algorithme d'extraction des dunes. Ensuite, une dune est associée à une dune d'une autre tessellation qui lui correspond (même dune à un autre instant). La dynamique de chaque dune est quantifiée à partir des résultats de l'algorithme de recalage : les transformations permettant d'aligner différentes représentations d'une dune. / Marine dunes are large sedimentary mounds often organized in dunefields. Theyhave been discovered in oceans all around the globe, from continental rises to nearshore areas. These mobile seafloor structures reflect the unique and complex relationship between the sediment, the seafloor topography and the hydrodynamics (currents). Dunes are not only interesting at a scientific level. In fact, their study is also motivated by economic, safety and environmental reasons. The study of dunes can be divided into two complementary approaches: Modelling and analysis of in situ data (granulometry, current, bathymetric data).The increased quality of MultiBeam EchoSounder (MBES) data allows scientists to monitor and visualize the complexity of, both, dune morphology and dynamics. Au-tomatic methods to characterize dune morphology and dynamics using Digital TerrainModels (DTMs) have already been proposed. But, none does it at the dune scale. Mor-phological and dynamical descriptors are estimated for patches of the dunefield. Today, the evaluation of such descriptors for each dune can only be achieved manually.The objective of this thesis is to design automatic algorithms for the quantification of dune morphology and dynamics. A representation of MBES data as triangular meshes has been preferred to the usual gridded DTMs. The first stage consists of delineating dunes in the seafloor. A scale adaptative, region growing algorithm based on geomorphometry is proposed. The combination of mesh implification and crest extraction algorithms enables to accurately recover dune crest lines. The mesh simplification facilitates the crest extraction by adapting the mesh resolution. Crest extraction is based on the discrete interpretation of the definition of crest lines in differential geometry. The crests are, then, used as seed regions by the dune extraction algorithm.
|
58 |
Méthodes d'identification, d'aide au diagnostic et de planification utilisant de l'imagerie multi-modalité pour les thérapies focales du cancer de la prostate.Makni, Nasr 13 December 2010 (has links) (PDF)
Le cancer de la prostate est le premier cancer chez l'homme de plus de 50ans dans les pays industrialisés. Les pratiques diagnostiques et les options thérapeutiques n'ont cessé d'évoluer et les récents progrès de l'imagerie de la prostate rendent possibles la détection de tumeurs de petite taille et le guidage de traitements ciblés dont le but est de minimiser la morbidité de la thérapie. Nous proposons, dans cette thèse, un ensemble de méthodes et de traitements automatisés de données d'imagerie médicale, dans le but d'assister et de guider le praticien dans la prise de décision diagnostique et le geste thérapeutique, pour les traitements focalisés par laser du cancer de la prostate. Dans un premier temps, des méthodes de segmentation et de détection assistées par ordinateur ont développées pour répondre aux problématiques liées à la phase de diagnostic guidé par l'Imagerie à Résonance Magnétique (IRM). D'abord, une nouvelle approche combinant le formalisme des champs de Markov et un modèle statistique de forme est proposée pour l'identification de la prostate en IRM, et l'extraction de ses contours en trois dimensions. Ensuite, nous proposons une méthode pour la segmentation du volume IRM de la glande en zones périphérique et centrale. Cette méthode exploite les techniques d'IRM multi-paramétrique, et s'appuie sur la théorie des fonctions de croyance, ainsi que la modélisation d'un a priori morphologique comme source d'information supplémentaire. Enfin,la détection des tumeurs de la zone périphérique de la glande est abordée en expérimentant un ensemble d'attributs de texture extraits de la géométrie fractale, dans des schémas de classification supervisée et non supervisée. Les performances et particularités de chacune de ces approches sont étudiées et comparées. La deuxième partie de cette thèse s'intéresse au guidage du geste thérapeutique lors des thérapies d'ablation focalisée par laser des tumeurs prostatiques. Une méthode de recalage non rigide est proposée pour fusionner les données de planification et d'imagerie pré-opératoire à l'échographie de guidage per-opératoire. L'originalité de cette méthode réside dans l'utilisation d'un algorithme robuste aux conditions d'initialisation qui permet de minimiser l'intervention de l'opérateur. Nous expérimentons et évaluons nos algorithmes en utilisant des données simulées et des fantômes physiques afin de comparer à une vérité terrain connue. Des examens de patients, analysés par des experts, sont aussi utilisés pour des évaluations dans des conditions réelles, tout en tenant compte de la variabilité inter-observateurs de ces interprétations. Les résultats obtenus montrent que les méthodes développées sont suffisamment précises, rapides et robustes pour pouvoir être utilisées dans un contexte clinique. Ces outils prouvent leur aptitude à offrir un gain en temps d'exécution et en reproductibilité des décisions diagnostiques et thérapeutiques basées sur les modalités d'imagerie de la prostate. Des validations multicentriques et des transferts à l'industrie devraient à l'avenir concrétiser les retombées cliniques de ces travaux qui pourront alors contribuer à l'amélioration des gestes diagnostiques et thérapeutiques du cancer de la prostate.
|
59 |
Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural levelPopov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.
|
60 |
Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquenceGérossier, Franck 05 June 2012 (has links) (PDF)
Le SLAM, " Simultaneous Localisation And Mapping ", représente à l'heure actuelle l'une des principales thématiques investiguées dans le domaine des robots mobiles autonomes. Il permet, à l'aide de capteurs extéroceptifs (laser, caméra, radar, etc.) et proprioceptifs (odomètre, gyromètre, etc.), de trouver l'orientation et la localisation d'un robot dans un environnement extérieur vaste, inconnu ou modifié, avec la possibilité de créer une carte au fur et à mesure des déplacements du véhicule. Les travaux de thèse décrits dans ce manuscrit s'intègrent dans ce courant de recherche. Ils visent à développer un SLAM innovant qui utilise un radar à modulation de fréquence continue " FMCW " comme capteur extéroceptif. Ce capteur est insensible aux conditions climatiques et possède une portée de détection importante. Néanmoins, c'est un capteur tournant qui, dans une utilisation mobile, va fournir des données corrompues par le déplacement du véhicule. Pour mener à bien ces travaux, nous avons proposés différentes contributions : une correction de la distorsion par l'utilisation de capteurs proprioceptifs ; le développement d'une technique de localisation et cartographie simultanées nommée RS-SLAM-FMT qui effectue un scan matching sur les observations et utilise un algorithme estimatif de type EKF-SLAM ; l'utilisation, pour la première fois en SLAM, de la mise en correspondance par Transformée de Fourier-Mellin pour réaliser l'opération de scan matching ; la création d'un outil expérimental pour déterminer la matrice de covariance associée aux observations ; des tests de robustesse de l'algorithme dans des conditions d'utilisation réelles : dans des zones avec un faible nombre de points d'intérêts, sur des parcours effectués à vitesse élevée, dans des environnements péri-urbains avec une forte densité d'objets mobiles ; la réalisation d'une application temps réel pour le test du procédé sur un véhicule d'exploration qui se déplace dans un environnement extérieur vaste.
|
Page generated in 0.0753 seconds