• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 76
  • 8
  • Tagged with
  • 199
  • 116
  • 94
  • 65
  • 38
  • 37
  • 35
  • 34
  • 27
  • 25
  • 25
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Etude de l'épissage grâce à des techniques de régression parcimonieuse dans l'ère du séquençage haut débit de l'ARN / Deciphering splicing with sparse regression techniques in the era of high-throughput RNA sequencing.

Bernard, Elsa 21 September 2016 (has links)
Le nombre de gènes codant pour des protéines chez l’'homme, le vers rond et la mouche des fruits est du même ordre de grandeur. Cette absence de correspondance entre le nombre de gènes d’un eucaryote et sa complexité phénotypique s’explique en partie par le caractère alternatif de l’épissage.L'épissage alternatif augmente considérablement le répertoire fonctionnel de protéines codées par un nombre limité de gènes. Ce mécanisme, très actif lors du développement embryonnaire, participe au devenir cellulaire. De nombreux troubles génétiques, hérités ou acquis (en particulier certains cancers), se caractérisent par une altération de son fonctionnement.Les technologies de séquençage à haut débit de l'ARN donnent accès a une information plus riche sur le mécanisme de l’épissage. Cependant, si la lecture à haut débit des séquences d’ARN est plus rapide et moins coûteuse, les données qui en sont issues sont complexes et nécessitent le développement d’outils algorithmiques pour leur interprétation. En particulier, la reconstruction des transcrits alternatifs requiert une étape de déconvolution non triviale.Dans ce contexte, cette thèse participe à l'étude des événements d'épissage et des transcrits alternatifs sur des données de séquençage à haut débit de l'ARN.Nous proposons de nouvelles méthodes pour reconstruire et quantifier les transcrits alternatifs de façon plus efficace et précise. Nos contributions méthodologiques impliquent des techniques de régression parcimonieuse, basées sur l'optimisation convexe et sur des algorithmes de flots. Nous étudions également une procédure pour détecter des anomalies d'épissage dans un contexte de diagnostic clinique. Nous suggérons un protocole expérimental facilement opérant et développons de nouveaux modèles statistiques et algorithmes pour quantifier des événements d’épissage et mesurer leur degré d'anormalité chez le patient. / The number of protein-coding genes in a human, a nematodeand a fruit fly are roughly equal.The paradoxical miscorrelation between the number of genesin an organism's genome and its phenotypic complexityfinds an explanation in the alternative natureof splicing in higher organisms.Alternative splicing largely increases the functionaldiversity of proteins encoded by a limitednumber of genes.It is known to be involved incell fate decisionand embryonic development,but also appears to be dysregulatedin inherited and acquired human genetic disorders,in particular in cancers.High-throughput RNA sequencing technologiesallow us to measure and question splicingat an unprecedented resolution.However, while the cost of sequencing RNA decreasesand throughput increases,many computational challenges arise from the discrete and local nature of the data.In particular, the task of inferring alternative transcripts requires a non-trivial deconvolution procedure.In this thesis, we contribute to deciphering alternative transcript expressions andalternative splicing events fromhigh-throughput RNA sequencing data.We propose new methods to accurately and efficientlydetect and quantify alternative transcripts.Our methodological contributionslargely rely on sparse regression techniquesand takes advantage ofnetwork flow optimization techniques.Besides, we investigate means to query splicing abnormalitiesfor clinical diagnosis purposes.We suggest an experimental protocolthat can be easily implemented in routine clinical practice,and present new statistical models and algorithmsto quantify splicing events and measure how abnormal these eventsmight be in patient data compared to wild-type situations.
152

Fluid-solid interaction in a non-convex granular media : application to rotating drums and packed bed reactors / Intéraction fluide-solide en milieux granulaires de particules non-convexes : application aux tambours tourants et réacteurs à lit fixe

Rakotonirina, Andriarimina 01 December 2016 (has links)
Cette thèse porte sur l'étude numérique des écoulements fluide-particules rencontrés dans l'industrie. Ces travaux se situent dans le cadre de la compréhension des phénomènes qui se déroulent dans des tambours tournants et réacteurs à lit fixe en présence de particules de forme non convexe. En effet, la forme des particules influence de manière importante la dynamique de ces milieux. A cet effet, nous nous sommes servis de la plateforme numérique parallèle Grans3D pour la dynamique des milieux granulaires et PeliGRIFF pour les écoulements multiphasiques. Dans la première partie de cette thèse, nous avons développé une nouvelle stratégie numérique qui permet de prendre en compte des particules de forme arbitrairement non convexe dans le solveur Grains3D. Elle consiste à décomposer une forme non convexe en plusieurs formes convexes quelconques. Nous avons nommé cette méthode « glued-convex ». Le modèle a été validé avec succès sur des résultats théoriques et expérimentaux de tambours tournants en présence de particules en forme de croix. Nous avons aussi utilisé le modèle pour simuler le chargement de réacteurs à lits fixes puis des lois de corrélation sur les taux de vide ont été déduites de nos résultats numériques. Dans ces travaux, nous avons aussi testé les performances parallèles de nos outils sur des simulations numériques à grande échelle de divers systèmes de particules convexes. La deuxième partie de cette thèse a été consacrée à l'extension du solveur PeliGRIFF à pouvoir prendre en compte la présence de particules multilobées (non convexes) dans des écoulements monophasiques. Une approche du type Simulation Numérique Directe, basée sur les Multiplicateurs de Lagrange Distribués / Domaine Fictif (DLM/FD), a alors été adoptée pour résoudre l'écoulement autour des particules. Une série d'études de convergence spatiale a été faite basée sur diverses configurations et divers régimes. Enfin, ces outils ont été utilisés pour simuler des écoulements au travers de lits fixes de particules de forme multi-lobée dans le but d'étudier l'influence de la forme des particules sur l'hydrodynamique dans ces lits. Les résultats ont montré une consistance avec les résultats expérimentaux disponibles dans la littérature. / Non convex granular media are involved in many industrial processes as, e.g., particle calcination/drying in rotating drums or solid catalyst particles in chemical reactors. In the case of optimizing the shape of catalysts, the experimental discrimination of new shapes based on packing density and pressure drop proved to be difficult due to the limited control of size distribution and loading procedure. There is therefore a strong interest in developing numerical tools to predict the dynamics of granular media made of particles of arbitrary shape and to simulate the flow of a fluid (either liquid or gas) around these particles. Non-convex particles are even more challenging than convex particles due to the potential multiplicity of contact points between two solid bodies. In this work, we implement new numerical strategies in our home made high-fidelity parallel numerical tools: Grains3D for granular dynamics of solid particles and PeliGRIFF for reactive fluid/solid flows. The first part of this work consists in extending the modelling capabilities of Grains3D from convex to non-convex particles based on the decomposition of a non-convex shape into a set of convex particles. We validate our numerical model with existing analytical solutions and experimental data on a rotating drum filled with 2D cross particle shapes. We also use Grains3D to study the loading of semi-periodic small size reactors with trilobic and quadralobic particles. The second part of this work consists in extending the modelling capabilities of PeliGRIFF to handle poly-lobed (and hence non-convex) particles. Our Particle Resolved Simulation (PRS) method is based on a Distributed Lagrange Multiplier / Fictitious Domain (DLM/FD) formulation combined with a Finite Volume / Staggered Grid (FV/SG) discretization scheme. Due to the lack of analytical solutions and experimental data, we assess the accuracy of our PRS method by examining the space convergence of the computed solution in assorted flow configurations such as the flow through a periodic array of poly-lobed particles and the flow in a small size packed bed reactor. Our simulation results are overall consistent with previous experimental work.
153

Elimination dynamique : accélération des algorithmes d'optimisation convexe pour les régressions parcimonieuses / Dynamic screening : accelerating convex optimization algorithms for sparse regressions

Bonnefoy, Antoine 15 April 2016 (has links)
Les algorithmes convexes de résolution pour les régressions linéaires parcimonieuses possèdent de bonnes performances pratiques et théoriques. Cependant, ils souffrent tous des dimensions du problème qui dictent la complexité de chacune de leur itération. Nous proposons une approche pour réduire ce coût calculatoire au niveau de l'itération. Des stratégies récentes s'appuyant sur des tests d'élimination de variables ont été proposées pour accélérer la résolution des problèmes de régressions parcimonieuse pénalisées tels que le LASSO. Ces approches reposent sur l'idée qu'il est profitable de dédier un petit effort de calcul pour localiser des atomes inactifs afin de les retirer du dictionnaire dans une étape de prétraitement. L'algorithme de résolution utilisant le dictionnaire ainsi réduit convergera alors plus rapidement vers la solution du problème initial. Nous pensons qu'il existe un moyen plus efficace pour réduire le dictionnaire et donc obtenir une meilleure accélération : à l'intérieur de chaque itération de l'algorithme, il est possible de valoriser les calculs originalement dédiés à l'algorithme pour obtenir à moindre coût un nouveau test d'élimination dont l'effet d'élimination augmente progressivement le long des itérations. Le dictionnaire est alors réduit de façon dynamique au lieu d'être réduit de façon statique, une fois pour toutes, avant la première itération. Nous formalisons ce principe d'élimination dynamique à travers une formulation algorithmique générique, et l'appliquons en intégrant des tests d'élimination existants, à l'intérieur de plusieurs algorithmes du premier ordre pour résoudre les problèmes du LASSO et Group-LASSO. / Applications in signal processing and machine learning make frequent use of sparse regressions. Resulting convex problems, such as the LASSO, can be efficiently solved thanks to first-order algorithms, which are general, and have good convergence properties. However those algorithms suffer from the dimension of the problem, which impose the complexity of their iterations. In this thesis we study approaches, based on screening tests, aimed at reducing the computational cost at the iteration level. Such approaches build upon the idea that it is worth dedicating some small computational effort to locate inactive atoms and remove them from the dictionary in a preprocessing stage so that the regression algorithm working with a smaller dictionary will then converge faster to the solution of the initial problem. We believe that there is an even more efficient way to screen the dictionary and obtain a greater acceleration: inside each iteration of the regression algorithm, one may take advantage of the algorithm computations to obtain a new screening test for free with increasing screening effects along the iterations. The dictionary is henceforth dynamically screened instead of being screened statically, once and for all, before the first iteration. Our first contribution is the formalisation of this principle and its application to first-order algorithms, for the resolution of the LASSO and Group-LASSO. In a second contribution, this general principle is combined to active-set methods, whose goal is also to accelerate the resolution of sparse regressions. Applying the two complementary methods on first-order algorithms, leads to great acceleration performances.
154

Mosaïques, enveloppes convexes et modèle Booléen : quelques propriétés et rapprochements

Calka, Pierre 10 December 2009 (has links) (PDF)
Ce mémoire est consacré à trois modèles classiques de géométrie aléatoire : les mosaïques, les enveloppes convexes et le modèle booléen. Dans la première partie, on étudie les mosaïques poissonniennes d'hyperplans isotropes et plus particulièrement leur zéro-cellule qui est un polyèdre convexe aléatoire de l'espace euclidien. Deux cas particuliers de zéro-cellules sont la cellule typique de Poisson-Voronoi et la cellule de Crofton. On donne une formule explicite pour la loi du nombre de côtés d'une zéro-cellule en dimension deux. On s'intéresse au comportement asymptotique de cette loi et on fait le lien avec le problème de Sylvester des points en position convexe. On décrit ensuite la loi du rayon circonscrit ainsi que le comportement asymptotique du polyèdre à grand rayon inscrit au moyen de théorèmes limites. De cette manière et aussi par l'utilisation de la fréquence fondamentale, on apporte des précisions à l'énoncé de la conjecture de D. G. Kendall. La seconde partie a pour objet les enveloppes convexes de processus ponctuels de Poisson isotropes dans la boule-unité. On établit un résultat de type grandes déviations pour le nombre de sommets. On montre ensuite la convergence de la frontière de l'enveloppe après changement d'échelle et on en déduit des résultats de valeurs extrêmes, estimations de variance, théorèmes centraux limites et principes d'invariance pour certaines caractéristiques. Dans la troisième partie, on s'intéresse enfin aux modèles de recouvrement de type booléen de l'espace euclidien. Dans un premier travail, on applique une variante du modèle sans interpénétration des objets à la modélisation d'un phénomène de fissuration. On étudie ensuite la convergence de la composante connexe de l'origine d'un modèle booléen vers la cellule de Crofton en dimension deux. On s'intéresse enfin à la fonction de visibilité de cette composante connexe pour laquelle on obtient une estimée de la queue de distribution et des résultats de valeurs extrêmes.
155

Normes Parcimonieuses Structurées : Propriétés Statistiques et Algorithmiques avec Applications à l'Imagerie Cérébrale

Jenatton, Rodolphe 24 November 2011 (has links) (PDF)
De nombreux domaines issus de l'industrie et des sciences appliquées ont été, au cours des dernières années, les témoins d'une révolution numérique. Cette tendance s'est accompagnée d'une croissance continue du volume des données--vidéos, musiques et images, dont le traitement est devenu un véritable défi technique. Par exemple, il est aujourd'hui fréquent de prendre des centaines de photographies de plusieurs millions de pixels, la moindre application de méthodes du traitement de l'image devenant alors une opération difficile. Dans ce contexte, la parcimonie est apparue comme un concept central en apprentissage statistique et traitement du signal. Il est en effet naturel de représenter, analyser et exploiter les données disponibles à travers un nombre réduit de paramètres. Par exemple, on peut imaginer effectuer de la reconnaissance d'objets sur des images de hautes résolutions en n'utilisant qu'un petit sous-ensemble pertinent de pixels. Alors que les approches générales favorisant la parcimonie ont déjà été l'objet de nombreux travaux--débouchant sur d'élégantes fondations théoriques, des outils algorithmiques efficaces et plusieurs succès pratiques--cette thèse se concentre sur une forme particulière et plus récente de parcimonie, nommée parcimonie structurée. Comme son nom l'indique, nous considérerons des situations où nous ne serons pas simplement intéréssés par la parcimonie, mais où nous aurons également à disposition des connaissances a priori nous renseignant sur certaines propriétés structurelles. En continuant d'exploiter l'exemple de la reconnaissance d'objets mentioné ci-dessus, nous savons que des pixels voisins sur une image ont tendance à partager des propriétés similaires, telles que la classe de l'objet à laquelle ils appartiennent. Ainsi, une approche encourageant la parcimonie devrait tirer partie de cette information spatiale. L'objectif de cette thèse est de comprendre et analyser le concept de parcimonie structurée, en se basant sur des considérations statistiques, algorithmiques et appliquées. Nous commencerons par introduire une famille de normes structurées parcimonieuses dont les propriétés sont étudiées en détail. En particulier, nous montrerons à quel type d'information structurelle ces normes correspondent, et nous présenterons sous quelles conditions statistiques elles sont capables de produire une séléction consistente de variables. Nous étudierons ensuite l'apprentissage de dictionnaires parcimonieux et structurés, où nous exploiterons les normes introduites précédemment dans un cadre de factorisation de matrices. L'approche qui en résulte est fléxible et versatile, et nous montrerons que les éléments de dictionnaire appris exhibent une structure parcimonieuse adaptée à la classe de signaux considérée. Concernant l'optimisation, nous proposerons différents outils algorithmiques efficaces et capables de passer à l'échelle, tels que des stratégies à ensemble de variables actives ou encore des méthodes proximales. Grâce à ces outils algorithmiques, nous illustrerons sur de nombreuses applications issues de domaines variés, quand et pourquoi la parcimonie structurée peut être bénéfique. Ces illustrations contiennent par exemple, des tâches de restauration en traitement de l'image, la modélisation de documents textuels sous la forme d'une hiérarchie de thèmes, la prédiction de la taille d'objets à partir de signaux d'imagerie par résonance magnétique fonctionnelle, ou encore des problèmes de segmentation d'images en vision par ordinateur.
156

Optimisation et jeux appliqués à l'analyse statique de programmes par interprétation abstraite

Adje, Assalé 29 April 2011 (has links) (PDF)
L'interprétation abstraite est une méthode générale qui permet de déterminer de manière automatique des invariants de programmes. Cette méthode conduit à résoudre un problème de point fixe non linéaire de grande taille mais qui possède des propriétés de monotonie. Ainsi, déterminer des bornes sur les valeurs prises par une variable au cours de l'exécution d'un programme, est un problème de point fixe équivalent à un problème de jeu à deux joueurs, à somme nulle et avec options d'arrêt. Cette dernière observation explique la mise en oeuvre d'algorithmes d'itérations sur les politiques. Dans un premier temps, nous avons généralisé les domaines numériques polyédriques par un domaine numérique abstrait permettant de représenter des invariants non-linéaires. Nous avons défini une fonction sémantique abstraite sur ce domaine à partir d'une correspondance de Galois. Cependant, l'évaluation de celle-ci est aussi difficile qu'un problème d'optimisation globale non-convexe. Cela nous a amené à définir une fonction sémantique relâchée, construite à partir de la théorie de la dualité, qui sur-approxime de la fonction sémantique abstraite. La théorie de la dualité a également motivé une construction d'une itération sur les politiques dynamique pour calculer des invariants numériques. En pratique pour des programmes écrits en arithmétique affine, nous avons combiné la relaxation de Shor et l'information des fonctions de Lyapunov quadratique pour évaluer la fonction sémantique relâchée et ainsi générer des invariants numériques sous forme d'ellipsoïdes tronquées. Le deuxième travail concerne l'itération sur les politiques et le calcul du plus petit point fixe qui fournit l'invariant le plus précis. Nous avons raffiné l'itération sur les politiques afin de produire le plus petit point fixe dans le cas des jeux stochastiques. Ce raffinement repose sur des techniques de théorie de Perron-Frobenius non-linéaire. En effet, la fonction sémantique abstraite sur les intervalles peut être vue comme un opérateur de Shapley en information parfaite: elle est semidifférentiable. L'approche conjointe de la semidifférentielle et des rayons spectraux non linéaires nous a permis, dans le cas des contractions au sens large de caractériser le plus petit point fixe. Cette approche mène à un critère d'arrêt pour l'itération sur politique dans le cas des fonctions affines par morceaux contractantes au sens large. Quand le point fixe est non minimal, le problème consiste à exhiber un point fixe négatif non nul de la semidifférentielle. Ce vecteur conduit à une nouvelle politique qui fournit un point fixe strictement plus petit que le point fixe courant. Cette approche a été appliquée à quelques exemples de jeux stochastiques à paiements positifs et de vérification de programmes.
157

Problèmes d'inclusions couplées : Éclatement, algorithmes et applications

Briceno-Arias, Luis M. 27 May 2011 (has links) (PDF)
Cette thèse est consacrée à la résolution de problèmes d'analyse non linéaire multivoque dans lesquels plusieurs variables interagissent. Le problème générique est modélisé par une inclusion vis-à-vis d'une somme d'opérateurs monotones sur un espace hilbertien produit. Notre objectif est de concevoir des nouveaux algorithmes pour résoudre ce problème sous divers jeux d'hypothèses sur les opérateurs impliqués et d'étudier le comportement asymptotique des méthodes élaborées. Une propriété commune aux algorithmes est le fait qu'ils procèdent par éclatement en ceci que les opérateurs monotones et, le cas échéant, les opérateurs linéaires constitutifs du modèle agissent indépendamment au sein de chaque itération. Nous abordons en particulier le cas où les opérateurs monotones sont des sous-différentiels de fonctions convexes, ce qui débouche sur de nouveaux algorithmes de minimisation. Les méthodes proposées unifient et dépassent largement l'état de l'art. Elles sont appliquées aux inclusions monotones composites en dualité, aux problèmes d'équilibre, au traitement du signal et de l'image, à la théorie des jeux, à la théorie du trafic, aux équations d'évolution, aux problèmes de meilleure approximation et à la décomposition de domaine dans les équations aux dérivées partielles.
158

Résolution par des méthodes de point intérieur de problèmes de programmation convexe posés par l’analyse limite.

PASTOR, Franck 26 October 2007 (has links)
Résumé Nous présentons en premier lieu dans ce travail les principales notions de la théorie de l'Analyse Limite (AL) — ou théorie des charges limites — en mécanique. Puis nous proposons une méthode de point intérieur destinée à résoudre des problèmes de programmation convexe posés par la méthode statique de l'AL, en vue d'obtenir des bornes inférieures de la charge limite (ou de ruine) d'un système mécanique. Les principales caractéristiques de cette méthode de point intérieur sont exposées en détail, et particulièrement son itération type. En second lieu, nous exposons l'application de cet algorithme sur un problème concret d'analyse limite, sur une large gamme de tailles numériques, et nous comparons pour validation les résultats obtenus avec ceux déjà existants ainsi qu'avec ceux calculés à partir de versions linéarisées du problème statique. Nous analysons également les résultats obtenus pour des problèmes classiques avec matériaux de Gurson, pour lesquels la linéarisation ou la programmation conique ne s'applique pas. La deuxième partie de cet ouvrage a trait à la méthode cinématique de l'analyse limite, qui, elle, s'occupe de fournir des bornes supérieures des charges limites. En premier lieu, nous traitons de l'équivalence entre la méthode cinématique classique et la méthode cinématique mixe, en partant d'une l'approche variationnelle fournie précédemment par Radenkovic et Nguyen. Ensuite, prenant en compte les exigences particulières aux formulations numériques, nous présentons une méthode mixte originale, parfaitement cinématique, utilisant aussi bien des champs de vitesses linéaires que quadratiques, continus ou discontinus. Son modus operandi pratique est tiré de l'analyse des conditions d'optimalité de Karush, Kuhn et Tucker, fournissant par là un exemple significatif d'interaction fructueuse entre la mécanique et la programmation mathématique. La méthode est testée sur des problèmes classiques avec les critères de plasticité de von Mises/Tresca et Gurson. Ces test démontrent l'efficacité remarquable de cette méthode mixte — qui par ailleurs n'utilise que le critère de plasticité comme information sur le matériau — et sa robustesse, laquelle s'avère même supérieure à celle de codes commerciaux récents de programmation conique. Enfin, nous présentons une approche de décomposition, elle aussi originale, des problèmes de bornes supérieures en analyse limite. Cette approche est basée à la fois sur la méthode cinématique mixte et l'algorithme de point intérieur précédents, et elle est conçue pour utiliser jusqu'à des champs de vitesse quadratiques discontinus. Détaillée dans le cas de la déformation plane, cette approche apparaît très rapidement convergente, ainsi que nous le vérifions sur le problème du barreau comprimé de von Mises/Tresca dans le cas de champs de vitesse linéaires continus. Puis elle est appliquée, dans le cas de champs quadratiques discontinus, au problème classique de la stabilité du talus vertical de Tresca, avec des résultats particulièrement remarquables puisqu'ils améliorent nettement les solutions cinématiques connues jusqu'à présent dans la littérature sur le sujet. Cette caractéristique de forte convergence qualifie particulièrement cette méthode de décomposition comme algorithme de base pour une parallélisation directe— ou récursive — de l'approche par éléments finis de l'analyse limite. Abstract Firstly, the main notions of the theory of Limit analysis (LA) in Mechanics —or collapse load theory – is presented. Then is proposed an Interior Point method to solve convex programming problems raised by the static method of LA, in order to obtain lower bounds to the collapse (or limit) load of a mechanical system. We explain the main features of this Interior Point method, describing in particular its typical iteration. Secondly, we show and analyze the results of its application to a practical Limit Analysis problem, for a wide range of sizes, and we compare them for validation with existing results and with those of linearized versions of the static problem. Classical problems are also analyzed for Gurson materials to which linearization or conic programming does not apply. The second part of this work focuses on the kinematical method of Limit Analysis, aiming this time to provide upper bounds on collapse loads. In a first step, we detail the equivalence between the classical an general mixed approaches, starting from an earlier variational approach of Radenkovic and Nguyen. In a second step, keeping in mind numerical formulation requirements, an original purely kinematical mixed method—using linear or quadratic, continuous or discontinuous velocity fields as virtual variables—is proposed. Its practical modus operandi is deduced from the Karush-Kuhn-Tucker optimality conditions, providing an example of crossfertilization between mechanics and mathematical programming. The method is tested on classical problems for von Mises/tresca and Gurson plasticity criteria. Using only the yield criterion as material data, it appears very efficient and robust, even more reliable than recent conic commercial codes. Furthermore, both static and kinematic present approaches give rise to the first solutions of problem for homogeneous Gurson materials. Finally, an original decomposition approach of the upper bound method of limit analysis is proposed. It is based on both previous kinematical approach and interior point solver, using up to discontinuous quadratic velocity. Detailed in plane strain, this method appears very rapidly convergent, as verified in the von Mises/Tresca compressed bar problem in the linear continuous velocity case. Then the method is applied, using discontinuous quadratic velocity fields, to the classical problem of the stability of a Tresca vertical cut, with very significant results as they notably improved the kinematical solutions of the literature. Moreover its strong convergence qualifies this decomposition scheme as a suitable algorithm for a direct—or recursive—parallelization of the LA finite element approach.
159

Topics in convex optimization: interior-point methods, conic duality and approximations

Glineur, Francois 26 January 2001 (has links)
Optimization is a scientific discipline that lies at the boundary between pure and applied mathematics. Indeed, while on the one hand some of its developments involve rather theoretical concepts, its most successful algorithms are on the other hand heavily used by numerous companies to solve scheduling and design problems on a daily basis. Our research started with the study of the conic formulation for convex optimization problems. This approach was already studied in the seventies but has recently gained a lot of interest due to development of a new class of algorithms called interior-point methods. This setting is able to exploit the two most important characteristics of convexity: - a very rich duality theory (existence of a dual problem that is strongly related to the primal problem, with a very symmetric formulation), - the ability to solve these problems efficiently, both from the theoretical (polynomial algorithmic complexity) and practical (implementations allowing the resolution of large-scale problems) point of views. Most of the research in this area involved so-called self-dual cones, where the dual problem has exactly the same structure as the primal: the most famous classes of convex optimization problems (linear optimization, convex quadratic optimization and semidefinite optimization) belong to this category. We brought some contributions in this field: - a survey of interior-point methods for linear optimization, with an emphasis on the fundamental principles that lie behind the design of these algorithms, - a computational study of a method of linear approximation of convex quadratic optimization (more precisely, the second-order cone that can be used in the formulation of quadratic problems is replaced by a polyhedral approximation whose accuracy that can be guaranteed a priori), - an application of semidefinite optimization to classification, whose principle consists in separating different classes of patterns using ellipsoids defined in the feature space (this approach was successfully applied to the prediction of student grades). However, our research focussed on a much less studied category of convex problems which does not rely on self-dual cones, i.e. structured problems whose dual is formulated very differently from the primal. We studied in particular - geometric optimization, developed in the late sixties, which possesses numerous application in the field of engineering (entropy optimization, used in information theory, also belongs to this class of problems) - l_p-norm optimization, a generalization of linear and convex quadratic optimization, which allows the formulation of constraints built around expressions of the form |ax+b|^p (where p is a fixed exponent strictly greater than 1). For each of these classes of problems, we introduced a new type of convex cone that made their formulation as standard conic problems possible. This allowed us to derive very simplified proofs of the classical duality results pertaining to these problems, notably weak duality (a mere consequence of convexity) and the absence of a duality gap (strong duality property without any constraint qualification, which does not hold in the general convex case). We also uncovered a very surprising result that stipulates that geometric optimization can be viewed as a limit case of l_p-norm optimization. Encouraged by the similarities we observed, we developed a general framework that encompasses these two classes of problems and unifies all the previously obtained conic formulations. We also brought our attention to the design of interior-point methods to solve these problems. The theory of polynomial algorithms for convex optimization developed by Nesterov and Nemirovsky asserts that the main ingredient for these methods is a computable self-concordant barrier function for the corresponding cones. We were able to define such a barrier function in the case of l_p-norm optimization (whose parameter, which is the main determining factor in the algorithmic complexity of the method, is proportional to the number of variables in the formulation and independent from p) as well as in the case of the general framework mentioned above. Finally, we contributed a survey of the self-concordancy property, improving some useful results about the value of the complexity parameter for certain categories of barrier functions and providing some insight on the reason why the most commonly adopted definition for self-concordant functions is the best possible.
160

Optimisations de niveau système pour les algorithmes de traitement du signal utilisant l'arithmétique virgule fixe

Parashar, Karthick 20 December 2012 (has links) (PDF)
Le problème de l'optimisation des systèmes utilisant l'arithmétique virgule fixe est un problème d'optimisation combinatoire de complexité NP-difficile. Savoir analyser et optimiser des applications complexes et de taille réelle est le thème central de cette thèse. Une technique de type diviser-pour-régner, où un système donné est décomposé en plusieurs petits sous-systèmes organisés selon une hiérarchie est au cœur de cette approche. Cette décomposition ouvre la voie à l'évaluation rapide de la précision et au problème d'optimisation hiérarchique de la largeur des données et des opérations du système. En raison de la réduction du nombre de variables, la convergence du problème d'optimisation hiérarchique vers une solution est beaucoup plus rapide que dans le cas classique. Le modèle "Single Noise Source" (SNS) est proposé pour étudier les statistiques des erreurs de quantification. Au lieu de simplement se concentrer sur la moyenne et la variance du bruit des erreurs dues à la quantification, il fournit également des formules analytiques pour dériver les paramètres statistiques des processus aléatoires produisant les erreurs de quantification équivalentes à une simulation en virgule fixe. En présence des opérations " non-lisses " (un- smooth) telles que la décision dans les modulations QAM, les fonctions Min() ou Max(), etc., il est pour l'instant inévitable d'utiliser la simulation en virgule fixe. Une technique pour l'évaluation analytique des statistiques des erreurs de quantification en présence d'opérateurs non-lisses dans les graphes ne contenant pas de rebouclage est également proposée. Afin de tenir compte également des systèmes ayant des rebouclages, une technique hybride qui utilise le modèle SNS pour accélérer les simulations en virgule fixe est de plus proposée. Un cadre d'utilisation de l'optimisation convexe est proposé comme heuristique pour résoudre le problème d'optimisation des largeurs. Cette nouvelle technique améliore non seulement la qualité de la solution, mais permet de résoudre le problème plus rapidement que les approches itératives classiques. L'application des techniques proposées permet non seulement de réduire les coûts du système mais aussi une réduction de plusieurs ordres de grandeur dans le temps nécessaire pour optimiser les systèmes utilisant l'arithmétique virgule fixe.

Page generated in 0.0239 seconds