• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 6
  • 1
  • Tagged with
  • 37
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Γενετικοί και μετά-γενετικοί αλγόριθμοι και η εφαρμογή τους στην εκτίμηση ARMA μοντέλων

Άννινου, Νίκη 26 October 2009 (has links)
Αντικείμενο της διπλωματικής εργασίας είναι η εφαρμογή Εξελικτικών Μεθόδων, βασισμένων, στους Γενετικούς Αλγόριθμους, στο πρόβλημα της επιλογής της τάξης και της αναγνώρισης των παραμέτρων γραμμικών συστημάτων και ειδικότερα Αυτοανάδρομων Κινούμενου Μέσου όρου Διαδικασιών ARMA (Autoregressive Moving Average Processes). Οι Γενετικοί Αλγόριθμοι είναι αλγόριθμοι αναζήτησης που βασίζονται στις αρχές της εξέλιξης που παρατηρούνται στη φύση και γίνονται όλο και περισσότερο γνωστοί χάριν της ικανότητά τους να λύνουν δύσκολα προβλήματα. Οι ΓΑ χαρακτηρίζονται από την απλότητα και την κομψότητά τους ως ‘γεροί’ αλγόριθμοι αναζήτησης, καθώς επίσης και από τη ικανότητά τους να ανακαλύπτουν γρήγορα τις καλές λύσεις δύσκολων και κυρίως μεγάλης διάστασης προβλημάτων. Το θεμελιώδες πρόβλημα της επιλογής της τάξης και της αναγνώρισης των παραμέτρων ενός μοντέλου, έχει αντιμετωπιστεί με επιτυχία με τη χρήση της θεωρίας Διαμερισμού Πολλών Μοντέλων (Multi Model Partitioning -MMP) του Λαϊνιώτη. Βασισμένη στην εκ των υστέρων επιλογή του συνόλου των υποψηφίων μοντέλων, η μέθοδος αυτή δίνει βέλτιστες λύσεις - ή σχεδόν βέλτιστες, όταν η πραγματική τάξη του μοντέλου δεν ανήκει στον αρχικό πληθυσμό των υποψηφίων μοντέλων. Το μειονέκτημα της εξάρτησης από την εκ των υστέρων επιλογή των υποψηφίων μοντέλων μπορεί να αντιμετωπιστεί με τη χρήση τεχνικών φυσικής επιλογής, όπως οι Γενετικοί Αλγόριθμοι, οι οποίοι αποτελούν μία από τις πιο γνωστές και αποτελεσματικές μεθόδους αναζήτησης και βελτιστοποίησης. Η εξελικτική μέθοδος, που παρουσιάζεται στην εργασία αυτή, συνδυάζει την αποτελεσματικότητα της MMP θεωρίας με την ευρωστία των Γενετικών Αλγορίθμων με σκοπό τη δημιουργία μίας νέας γενιάς πολυδιάστατων φίλτρων διαμερισμού. Η δομή των φίλτρων αυτών μεταβάλλεται διαρκώς για να ταιριάζει κάθε φορά με ένα δεδομένο σύνολο μοντέλων, τα οποία προσδιορίζονται δυναμικά και on-line με τη χρήση ενός κατάλληλα σχεδιασμένου ΓΑ. Παρά του ότι η κωδικοποίηση των παραμέτρων είναι σύνθετη, τα πειραματικά αποτελέσματα έδειξαν ότι ο προτεινόμενος αλγόριθμος επιτυγχάνει καλύτερα αποτελέσματα, σε σύγκριση με τους συμβατικούς αλγορίθμους αναγνώρισης συστήματος, αφού έχει τη δυνατότητα να εξερευνά ολόκληρο το χώρο τιμών των παραμέτρων. Επιπλέον, η εξέλιξη του αρχικού πληθυσμού καταλήγει σε εύρεση της πραγματικής τάξης του μοντέλου του συστήματος ακόμα και στην περίπτωση όπου η πραγματική τάξη δεν ανήκει στην τράπεζα μοντέλων του αρχικού πληθυσμού. Η υλοποίηση του αλγόριθμου έγινε σε παράλληλο περιβάλλον, αφού τόσο το Multi Model Adaptive Filter (MMAF) όσο και οι Γενετικοί Αλγόριθμοι είναι από τη φύση τους παράλληλα δομημένοι, οδηγώντας έτσι στη βελτίωση της ταχύτητας του αλγορίθμου. Με σκοπό να επιτευχθεί επιπλέον βελτίωση του αλγορίθμου τόσο ως προς την αύξηση της ταχύτητας του όσο και την ποιότητα της εξέλιξης των πληθυσμών των ΓΑ, έγινε χρήση ενός επιπλέον Γενετικού Αλγορίθμου ο οποίος προσδιόρισε τις τιμές των παραμέτρων των ΓΑ που υλοποιούν την υβριδική εξελικτική μέθοδο. Ο Μετά-Γενετικός αλγόριθμος προσδιόρισε το Μέγεθος του Πληθυσμού, την Πιθανότητα Μετάλλαξης και Διασταύρωσης των παράλληλων ΓΑ. Από τα πειραματικά αποτελέσματα που προέκυψαν μπορεί κάποιος εύκολα να καταλήξει στο συμπέρασμα ότι ο ΜΓΑ καταφέρνει να επιλέξει τις βέλτιστες τιμές για τις βασικές γενετικές παραμέτρους με αποτέλεσμα η όλη διαδικασία να μπορεί να αυτοματοποιηθεί και να είναι πλήρως προσαρμόσιμη σε οποιαδήποτε αλλαγή συμβεί στο περιβάλλον εφαρμογής του ΜΓΑ. / -
32

Développement et validation du logiciel S4MPLE : application au docking moléculaire et à l'optimisation de fragments assistée par ordinateur dans le cadre du fragment-based drug design / Development and validation of molecular modeling tool S4MPLE : application to in silico fragment-based drug design, using molecular docking and virtual optimisation of fragment-like compounds

Hoffer, Laurent 03 June 2013 (has links)
Cette thèse a pour but de développer le pendant in silico des étapes clés du Fragment-Based Drug Design (FBDD), et ce dans le cadre plus général du développement de l'outil S4MPLE. Le FBDD génère des ligands drug-like à partir de petites molécules (fragments). Après une étape de validation de S4MPLE et de sa fonction d’énergie, un recentrage autour du FBDD est réalisé, à travers le docking puis l'optimisation virtuelle de fragments par growing ou linking (G/L). Cette stratégie reposesur 1) la création d’une chimiothèque focalisée en connectant un ou deux fragment(s) avec des linkers pré-générés, et 2) l’échantillonnage avec S4MPLE des composés chimères dans le site avec des contraintes. Des simulations de G/L plus ou moins ambitieuses (site flexible, ajout de H2O libres) permettent de valider cette approche avec des études rétrospectives basées sur des données expérimentales. La dernière phase de la thèse a consisté à appliquer ce protocole in silico à un projet de l’entreprise. / This work aims to develop in silico methods targeting the key stages of Fragment-Based Drug Design (FBDD), participating to the development of the molecular modeling tool S4MPLE. Briefly, FBDD generates ıdrug-likeı ligands from small organic molecules called fragments. After a validation step of S4MPLE and its energy function, the work focused on FBDD: molecular docking of fragments and their subsequent virtual optimization. The latter mimics standard evolution strategies in FBDD(growing and linking). This in silico approach involves among other two key stages 1) building of a focused library by plugging in pre-generated linkers into reference fragments using rules and 2) sampling of these new compounds under atomic and binding site constraints. Validation simulations, relying on known experimental data, included ıclassicalı growing / linking and more challenging ones (site flexibility, free waters). Finally, this strategy is applied to one project of the company.
33

Régularisation du calcul de bases de Gröbner pour des systèmes avec poids et déterminantiels, et application en imagerie médicale / Regularisation of Gröbner basis computations for weighted and determinantal systems, and application to medical imagery

Verron, Thibaut 26 September 2016 (has links)
La résolution de systèmes polynomiaux est un problème aux multiples applications, et les bases de Gröbner sont un outil important dans ce cadre. Il est connu que de nombreux systèmes issus d'applications présentent une structure supplémentaire par rapport à des systèmes arbitraires, et que ces structures peuvent souvent être exploitées pour faciliter le calcul de bases de Gröbner.Dans cette thèse, on s'intéresse à deux exemples de telles structures, pour différentes applications. Tout d'abord, on étudie les systèmes homogènes avec poids, qui sont homogènes si on calcule le degré en affectant un poids à chaque variable. Cette structure apparaît naturellement dans de nombreuses applications, dont un problème de cryptographie (logarithme discret). On montre comment les algorithmes existants, efficaces pour les polynômes homogènes, peuvent être adaptés au cas avec poids, avec des bornes de complexité générique divisées par un facteur polynomial en le produit des poids.Par ailleurs, on étudie un problème de classification de racines réelles pour des variétés définies par des déterminants. Ce problème a une application directe en théorie du contrôle, pour l'optimisation de contraste de l'imagerie à résonance magnétique. Ce système particulier s'avère insoluble avec les stratégies générales pour la classification. On montre comment ces stratégies peuvent tirer profit de la structure déterminantielle du système, et on illustre ce procédé en apportant des réponses aux questions posées par le problème d'optimisation de contraste. / Polynomial system solving is a problem with numerous applications, and Gröbner bases are an important tool in this context. Previous studies have shown that systèmes arising in applications usually exhibit more structure than arbitrary systems, and that these structures can be used to make computing Gröbner bases easier.In this thesis, we consider two examples of such structures. First, we study weighted homogeneous systems, which are homogeneous if we give to each variable an arbitrary degree. This structure appears naturally in many applications, including a cryptographical problem (discrete logarithm). We show how existing algorithms, which are efficient for homogeneous systems, can be adapted to a weighted setting, and generically, we show that their complexity bounds can be divided by a factor polynomial in the product of the weights.Then we consider a real roots classification problem for varieties defined by determinants. This problem has a direct application in control theory, for contrast optimization in magnetic resonance imagery. This specific system appears to be out of reach of existing algorithms. We show how these algorithms can benefit from the determinantal structure of the system, and as an illustration, we answer the questions from the application to contrast optimization.
34

Numerical Analysis of a Non-Conforming Domain Decomposition for the Multigroup SPN Equations / Analyse numérique d'une méthode de décomposition de domaine non-conforme pour les équations multigroupes SPN

Giret, Léandre 21 June 2018 (has links)
Dans cette thèse, nous nous intéressons à la résolution des équations SPN du transport de neutrons au sein des cœurs de réacteurs nucléaires à eau pressurisée. Ces équations forment un problème aux valeurs propres généralisé. Dans notre étude nous commençons par le problème source associé et ensuite nous étudions le problème aux valeurs propres. Un cœur de réacteur est composé de différents milieux: le combustible, le fluide caloporteur, le modérateur... à cause de ces hétérogénéités de la géométrie, le flux solution du problème source peut être peu régulier. Nous proposons l’analyse numérique de l’approximation de la solution par la méthode des éléments finis du problème source dans le cas où la solution est peu régulière. Pour le problème aux valeurs propres, dans le cas mixte, les théories déjà développées ne s’appliquent pas. Nous proposons ici une nouvelle méthode pour étudier la convergence de la méthode des éléments finis mixtes pour les problèmes aux valeurs propres. Pour les solutions peu régulières, la montée en ordre de la méthode des éléments finis n’améliore pas l’approximation du problème, il faut raffiner le maillage aux alentours des singularités de la solution. La géométrie des cœurs de réacteur se prête bien aux maillages cartésiens, mais leur raffinement augmente vite leur nombre de degrés de liberté. Pour palier à cette augmentation, nous proposons ici une méthode de décomposition de domaine qui permet d’utiliser des maillages globalement non-conformes. / In this thesis, we investigate the resolution of the SPN neutron transport equations in pressurized water nuclear reactor. These equations are a generalized eigenvalue problem. In our study, we first considerate the associated source problem and after we concentrate on the eigenvalue problem. A nuclear reactor core is composed of different media: the fuel, the coolant, the neutron moderator... Due to these heterogeneities of the geometry, the solution flux can have a low-regularity. We propose the numerical analysis of its approximation with finite element method for the low regular case. For the eigenvalue problem under its mixed form, we can not rely on the theories already developed. We propose here a new method for studying the convergence of the SPN neutron transport eigenvalue problem approximation with mixed finite element. When the solution has low-regularity, increasing the order of the method does not improve the approximation, the triangulation need to be refined near the singularities of the solution. Nuclear reactor cores are well-suited for Cartesian grids, but the refinement of these sort of triangulations increases rapidly their number of degrees of freedom. To avoid this drawback, we propose domain decomposition method which can handle globally non-conforming triangulations.
35

DifFUZZY : a novel clustering algorithm for systems biology

Cominetti Allende, Ornella Cecilia January 2012 (has links)
Current studies of the highly complex pathobiology and molecular signatures of human disease require the analysis of large sets of high-throughput data, from clinical to genetic expression experiments, containing a wide range of information types. A number of computational techniques are used to analyse such high-dimensional bioinformatics data. In this thesis we focus on the development of a novel soft clustering technique, DifFUZZY, a fuzzy clustering algorithm applicable to a larger class of problems than other soft clustering approaches. This method is better at handling datasets that contain clusters that are curved, elongated or are of different dispersion. We show how DifFUZZY outperforms a number of frequently used clustering algorithms using a number of examples of synthetic and real datasets. Furthermore, a quality measure based on the diffusion distance developed for DifFUZZY is presented, which is employed to automate the choice of its main parameter. We later apply DifFUZZY and other techniques to data from a clinical study of children from The Gambia with different types of severe malaria. The first step was to identify the most informative features in the dataset which allowed us to separate the different groups of patients. This led to us reproducing the World Health Organisation classification for severe malaria syndromes and obtaining a reduced dataset for further analysis. In order to validate these features as relevant for malaria across the continent and not only in The Gambia, we used a larger dataset for children from different sites in Sub-Saharan Africa. With the use of a novel network visualisation algorithm, we identified pathobiological clusters from which we made and subsequently verified clinical hypotheses. We finish by presenting conclusions and future directions, including image segmentation and clustering time-series data. We also suggest how we could bridge data modelling with bioinformatics by embedding microarray data into cell models. Towards this end we take as a case study a multiscale model of the intestinal crypt using a cell-vertex model.
36

Méthodes de Monte-Carlo EM et approximations particulaires : application à la calibration d'un modèle de volatilité stochastique / Monte Carlo EM methods and particle approximations : application to the calibration of stochastic volatility model

Allaya, Mouhamad M. 09 December 2013 (has links)
Ce travail de thèse poursuit une perspective double dans l'usage conjoint des méthodes de Monte Carlo séquentielles (MMS) et de l'algorithme Espérance-Maximisation (EM) dans le cadre des modèles de Markov cachés présentant une structure de dépendance markovienne d'ordre supérieur à 1 au niveau de la composante inobservée. Tout d'abord, nous commençons par un exposé succinct de l'assise théorique des deux concepts statistiques à Travers les chapitres 1 et 2 qui leurs sont consacrés. Dans un second temps, nous nous intéressons à la mise en pratique simultanée des deux concepts au chapitre 3 et ce dans le cadre usuel ou la structure de dépendance est d'ordre 1, l'apport des méthodes MMS dans ce travail réside dans leur capacité à approximer efficacement des fonctionnelles conditionnelles bornées, notamment des quantités de filtrage et de lissage dans un cadre non linéaire et non gaussien. Quant à l'algorithme EM, il est motivé par la présence à la fois de variables observables, et inobservables (ou partiellement observées) dans les modèles de Markov Cachés et singulièrement les modèles de volatilité stochastique étudié. Après avoir présenté aussi bien l'algorithme EM que les méthodes MCS ainsi que quelques une de leurs propriétés dans les chapitres 1 et 2 respectivement, nous illustrons ces deux outils statistiques au travers de la calibration d'un modèle de volatilité stochastique. Cette application est effectuée pour des taux change ainsi que pour quelques indices boursiers au chapitre 3. Nous concluons ce chapitre sur un léger écart du modèle de volatilité stochastique canonique utilisé ainsi que des simulations de Monte Carlo portant sur le modèle résultant. Enfin, nous nous efforçons dans les chapitres 4 et 5 à fournir les assises théoriques et pratiques de l'extension des méthodes Monte Carlo séquentielles notamment le filtrage et le lissage particulaire lorsque la structure markovienne est plus prononcée. En guise d’illustration, nous donnons l'exemple d'un modèle de volatilité stochastique dégénéré dont une approximation présente une telle propriété de dépendance. / This thesis pursues a double perspective in the joint use of sequential Monte Carlo methods (SMC) and the Expectation-Maximization algorithm (EM) under hidden Mar­kov models having a Markov dependence structure of order grater than one in the unobserved component signal. Firstly, we begin with a brief description of the theo­retical basis of both statistical concepts through Chapters 1 and 2 that are devoted. In a second hand, we focus on the simultaneous implementation of both concepts in Chapter 3 in the usual setting where the dependence structure is of order 1. The contribution of SMC methods in this work lies in their ability to effectively approximate any bounded conditional functional in particular, those of filtering and smoothing quantities in a non-linear and non-Gaussian settings. The EM algorithm is itself motivated by the presence of both observable and unobservable ( or partially observed) variables in Hidden Markov Models and particularly the stochastic volatility models in study. Having presented the EM algorithm as well as the SMC methods and some of their properties in Chapters 1 and 2 respectively, we illustrate these two statistical tools through the calibration of a stochastic volatility model. This application is clone for exchange rates and for some stock indexes in Chapter 3. We conclude this chapter on a slight departure from canonical stochastic volatility model as well Monte Carlo simulations on the resulting model. Finally, we strive in Chapters 4 and 5 to provide the theoretical and practical foundation of sequential Monte Carlo methods extension including particle filtering and smoothing when the Markov structure is more pronounced. As an illustration, we give the example of a degenerate stochastic volatility model whose approximation has such a dependence property.
37

Algorithmes gloutons orthogonaux sous contrainte de positivité / Orthogonal greedy algorithms for non-negative sparse reconstruction

Nguyen, Thi Thanh 18 November 2019 (has links)
De nombreux domaines applicatifs conduisent à résoudre des problèmes inverses où le signal ou l'image à reconstruire est à la fois parcimonieux et positif. Si la structure de certains algorithmes de reconstruction parcimonieuse s'adapte directement pour traiter les contraintes de positivité, il n'en va pas de même des algorithmes gloutons orthogonaux comme OMP et OLS. Leur extension positive pose des problèmes d'implémentation car les sous-problèmes de moindres carrés positifs à résoudre ne possèdent pas de solution explicite. Dans la littérature, les algorithmes gloutons positifs (NNOG, pour “Non-Negative Orthogonal Greedy algorithms”) sont souvent considérés comme lents, et les implémentations récemment proposées exploitent des schémas récursifs approchés pour compenser cette lenteur. Dans ce manuscrit, les algorithmes NNOG sont vus comme des heuristiques pour résoudre le problème de minimisation L0 sous contrainte de positivité. La première contribution est de montrer que ce problème est NP-difficile. Deuxièmement, nous dressons un panorama unifié des algorithmes NNOG et proposons une implémentation exacte et rapide basée sur la méthode des contraintes actives avec démarrage à chaud pour résoudre les sous-problèmes de moindres carrés positifs. Cette implémentation réduit considérablement le coût des algorithmes NNOG et s'avère avantageuse par rapport aux schémas approximatifs existants. La troisième contribution consiste en une analyse de reconstruction exacte en K étapes du support d'une représentation K-parcimonieuse par les algorithmes NNOG lorsque la cohérence mutuelle du dictionnaire est inférieure à 1/(2K-1). C'est la première analyse de ce type. / Non-negative sparse approximation arises in many applications fields such as biomedical engineering, fluid mechanics, astrophysics, and remote sensing. Some classical sparse algorithms can be straightforwardly adapted to deal with non-negativity constraints. On the contrary, the non-negative extension of orthogonal greedy algorithms is a challenging issue since the unconstrained least square subproblems are replaced by non-negative least squares subproblems which do not have closed-form solutions. In the literature, non-negative orthogonal greedy (NNOG) algorithms are often considered to be slow. Moreover, some recent works exploit approximate schemes to derive efficient recursive implementations. In this thesis, NNOG algorithms are introduced as heuristic solvers dedicated to L0 minimization under non-negativity constraints. It is first shown that the latter L0 minimization problem is NP-hard. The second contribution is to propose a unified framework on NNOG algorithms together with an exact and fast implementation, where the non-negative least-square subproblems are solved using the active-set algorithm with warm start initialisation. The proposed implementation significantly reduces the cost of NNOG algorithms and appears to be more advantageous than existing approximate schemes. The third contribution consists of a unified K-step exact support recovery analysis of NNOG algorithms when the mutual coherence of the dictionary is lower than 1/(2K-1). This is the first analysis of this kind.

Page generated in 0.0339 seconds