• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 43
  • 7
  • Tagged with
  • 144
  • 45
  • 38
  • 31
  • 27
  • 21
  • 20
  • 20
  • 19
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies

Mazet, Vincent 01 December 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.<br /><br />Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.<br /><br />Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.<br /><br />Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
92

Filtrage robuste pour les systèmes stochastiques incertains

Halabi, Souheil 12 December 2005 (has links) (PDF)
Ce mémoire aborde la synthèse de filtres H-infine d'ordre plein et d'ordre réduit pour les systèmes stochastiques à temps continu avec bruits multiplicatifs. Les bruits considérés dans l'équation d'état et dans l'équation de mesures sont des processus de Wiener.<br /><br />Les systèmes stochastiques étudiés dans ce mémoire sont écrits sous la forme d'une équation différentielle stochastique au sens d'Itô dans lesquels la dérive et la diffusion sont linéaires ou bilinéaires. Les systèmes avec plusieurs bruits multiplicatifs et les systèmes dont les mesures sont affectées par des bruits multiplicatifs sont également traités dans ce mémoire. La conception d'une commande H-infine basée sur un observateur d'ordre réduit pour les systèmes stochastiques incertains est étudiée.<br /><br />Le critère de performance considéré est le critère H-infine du signal de perturbation vers le signal d'erreur d'estimation. La stabilité retenue pour ces systèmes stochastiques dans ce travail est la stabilité exponentielle en moyenne quadratique.<br /><br />La méthode utilisée pour trouver les matrices des filtres est basée sur l'utilisation de la théorie de Lyapunov pour les équations différentielles stochastiques, la formule d'Itô et sur la résolution des Inégalités Matricielles Affines couplées à des contraintes bilinéaires qui assurent la stabilité et la performance.
93

Contribution à la sensibilité et à la stabilité en optimisation et en théorie métrique des points critiques

HANTOUTE, ABDERRAHIM 29 September 2003 (has links) (PDF)
Dans cette thèse nous proposons quelques contributions à l'analyse variationnelle dans les espaces métriques et à l'optimisation : régularité métrique, théorie métrique des points critiques, sensibilité de constantes de Hoffman, stabilité en programmation quadratique. Dans le cas polyèdral nous établissons des formules explicites de constantes de Hoffman des polyèdres avec égalités explicites. Ensuite, en mettant en évidence le caractère lipschitzien de ces constantes, nous calculons le sous-différentiel de Clarke des fonctions associées. Nous faisons également une revue de la régularité métrique des multi-applications, et nous traitons la stabilité d'un problème quadratique convexe. La considération du concept de pente faible, et donc des techniques de déformation appropriées, nous permet d'établir des résultats de stabilité homotopique des points critiques isolés des fonctions continues.
94

Méthodes de séparation aveugle de sources non linéaires, étude du modèle quadratique 2*2

Chaouchi, Chahinez 14 June 2011 (has links) (PDF)
Cette thèse présente des méthodes de séparation aveugle de sources pour un modèle de mélange non-linéaire particulier, le cas quadratique avec auto-termes et termes croisés. Dans la première partie, nous présentons la structure de séparation étudiée qui se décline sous deux formes : étendue ou basique. Les propriétés de ce réseau récurrent sont ensuite analysées (points d'équilibre, stabilité locale). Nous proposons alors deux méthodes de séparation aveugle de sources. La première exploite les cumulants des observations en un bloc placé en amont de la structure récurrente. La deuxième méthode est basée sur une approche par maximum de vraisemblance. Le tout est validé par des simulations numériques.
95

Quelques contributions en classification, régression et étude d'un problème inverse en finance

Monnier, Jean-Baptiste 06 December 2011 (has links) (PDF)
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
96

INCERTITUDE SUR LES MODELES EN FINANCE ET EQUATIONS DIFFERENTIELLES STOCHASTIQUES RETROGRADES DU SECOND ORDRE

Zhou, Chao 01 October 2012 (has links) (PDF)
L'objectif principal de cette thèse est d'étudier quelques problèmes de mathématiques financières dans un marché incomplet avec incertitude sur les modèles. Récemment, la théorie des équations différentielles stochastiques rétrogrades du second ordre (2EDSRs) a été développée par Soner, Touzi et Zhang sur ce sujet. Dans cette thèse, nous adoptons leur point de vue. Cette thèse contient quatre parties dans le domain des 2EDSRs. Nous commençons par généraliser la théorie des 2EDSRs initialement introduite dans le cas de générateurs lipschitziens continus à celui de générateurs à croissance quadratique. Cette nouvelle classe des 2EDSRs nous permettra ensuite d'étudier le problème de maximisation d'utilité robuste dans les modèles non-dominés. Dans la deuxième partie, nous étudions ce problème pour trois fonctions d'utilité.Dans chaque cas, nous donnons une caractérisation de la fonction valeur et d'une stratégie d'investissement optimale via la solution d'une 2EDSR. Dans la troisième partie, nous fournissons également une théorie d'existence et unicité pour des EDSRs réfléchies du second ordre avec obstacles inférieurs et générateurs lipschitziens, nous appliquons ensuite ce résultat à l'étude du problème de valorisation des options américaines dans un modèle financier à volatilité incertaine. Dans la quatrième partie, nous étudions des 2EDSRs avec sauts. En particulier, nous prouvons l'existence d'une unique solution dans un espace approprié. Comme application de ces résultats, nous étudions un problème de maximisation d'utilité exponentielle robuste avec incertitude sur les modèles. L'incertitude affecte à la fois le processus de volatilité, mais également la mesure des sauts.
97

Calcul stochastique via régularisation et applications financières

Coviello, Rosanna 11 November 2006 (has links) (PDF)
Dans la première partie de cette thèse nous appliquons le calcul via régularisation à l'étude d'un marché où le processus des prix d'un actif risqué n'est pas une semimartingale mais simplement à variation quadratique finie. Cette condition est réalisée lorsque le prix de l'actif est admis dans la classe A de toutes les stratégies admissibles, et devient réaliste si la condition de non-arbitrage sur l'ensemble de toutes les stratégies simples prévisibles n'est pas plausible. Cette situation est vérifiée, par exemple, lorsque l'agent est un initié ou si A est restreinte.<br />Nous fournissons des exemples de portefeuilles autofinancés et introduisons une notion de A-martingale. Un calcul relatif à celle-ci est développé. La condition de non-arbitrage parmi toutes les stratégies dans A est récupérée si le processus des prix de l'actif risqué est une A-martingale.<br />Nous abordons le problème de la viabilité du marché, de la couverture et de la maximisation de l'utilité de la richesse terminale.<br />La deuxième partie de la thèse est consacrée à l'étude d'une équation différentielle stochastique unidimensionnelle dirigée par une semimartingale mélangée à un processus à variation cubique finie.<br />Nous proposons une méthode qui repose sur une transformation réduisant le coefficient de diffusion à 1.<br />Le développement de la méthode utilisée nous conduit à des résultats significatifs dans l'analyse du calcul via régularisation.<br />En particulier, une formule de type Ito-Wentzell relative aux processus à variation cubique finie est<br />établie et la structure des processus weak-Dirichlet par rapport à la filtration brownienne est clarifiée.<br />Nous démontrons, par une approche similaire, l'existence et l'unicité d'une équation dirigée par un processus hölder-continu dans l'espace. En utilisant une formule d'Ito pour les semimartingales réversibles nous prouvons l'existence d'une solution lorsque le processus dirigeant l'équation est le mouvement brownien et le coefficient de diffusion est juste continu
98

Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural level

Popov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.
99

Une famille de distributions symétriques et leptocurtiques représentée par la différence de deux variables aléatoires gamma

Augustyniak, Maciej January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
100

Analyse de performances en traitement d'antenne. : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite

El Korso, Mohammed Nabil, El Korso, Mohammed Nabil 07 July 2011 (has links) (PDF)
Ce manuscrit est dédié à l'analyse de performances en traitement d'antenne pour l'estimation des paramètres d'intérêt à l'aide d'un réseau de capteurs. Il est divisé en deux parties :- Tout d'abord, nous présentons l'étude de certaines bornes inférieures de l'erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l'étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d'observations). Puis, nous étudions d'autres bornes inférieures de l'erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l'erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).- Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c'est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une "correcte" estimation des paramètres. Nous présentons quelques applications bien connues en traitement d'antenne avant d'étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d'hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d'observation multidimensionnels

Page generated in 0.0481 seconds