• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 79
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 208
  • 52
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 22
  • 21
  • 21
  • 19
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Etude de la composition et des proprétés thermodynamiques des plasmas thermiques à l'équilibre et hors d'équilibre thermodynamique

Andre, Pascal 19 December 1995 (has links) (PDF)
Cette étude est consacrée à la détermination théorique de la composition et des propriétés thermodynamiques des plasmas thermiques à l'équilibre et hors d'équilibre thermodynamique. <br /><br /> Dans le cas des plasmas à l'équilibre thermodynamique, la méthode de la minimisation de l'enthalpie libre est employée. Pour cela, une banque de données thermodynamiques, nécessitant le calcul des fonctions de partition de chaque espèce prise en compte, est constituée. Le formalisme numérique utilisant la méthode de minimisation « steepest descent » de White et al, est rappelé.<br /><br /> Dans le cas des plasmas hors d'équilibre thermique, l'enthalpie libre totale est établie en associant une température à chaque degré de liberté. Les fonctions de partition des espèces diatomiques doivent alors être modifiées. La méthode numérique « steepest descent » de White et al est alors adaptée. Cette méthode de calcul permet plusieurs hypothèses sur les températures internes : rotation, vibration et excitation électronique.<br /><br /> Les méthodes de calculs basées sur la minimisation de l'enthalpie libre, sur les lois d'action de masse, sur une approche cinétique dans le cas des plasmas hors d'équilibre thermique sont comparées. Les deux premières méthodes donnent des résultats identiques mais diffèrent de la troisième. Le calcul des constantes d'équilibre chimique est alors modifié ce qui permet de déterminer la composition des plasmas hors d'équilibre thermique et chimique. <br /><br /> Les calculs sont appliqués à de nombreux plasmas ayant un rapport direct avec les applications industrielles, ou générés à partir de mélanges de gaz étudiés expérimentalement au laboratoire : <br />• disjoncteurs : plasmas de vapeurs d'isolants (PE, POM, PETP, PMMA, PA6-6)<br />• détection des composés polluants émis lors de la combustion du charbon (HAP)<br />• mélange Ar-CO2, O2, N2, H2.<br />De nombreux développements peuvent être envisagés, par exemple : <br />• système polyphasique (solide, liquide) <br />• calcul du déséquilibre thermique en fonction du champ électrique
172

Réduction de modèles thermiques par amalgame modal

Oulefki, Abdelhakim 09 February 1993 (has links) (PDF)
On présente la méthode d'amalgame modal. Il s'agit d'une approche pour réduire un modèle d'état modal quelconque. La méthode est ici appliquée dans le cadre de la thermique. Le principe repose sur une partition judicieuse de l'espace d'état modal en quelques sous espaces disjoints. La dynamique de chaque sous espace est ensuite approchée au mieux par un pseudo-élément propre. L'optimalité de la démarche est prouvée au sens d'un critère d'écart quadratique de qualité. Le modèle obtenu conserve des liens formels avec le modèle d'origine. Du point de vue algorithmique, la méthode est automatique : on peut chercher le meilleur modèle réduit respectant une contrainte de précision et/ou de taille. La méthode est performante en temps de calcul. La réduction par amalgame modal est comparée à celles d'autres méthodes. Des exemples de réduction de modèles modaux 1D, 2D et 3D sont donnés.
173

Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage Laser

Pankajakshan, Praveen 15 December 2009 (has links) (PDF)
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
174

Dense matrix computations : communication cost and numerical stability.

Khabou, Amal 11 February 2013 (has links) (PDF)
Cette thèse traite d'une routine d'algèbre linéaire largement utilisée pour la résolution des systèmes li- néaires, il s'agit de la factorisation LU. Habituellement, pour calculer une telle décomposition, on utilise l'élimination de Gauss avec pivotage partiel (GEPP). La stabilité numérique de l'élimination de Gauss avec pivotage partiel est caractérisée par un facteur de croissance qui est reste assez petit en pratique. Toutefois, la version parallèle de cet algorithme ne permet pas d'atteindre les bornes inférieures qui ca- ractérisent le coût de communication pour un algorithme donné. En effet, la factorisation d'un bloc de colonnes constitue un goulot d'étranglement en termes de communication. Pour remédier à ce problème, Grigori et al [60] ont développé une factorisation LU qui minimise la communication(CALU) au prix de quelques calculs redondants. En théorie la borne supérieure du facteur de croissance de CALU est plus grande que celle de l'élimination de Gauss avec pivotage partiel, cependant CALU est stable en pratique. Pour améliorer la borne supérieure du facteur de croissance, nous étudions une nouvelle stra- tégie de pivotage utilisant la factorisation QR avec forte révélation de rang. Ainsi nous développons un nouvel algorithme pour la factorisation LU par blocs. La borne supérieure du facteur de croissance de cet algorithme est plus petite que celle de l'élimination de Gauss avec pivotage partiel. Cette stratégie de pivotage est ensuite combinée avec le pivotage basé sur un tournoi pour produire une factorisation LU qui minimise la communication et qui est plus stable que CALU. Pour les systèmes hiérarchiques, plusieurs niveaux de parallélisme sont disponibles. Cependant, aucune des méthodes précédemment ci- tées n'exploite pleinement ces ressources. Nous proposons et étudions alors deux algorithmes récursifs qui utilisent les mêmes principes que CALU mais qui sont plus appropriés pour des architectures à plu- sieurs niveaux de parallélisme. Pour analyser d'une façon précise et réaliste
175

Identification de modèles et de paramètres pour la méthode de Boltzmann sur réseau.

Tekitek, Mohamed Mahdi 24 September 2007 (has links) (PDF)
Cette thèse comporte trois parties: étude du schéma de Boltzmann sur réseau, schéma adjoint de Boltzmann sur réseau pour l'identification de paramètres et construction d'une couche parfaitement absorbante pour ce schéma.<br /><br />La première partie introduit et analyse la méthode.<br /><br />La deuxième partie décrit une approche variationnelle pour l'assimilation de paramètres relatifs à la méthode du gaz de Boltzmann sur réseau. Une méthode adjointe discrète en temps est développée. L'algorithme est d'abord testé sur un écoulement de type Poiseuille linéaire (problème de Stokes), puis il est appliqué à un problème non linéaire. Des résultats encourageants sont obtenus pour un et deux paramètres inconnus.<br /><br />Finalement la troisième partie décrit une adaptation des couches absorbantes de Bérenger. Il en résulte un modèle d'automate de Boltzmann à neuf vitesses discrètes. Une analyse des ondes réfléchies est ensuite réalisée entre deux milieux de Boltzmann à une dimension, ce qui permet d'obtenir un équivalent des formules de Fresnel pour les schémas de Boltzmann et de proposer des modifications du schéma à l'interface pour annuler les ondes réfléchies. En deux dimensions, la même analyse d'ondes réfléchies met en évidence l'apparition de modes de Knudsen et des ondes transverses qui rendent l'analyse complexe.
176

Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural level

Popov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.
177

Trends in the use of Angiotensin converting enzyme inhibitors and Angiotensin II antagonists in Lithuania on 2005-2007 years / Angiotenziną konvertuojančio fermento inhibitorių ir Angiotenzino II antagonistų suvartojimo tendencijų analizė Lietuvoje 2005 – 2007 metais

Dičkutė, Asta 16 June 2008 (has links)
Objective: To evaluate the tendencies of utilization of Angiotensin converting enzyme inhibitors and Angiotensin II receptors antagonists in Lithuania during 2005-2007 years. Methods: MEDLINE database was searched to identify and evaluate all literature relating to pharmacokinetic and pharmacodynamic characteristics of Angiotensin converting enzyme inhibitors and Angiotensin II antagonists. Utilization data of Angiotensin converting enzyme inhibitors (plain and combinations) and Angiotensin II antagonists (plain and combinations) in Lithuania over three years (2005 – 2007) period were obtained from SoftDent, JSC database. The retail prices of agents acting on the Renin-angiotensin-aldosterone selected from Reimbursed Medical Products Reference Prices Lists of 2005, 2006, 2007 years. Drugs were classified according to the Anatomic Therapeutic Chemical system and use was quantified in terms of defined daily doses (ATC/DDD). Consumption of Angiotensin converting enzyme inhibitors (plain and combinations) and Angiotensin II antagonists (plain and combinations) was calculated by DDD methodology and expressed as DDD per 1.000 inhabitants per day. Pharmacoeconomic calculations were done according to cost minimization and reference price methodologies. Results: According to meta-analysis, number of included studies (69 publications) that evaluated various treatment and head-to-head efficacy comparisons found in literature no consistent differential effects of ACEIs versus ARBs on... [to full text] / Tikslas: atlikti Angiotenziną konvertuojančių fermentų inhibitorių ir Angiotenzino II antagonistų suvartojimo tendencijų Lietuvoje analizę 2005 – 2007 metais. Metodai: Duomenys apie Angiotenziną konvertuojančio fermento inhibitorių ir Angiotenzino II antagonistų farmakokinetines ir farmakodinamines savybes buvo surinkti iš MEDLINE elektroninių duomenų šaltinių. Duomenys apie AKF inhibitorių (paprastų ir sudėtinių) ir Angiotenzino II antagonistų (paprastų ir sudėtinių) suvartojimą Lietuvoje per 2005 – 2007 metus gauti iš UAB SoftDent duomenų bazės. Renino-angiotenzino-aldosterono sistemą veikiančių vaistų mažmeninės kainos išrinktos iš Lietuvos kompensuojamų vaistinių preparatų 2005, 2006, 2007 metų kainynų. Vaistai buvo suklasifikuoti pagal anatominę terapinę cheminę (ATC) klasifikaciją. AKFI inhibitorių (paprastų ir sudėtinių) ir Angiotenzino II antagonistų (paprastų ir sudėtinių) suvartojimas buvo vertinamas pagal apibrėžtos dienos dozės (DDD – daily defined dose) metodiką, o duomenys įvertinti pagal DDD skaičių, tenkantį 1000 gyventojų per vieną dieną. AKF inhibitorių (paprastų ir sudėtinių) ir Angiotenzino II antagonistų (paprastų ir sudėtinių) farmakoekonominei analizei atlikti buvo taikytas kainų mažinimo bei standartinės kainos nustatymo metodai. Rezultatai: Vadovaujantis metaanalizių, įvairių klinikinių tyrimų 69 publikacijomis bei išsamia AKF inhibitorių ir Angiotenzino II antagonisų efektyvumo palyginimo analize galima teigti, kad šių vaistų grupių poveikis... [toliau žr. visą tekstą]
178

Les processus additifs markoviens et leurs applications en finance mathématique

Momeya Ouabo, Romuald Hervé 05 1900 (has links)
Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix. / This thesis focuses on the pricing and hedging problems of financial derivatives in a Markov-modulated exponential-Lévy model. Such model is built on a Markov additive process as much as the Black-Scholes model is based on Brownian motion. Since there exist many sources of randomness, we are dealing with an incomplete market and this makes inoperative techniques initiated by Black, Scholes and Merton in the context of a complete market. We show that, by using some results of the theory of Markov additive processes it is possible to provide solutions to the previous problems. In particular, we characterize the martingale measure which minimizes the relative entropy with respect to the physical probability measure. Also under some conditions, we derive explicitly the optimal portfolio which allows an agent to minimize the local quadratic risk associated. Furthermore, in a more practical perspective we characterize the price of a European type option as the unique viscosity solution of a system of nonlinear integro-di erential equations. This is a rst step towards the construction of e ective numerical schemes to approximate options price.
179

Optimal control and stability of four-wheeled vehicles

Masouleh, Mehdi Imani January 2017 (has links)
Two vehicular optimal control problems are visited. The first relates to the minimum lap time problem, which is of interest in racing and the second the minimum fuel problem, which is of great importance in commercial road vehicles. Historically, minimum lap time problems were considered impractical due to their slow solution times compared with the quasi-steady static (QSS) simulations. However, with increasing computational power and advancement of numerical algorithms, such problems have become an invaluable tool for the racing teams. To keep the solution times reasonable, much attention still has to be paid to the problem formulation. The suspension of a Formula One car is modelled using classical mechanics and a meta-model is proposed to enable its incorporation in the optimal control problem. The interactions between the aerodynamics and the suspension are thereby studied and various related parameters are optimised. Aerodynamics plays a crucial role in the performance of Formula One cars. The influence of a locally applied perturbation to the aerodynamic balance is investigated to determine if a compromise made in design can actually lead to lap time improvements. Various issues related to minimum lap time calculations are then discussed. With the danger of climate change and the pressing need to reduce emissions, improvements in fuel consumption are presently needed more than ever. A methodology is developed for fuel performance optimisation of a hybrid vehicle equipped with an undersized engine, battery and a flywheel. Rather than using the widely used driving cycles, a three-dimensional route is chosen and the optimal driving and power management strategy is found with respect to a time of arrival constraint. The benefits of a multi-storage configuration are thereby demonstrated. Finally, the nonlinear stability of a vehicle model described by rational vector fields is investigated using region of attraction (RoA) analysis. With the aid of sum-of-squares programming techniques, Lyapunov functions are found whose level sets act as an under-approximation to the RoA. The influence of different vehicle parameters and driving conditions on the RoA is studied.
180

Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural level

Popov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.

Page generated in 0.1143 seconds