• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire

Josserand, Etienne 12 October 2011 (has links) (PDF)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d'échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d'Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d'obtenir des bandes de confiance asymptotiques. Pour un plan d'échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l'estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d'allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d'information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d'échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d'un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d'en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l'estimation de la fonction de covariance.
152

Échantillonnage, simulation et estimation des gisements secondaires de diamant

Prins, Christian 14 January 2011 (has links) (PDF)
Il est difficile d'explorer et d'estimer des gisements secondaires de diamants en raison du manque de fiabilité des données et/ou de leur rareté. Des efforts soutenus sont nécessaires pour maintenir une bonne compréhension de ces types de dépôts lors de leur exploration, leur échantillonnage et leur exploitation. Cette thèse traite des sujets suivants : - L'existence de regroupements entre cheminées kimberlites est établie, et leur extension moyenne déterminée. - Des données d'exploration d'indicateurs minéraux sont analysées par arbre de classification. Un modèle est ensuite bâti à partir de sites kimberlitiques connus pour identifier de nouveaux sites. - Les milieux maritimes comportent des mécanismes de piégeage complexes, ce qui les rend difficiles à échantillonner. Dans certaines situations, on dispose de peu, voire d'aucune information de qualité, alors qu'une étude d'optimisation de l'échantillonnage est nécessaire. Dans ce cas, une esquisse au crayon est utilisée pour construire des simulations, lesquelles servent à une première optimisation de l'échantillonnage. - Dans les dépôts sous-marins profonds, les échantillons doivent dépasser une taille minimale critique pour être représentatifs. L'établissement de cette taille passe par une modélisation selon un processus de Cox, bien adapté à la nature discrète de la minéralisation. L'impact de l'échantillonnage sur la qualité de l'estimation par blocs ou par panneaux peut ainsi être testé par simulation. - Ces dernières années, certains terrils sont redevenus économiquement viables. Pour en obtenir une estimation locale par blocs, une procédure de détermination de la taille optimale des échantillons et de leur espacement a été développée et mise en oeuvre sur un terril de kimberlite.
153

Capteur d'images événementiel, asynchrone à échantillonnage non-uniforme / Asynchronous Event-driven Image Sensor

Darwish, Amani 27 June 2016 (has links)
Face aux défis actuels liés à la conception de capteurs d'images à forte résolution comme la limitation de la consommation électrique, l'augmentation du flux de données ainsi que le traitement de données associé, on propose, à travers cette thèse, un capteur d'image novateur asynchrone à échantillonnage non uniforme.Ce capteur d’images asynchrone est basé sur une matrice de pixels événementiels qui intègrent un échantillonnage non uniforme par traversée de niveaux. Contrairement aux imageurs conventionnels, où les pixels sont lus systématiquement lors de chaque trame, les pixels événementiels proposés sont consultés que lorsqu’ils contiennent une information pertinente. Cela induit un flux de données réduit et dépendant de l’image.Pour compléter la chaîne de traitement des pixels, on présente également une architecture numérique de lecture dédiée conçue en utilisant de la logique asynchrone et destinée à contrôler et à gérer le flux de données des pixels événementiels. Ce circuit de lecture numérique permet de surmonter les difficultés classiques rencontrées lors de la gestion des demandes simultanées des pixels événementiels sans dégrader la résolution et le facteur de remplissage du capteur d’images. En outre, le circuit de lecture proposé permet de réduire considérablement les redondances spatiales dans une image ce qui diminue encore le flux de données.Enfin, en combinant l'aspect échantillonnage par traversée de niveau et la technique de lecture proposée, on a pu remplacer la conversion analogique numérique classique de la chaîne de traitement des pixels par une conversion temps-numérique (Time-to-Digital Conversion). En d'autres termes, l'information du pixel est codée par le temps. Il en résulte une diminution accrue de la consommation électrique du système de vision, le convertisseur analogique-numérique étant un des composants les plus consommant du système de lecture des capteurs d'images conventionnels / In order to overcome the challenges associated with the design of high resolution image sensors, we propose, through this thesis, an innovative asynchronous event-driven image sensor based on non-uniform sampling. The proposed image sensor aims the reduction of the data flow and its associated data processing by limiting the activity of our image sensor to the new captured information.The proposed asynchronous image sensor is based on an event-driven pixels that incorporate a non-uniform sampling crossing levels. Unlike conventional imagers, where the pixels are read systematically at each frame, the proposed event-driven pixels are only read when they hold new and relevant information. This induces a reduced and scene dependent data flow.In this thesis, we introduce a complete pixel reading sequence. Beside the event-driven pixel, the proposed reading system is designed using asynchronous logic and adapted to control and manage the flow of data from event pixels. This digital reading system overcomes the traditional difficulties encountered in the management of simultaneous requests for event pixels without degrading the resolution and fill factor of the image sensor. In addition, the proposed reading circuit significantly reduces the spatial redundancy in an image which further reduces the data flow.Finally, by combining the aspect of level crossing sampling and the proposed reading technique, we replaced the conventional analog to digital conversion of the pixel processing chain by a time-to-digital Conversion (TDC). In other words, the pixel information is coded by time. This results in an increased reduction in power consumption of the vision system, the analog-digital converter being one of the most consuming reading system of conventional image sensors components
154

Développement d'un dispositif pompe-sonde hétérodyne : application à l'imagerie en acoustique picoseconde / Setting up of a heterodyne pump-probe bench : application for the imaging with picosecond acoustic waves

Abbas, Allaoua 07 June 2013 (has links)
L' acoustique picoseconde permet l'étude de structures aux dimensions sub-microniques grâce à l'utilisation d'ultrasons dont le contenu spectral peut s' étendre au-delà du THz. La génération et la détection de ces ondes sont rendues possibles par l'association de lasers impulsionnels femtosecondes à dispositifs de type pompe-sonde. Ce manuscrit de thèse décrit la mise en place d'une expérience d' imagerie opto-acoustique avec une résolution spatiale submicronique. L' utilisation combinée d'un échantillonnage optique hétérodyne et de cavités lasers à bas taux de répétition (50 MHz) permet de gagner plusieurs ordres de grandeur sur les temps d'acquisition et de disposer d'une très bonne résolution spectrale. Le manuscrit s'articule autour de trois parties. Dans un premier temps les deux cavités laser aux taux de répértition légèrement différents permettant l'échantillonnage otpique hétérdodyne sont présentées. Puis l'architecture et les performances du système d'asservissement de leur taux de répétion sont décrites. Dans la seconde partie du manuscrit, l'implémentation de cette double cavité dans une expérience pompre-sonde est détaillée et la possibilité de détecter des ondes acoustiques sub-THz avec une résolution de 50 MHz est démontrée. Enfin, dans le dernier chapitre, la puissance de cette expérience pour réaliser de l'imagerie ultra-rapide est illustrée au travers de deux exemples : l'étude d'ondes acoustiques de surface GHz dont la dispersion est induite par la présence d'une couche nanométrique et la détection d'hétérogénéités élastiques submicroniques / Acoustic waves in the Gigahertz or Terahertz frequency range allow the mechanical characterization of submicronic structures. The generation and the detection of these waves can be performed with the use of femtosecond lasers combined with pump-probe setups. This report describes the setting-up of an opto-acoustic imaging experiment with a submicronic spatial resolution. The association of asynchronous optical sampling with the use of low repetition rate femtosecond lasers considerably increases acquisition rates and offers a high spectral resolution, respectively. The first part of this report presents the two laser cavities with slightly different repetition rates in order to perform asynchronous optical sampling. The scheme and the performances of the synchronization stage are described. In the second part, the implementation of this dual-oscillator in a pump-probe experiment is detailed and the ability to detect sub-THz acoustic waves with a 50 MHz-spectral resolution is demonstrated. Finally, in the last chapter, the strong potential of this experiment to perform ultrafast imaging is illustrated through two examples : the measurement of the dispersion of GHz surface acoustic waves due to the presence of a thin film and the imaging and the sizing of submicronic elastic heterogeneities.
155

Développement et validation du logiciel S4MPLE : application au docking moléculaire et à l'optimisation de fragments assistée par ordinateur dans le cadre du fragment-based drug design / Development and validation of molecular modeling tool S4MPLE : application to in silico fragment-based drug design, using molecular docking and virtual optimisation of fragment-like compounds

Hoffer, Laurent 03 June 2013 (has links)
Cette thèse a pour but de développer le pendant in silico des étapes clés du Fragment-Based Drug Design (FBDD), et ce dans le cadre plus général du développement de l'outil S4MPLE. Le FBDD génère des ligands drug-like à partir de petites molécules (fragments). Après une étape de validation de S4MPLE et de sa fonction d’énergie, un recentrage autour du FBDD est réalisé, à travers le docking puis l'optimisation virtuelle de fragments par growing ou linking (G/L). Cette stratégie reposesur 1) la création d’une chimiothèque focalisée en connectant un ou deux fragment(s) avec des linkers pré-générés, et 2) l’échantillonnage avec S4MPLE des composés chimères dans le site avec des contraintes. Des simulations de G/L plus ou moins ambitieuses (site flexible, ajout de H2O libres) permettent de valider cette approche avec des études rétrospectives basées sur des données expérimentales. La dernière phase de la thèse a consisté à appliquer ce protocole in silico à un projet de l’entreprise. / This work aims to develop in silico methods targeting the key stages of Fragment-Based Drug Design (FBDD), participating to the development of the molecular modeling tool S4MPLE. Briefly, FBDD generates ıdrug-likeı ligands from small organic molecules called fragments. After a validation step of S4MPLE and its energy function, the work focused on FBDD: molecular docking of fragments and their subsequent virtual optimization. The latter mimics standard evolution strategies in FBDD(growing and linking). This in silico approach involves among other two key stages 1) building of a focused library by plugging in pre-generated linkers into reference fragments using rules and 2) sampling of these new compounds under atomic and binding site constraints. Validation simulations, relying on known experimental data, included ıclassicalı growing / linking and more challenging ones (site flexibility, free waters). Finally, this strategy is applied to one project of the company.
156

Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion / Échantillonnage gaussien en grande dimension basé sur le principe du matrix splitting. : application à l’inversion bayésienne

Bӑrbos, Andrei-Cristian 10 January 2018 (has links)
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats. / The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results.
157

Classification de flux applicatifs et détection d'intrusion dans le trafic Internet / Classifying Application Flows and Intrusion Detection in Internet Traffic

Korczynski, Maciej 26 November 2012 (has links)
Le sujet de la classification de trafic r´eseau est d’une grande importance pourla planification de r´eseau efficace, la gestion de trafic `a base de r`egles, la gestionde priorit´e d’applications et le contrˆole de s´ecurit´e. Bien qu’il ait re¸cu une atten-tion consid´erable dans le milieu de la recherche, ce th`eme laisse encore de nom-breuses questions en suspens comme, par exemple, les m´ethodes de classificationdes flux de trafics chiffr´es. Cette th`ese est compos´ee de quatre parties. La premi`erepr´esente quelques aspects th´eoriques li´es `a la classification de trafic et `a la d´etec-tion d’intrusion. Les trois parties suivantes traitent des probl`emes sp´ecifiques declassification et proposent des solutions pr´ecises.Dans la deuxi`eme partie, nous proposons une m´ethode d’´echantillonnage pr´ecisepour d´etecter les attaques de type ”SYN flooding”et ”portscan”. Le syst`eme examineles segments TCP pour trouver au moins un des multiples segments ACK provenantdu serveur. La m´ethode est simple et ´evolutive, car elle permet d’obtenir unebonne d´etection avec un taux de faux positif proche de z´ero, mˆeme pour des tauxd’´echantillonnage tr`es faibles. Nos simulations bas´ees sur des traces montrent quel’efficacit´e du syst`eme propos´e repose uniquement sur le taux d’´echantillonnage,ind´ependamment de la m´ethode d’´echantillonnage.Dans la troisi`eme partie, nous consid´erons le probl`eme de la d´etection et de laclassification du trafic de Skype et de ses flux de services tels que les appels vocaux,SkypeOut, les vid´eo-conf´erences, les messages instantan´es ou le t´el´echargement defichiers. Nous proposons une m´ethode de classification pour le trafic Skype chiffr´ebas´e sur le protocole d’identification statistique (SPID) qui analyse les valeurs statis-tiques de certains attributs du trafic r´eseau. Nous avons ´evalu´e notre m´ethode surun ensemble de donn´ees montrant d’excellentes performances en termes de pr´eci-sion et de rappel. La derni`ere partie d´efinit un cadre fond´e sur deux m´ethodescompl´ementaires pour la classification des flux applicatifs chiffr´es avec TLS/SSL.La premi`ere mod´elise des ´etats de session TLS/SSL par une chaˆıne de Markov ho-mog`ene d’ordre 1. Les param`etres du mod`ele de Markov pour chaque applicationconsid´er´ee diff`erent beaucoup, ce qui est le fondement de la discrimination entreles applications. La seconde m´ethode de classification estime l’´ecart d’horodatagedu message Server Hello du protocole TLS/SSL et l’instant d’arriv´ee du paquet.Elle am´eliore la pr´ecision de classification des applications et permet l’identificationviiefficace des flux Skype. Nous combinons les m´ethodes en utilisant une ClassificationNaive Bay´esienne (NBC). Nous validons la proposition avec des exp´erimentationssur trois s´eries de donn´ees r´ecentes. Nous appliquons nos m´ethodes `a la classificationde sept applications populaires utilisant TLS/SSL pour la s´ecurit´e. Les r´esultatsmontrent une tr`es bonne performance. / The subject of traffic classification is of great importance for effective networkplanning, policy-based traffic management, application prioritization, and securitycontrol. Although it has received substantial attention in the research communitythere are still many unresolved issues, for example how to classify encrypted trafficflows. This thesis is composed of four parts. The first part presents some theoreticalaspects related to traffic classification and intrusion detection, while in the followingthree parts we tackle specific classification problems and propose accurate solutions.In the second part, we propose an accurate sampling scheme for detecting SYNflooding attacks as well as TCP portscan activity. The scheme examines TCPsegments to find at least one of multiple ACK segments coming from the server.The method is simple and scalable, because it achieves a good detection with aFalse Positive Rate close to zero even for very low sampling rates. Our trace-basedsimulations show that the effectiveness of the proposed scheme only relies on thesampling rate regardless of the sampling method.In the third part, we consider the problem of detecting Skype traffic and classi-fying Skype service flows such as voice calls, skypeOut, video conferences, chat, fileupload and download. We propose a classification method for Skype encrypted traf-fic based on the Statistical Protocol IDentification (SPID) that analyzes statisticalvalues of some traffic attributes. We have evaluated our method on a representativedataset to show excellent performance in terms of Precision and Recall.The last part defines a framework based on two complementary methods for clas-sifying application flows encrypted with TLS/SSL. The first one models TLS/SSLsession states as a first-order homogeneous Markov chain. The parameters of theMarkov models for each considered application differ a lot, which is the basis foraccurate discrimination between applications. The second classifier considers thedeviation between the timestamp in the TLS/SSL Server Hello message and thepacket arrival time. It improves the accuracy of application classification and al-lows efficient identification of Skype flows. We combine the methods using a NaiveBayes Classifier (NBC).We validate the framework with experiments on three recentdatasets—we apply our methods to the classification of seven popular applicationsthat use TLS/SSL for security. The results show a very good performance.
158

Computational geometry for the determination of biomolecular structures / Géométrie computationnelle pour la détermination de structures biomoléculaires

Machat, Mohamed 27 April 2017 (has links)
En bioinformatique structurale, une partie des méthodes computationnelles qui calculent les structures de protéines à l'aide de données expérimentales, effectuent une optimisation de la position des atomes sous les contraintes expérimentales mesurées sur le système étudié, ainsi que sous des contraintes provenant de la connaissance générique de la stéréochimie organique. Ces méthodes d'optimisation présentent l'inconvénient de ne pas garantir la détermination de la meilleure solution. De plus, la validation de l'optimisation se fait en comparant les résultats obtenus pour des calculs répétés, et le résultat d'un calcul est accepté dans la mesure où le même résultat est obtenu plusieurs fois. Par cette approche, on rend plus difficile la détection de conformations alternatives de protéines, qui sont pourtant le sujet d'un vif intérêt dans la littérature. En effet, le développement de la sensibilité des techniques de résonance magnétique nucléaire (RMN) a permis de mettre en évidence plusieurs cas d'échange conformationnel reliés à la fonction des protéines. Dans ce projet de thèse, nous avons étudié une nouvelle approche pour le calcul de structures des protéines et l'exploration de leurs espaces conformationnels, basée sur la résolution du problème de Géométrie de Distance associé aux contraintes de distances dans une protéine par l'algorithme "interval Branch and Prune". Le logiciel implémentant cette méthode est appelée iBPprot, il incarne l'une des premières tentatives d'échantillonnage exhaustive des espaces conformationnels des protéines. Dans un premier temps, on s'est intéressé à l'application de la méthode en utilisant exclusivement des constraintes de distances exactes. Les résultats ont démontré que iBPprot était capable de reconstruire des structures références en s'appuyant seulement sur quelques contraintes à courte portée. De plus, la reconstruction a été d'une précision telle que la conformation générée présentait un RMSD de 1 Angstrom maximum avec la structure référence. L'exploration exhaustive de l'espace conformationnel a été possible pour une bonne partie des protéines cibles. Les temps de calcul pour l'exploration des espaces conformationnels ont été très variables allant de quelques secondes pour quelques protéines jusqu'à des semaines pour d'autres. L'évaluation de la qualité des structures obtenues a démontré qu'au moins 68% des valeurs de phi et psi sont localisées dans la zone 'core' du diagramme de Ramachandran. Cependant, des clash stériques ont été détectées dans plusieurs conformations mettant en jeu jusqu'à 7% d'atomes dans quelques unes de ces conformations. Dans un deuxième temps, on s'est intéressé à l'application de la méthode en incluant des intervalles de distances comme contraintes dans les calculs. Dans ce cas de figure, la méthode a réussi a reconstruire des structures références avec un RMSD inférieur à 5 Angstrom pour plus de la moitié des protéines cibles. En contre partie, le parcours complet de l'espace conformationnel n'a été possible que pour la plus petite protéine de l'ensemble des protéines étudiées. Pour la moitié des autres protéines, plus de 70% des atomes ont vu leurs positions échantillonnées. La qualité des structures obtenues a regressé en comparaison avec les simulations faites avec des distances exactes. En effet, seulement 53% des valeurs de phi et psi étaient localisées dans la zone 'core' du diagramme de Ramachandran, et le pourcentage d'atomes impliqués dans un clash stérique s'élevait jusqu'à 22% pour quelques protéines. Concernant le temps de calcul, le taux de génération de conformations a été déterminé pour chaque protéine cible, et il s'est avéré que globalement sa valeur etait compétitive par rapport aux valeurs des taux observables dans la littérature... / Structural biology has allowed us expand our knowledge of living organisms. It is defined as the investigation of the structure and function of biological systems at the molecular level. Studying a biomolecule's structure offers insight into its geometry, as angles and distances between the biomolecule's atoms are measured in order to determine the biomolecular structure. The values of these geometrical parameters may be obtained from biophysical techniques, such as X-ray crystallography or nuclear magnetic resonance (NMR) spectroscopy. One of the most used methods to calculate protein structures from geometric restraints is simulated annealing. This method does not guarantee an exhaustive sampling of protein conformational space, which is a shortcoming as one protein may adopt multiple functional conformations, and it is important to determine them exhaustively. In this PhD project, the efficiency of a new method - derived from operations research and computational geometry - is studied in order to answer this question: How does this method explore the conformational spaces of small proteins? This method - implemented within the iBPprot software framework - treats protein structure determination as a distance geometry problem, which the interval branch-and-prune algorithm tries to solve by the full exploration of its solutions space. The results obtained by iBPprot on a set of test proteins, with sizes ranging from 24 to 120 residues and with known structures, are analyzed here. Using short-range exact distance restraints, it was possible to rebuild the structure of all protein targets, and for many of them it was possible to exhaustively explore their conformational spaces. In practice, it is not always possible to obtain exact distance restraints from experiments. Therefore, this method was then tested with interval data restraints. In these cases, iBPprot permitted the sampling of the positions of more than 70% of the atoms constituting the protein backbone for most of the targets. Furthermore, conformations whose r.m.s. deviations closer than 6 Angstrom to the target ones were obtained during the conformational space exploration. The quality of the generated structures was satisfactory with respect to Ramachandran plots, but needs improvement because of the presence of steric clashes in some conformers. The runtime for most performed calculations was competitive with existing structure determination method...
159

Agile bandpass sampling RF receivers for low power applications

Lolis, Luis 11 March 2011 (has links)
Les nouveaux besoins en communications sans fil pussent le développement de systèmes de transmission RF en termes the reconfigurabilité, multistandard et à basse consommation. Ces travaux de thèse font l’objet de la proposition d’une nouvelle architecture de réception capable d’adresser ces aspects dans le contexte des réseaux WPAN. La technique de sous échantillonnage (BPS-Bandpass Sampling) est appliquée et permet d’exploiter et certain nombre d’avantages liées au traitement du signal à Temps Discret (DT-Discrete Time signal processing), notamment le filtrage et la décimation. Si comparées à la Radio Logicielle, ces techniques permettent de relâcher les contraintes liées aux ADCs en maintenant des caractéristiques multistandard et de reconfigurabilité. Un simulateur dans le domaine fréquentiel large bande a été développé sous MATLAB pour répondre à des limitations au niveau système comme par exemple le repliement spectral et le produit gain bande. En addition avec une nouvelle méthode de conception système, cet outil permet de séparer les différentes contraintes des blocs pour la définition d’un plan de fréquence et the filtrage optimaux. La séparation des différentes contributions dans la dégradation du SNDR (notamment le bruit thermique, bruit de phase, non linéarité et le repliement), permet de relâcher de spécifications critiques liées à la consommation de puissance. L’architecture à sous échantillonnage proposée dans la thèse est résultat d’une comparaison quantitative des différentes architectures à sous échantillonnage, tout en appliquant la méthode et l’outil de conception système développés. Des aspects comme l’optimisation du filtrage entre les techniques à temps continu et temps discret et le plan de fréquence associé, permettent de trouve l’architecture qui représente le meilleur compromis entre la consommation électrique et l’agilité, dans le contexte voulu. Le bloc de filtrage à temps discret est identifié comme étant critique, et une étude sur les limitations d’implémentation circuit est menée. Des effets come les capacités parasites, l’imparité entre les capacités, le bruit du commutateur, la non linéarité, le gain finit de Ampli OP, sont évalués à travers d’une simulation comportementale en VHDL-AMS. On observe la robustesse des circuits orientés temps discret par rapport les contraintes des nouvelles technologies intégrés. Finalement, le système est spécifié en termes de bruit de phase, qui peuvent représenter jusqu’à 30% de la consommation en puissance. Dans ce but, une nouvelle méthode numérique est proposée pour être capable d’évaluer le rapport signal sur distorsion due au jitter SDjR dans le processus de sous échantillonnage. En plus, une conclusion non intuitive est survenue de cette étude, où on que réduire la fréquence d’échantillonnage n’augmente pas les contraintes en termes de jitter pour le système. L’architecture proposée issue de cette étude est sujet d’un développement circuit pour la validation du concept. / New needs on wireless communications pushes the development in terms reconfigurable, multistandards and low power radio systems. The objective of this work is to propose and design new receiver architecture capable of addressing these aspects in the context of the WPAN networks. The technique of Bandpass Sampling (BPS) is applied and permits to exploit a certain number of advantages linked to the discrete time (DT) signal processing, notably filtering and decimation. Compared to the Software-defined Radio (SDR), these techniques permit to relax the ADC constraints while keeping the multi standard and reconfigurable features. A wide band system level simulation tool is developed using MATLAB platform to overcome system level limitations such spectral aliasing and gain bandwidth product. In addition to a new system design method, the tool helps separating the blocks constraints and defining the optimum frequency plan and filtering. Separating the different contributions on the SNDR degradation (noise, phase noise, non linearity, and aliasing), critical specifications for power consumption can be relaxed. The proposed BPS architecture on the thesis is a result of a quantitative comparison of different BPS architectures, applying the system design method and tool. Aspects such filtering optimization between continuous and discrete time filtering and the associated frequency plan permitted to find the architecture which represents the best trade-off between power consumption and agility on the aimed context. The DT filtering block is therefore identified as critical block, which a study on the circuit implementation limitations is carried out. Effects such parasitic capacitances and capacitance mismatch, switch noise, non linear distortion, finite gain OTA, are evaluated through VHDL-AMS modelling. It is observed the robustness of discrete time oriented circuits. Finally, phase noise specifications are given considering that frequency synthesis circuits may represent up to 30% of the power consumption. For that goal, a new numerical method is proposed, capable of evaluating the signal to jitter distortion ratio SDjR on the BPS process. Moreover, a non intuitive conclusion is given, where reducing the sampling frequency does not increase the constraints in terms of jitter. The proposed architecture issue from this study is in stage of circuit level design in the project team of LETI for final proof of concept.
160

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire / Survey sampling for functionnal data : building asymptotic confidence bands and considering auxiliary information

Josserand, Etienne 12 October 2011 (has links)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d’échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d’Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d’obtenir des bandes de confiance asymptotiques. Pour un plan d’échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l’estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d’allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d’information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d’échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d’un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d’en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l’estimation de la fonction de covariance. / When collections of functional data are too large to be exhaustively observed, survey sampling techniques provide an effective way to estimate global quantities such as the population mean function, without being obligated to store all the data. In this thesis, we propose a Horvitz–Thompson estimator of the mean trajectory, and with additional assumptions on the sampling design, we state a functional Central Limit Theorem and deduce asymptotic confidence bands. For a fixed sample size, we show that stratified sampling can greatly improve the estimation compared to simple random sampling. In addition, we extend Neyman’s rule of optimal allocation to the functional context. Taking into account auxiliary information has been developed with model-assisted estimators and weighted estimators with unequal probability sampling proportional to size. The case of noisy curves is also studied with the help local polynomial smoothers. To select the bandwidth, we propose a cross-validation criterion that takes into account the sampling weights. The consistency properties of our estimators are established, as well as asymptotic normality of the estimators of the mean curve. Two methods to build confidence bands are proposed. The first uses the asymptotic normality of our estimators by simulating a Gaussian process given estimated the covariance function in order to estimate the law of supremum. The second uses bootstrap techniques in a finite population that does not require to estimate the covariance function.

Page generated in 0.0935 seconds