• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 149
  • 60
  • 5
  • 1
  • Tagged with
  • 690
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 75
  • 73
  • 72
  • 59
  • 51
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
621

Comportements parentaux et autorégulation chez l’enfant : une perspective développementale

Bordeleau, Stéphanie 03 1900 (has links)
Étant donné que le sommeil ainsi que les problèmes intériorisés et extériorisés durant l’enfance sont associés à plusieurs aspects du développement social, affectif et cognitif de l’enfant, il apparait essentiel d’étudier ces deux indicateurs de l’autorégulation chez les enfants ainsi que de comprendre les facteurs qui contribuent à leur émergence. L’objectif général de la thèse était donc de mieux comprendre les facteurs associés au développement de l’autorégulation psychophysiologique, telle que mesurée par la qualité du sommeil de l’enfant, ainsi que l’autorégulation émotionnelle et comportementale, telle qu’indiquée par la présence de symptômes intériorisés et extériorisés chez l’enfant. La thèse est composée de deux articles de nature empirique. L’objectif du premier article de la thèse était d’examiner les liens qui existent entre quatre comportements parentaux (i.e., la sensibilité maternelle, le soutien à l’autonomie maternel, l'orientation mentale de la mère et la qualité des interactions père-enfant) et le sommeil de l’enfant, de façon longitudinale et prospective. Les trois comportements maternels ont été mesurés avec 70 dyades mère-enfant, tandis que la qualité des interactions père-enfant a été évaluée chez 41 de ces familles. À 12 mois, l’orientation mentale maternelle et la sensibilité maternelle ont été évaluées. Le soutien à l'autonomie maternel a été mesuré à 15 mois, tandis que la qualité des interactions père-enfant a été évaluée à 18 mois. Le sommeil des enfants a été mesuré à 3 et 4 ans en utilisant un agenda de sommeil rempli par la mère. Les résultats indiquaient qu’en contrôlant pour le statut socioéconomique familial et le fait d’aller en garderie ou non, la qualité des interactions mère-enfant et père-enfant est liée à la proportion de sommeil ayant lieu la nuit chez les enfants d’âge préscolaire. Le deuxième article visait à étudier les effets d’interaction entre le sommeil de l’enfant et la sensibilité maternelle en ce qui a trait au développement des problèmes intériorisés et extériorisés. À 1 et 4 ans, 55 dyades mère-enfant ont participé à deux visites à domicile. À 1 an, la sensibilité maternelle a été évaluée et les mères ont complété l’agenda du sommeil de l’enfant. À 4 ans, les mères ont rempli le Child Behavior Checklist pour évaluer les symptômes intériorisés et extériorisés chez leur enfant. Les résultats ont montré que la sensibilité maternelle interagit avec la durée du sommeil de l’enfant. Ainsi, les résultats ont indiqué une relation négative entre la sensibilité maternelle et les problèmes intériorisés et extériorisés, mais seulement chez les enfants qui dorment plus la nuit. Les résultats présentés dans les deux articles ont été discutés, ainsi que leurs implications théoriques et cliniques. / Since sleep and internalizing and externalizing problems in childhood are associated with several aspects of social, emotional and cognitive development, it appears essential to study these two indicators of self-regulation in children and to understand the factors that contribute to their emergence. The overall objective of the thesis was to better understand the factors associated with the development of psychophysiological self-regulation, as measured by the quality of child sleep, as well as emotional and behavioural self-regulation, as indicated by the presence of internalizing and externalizing symptoms in children. The first article aimed to examine the prospective and longitudinal links between the quality of mother-child and father-child interactions and preschoolers’ sleep. Three dimensions of maternal interactive behavior were considered with 70 mother-child dyads, while the quality of father-child interactions was assessed among 41 of these families. At 12 months, maternal mind-mindedness and maternal sensitivity were rated. Maternal autonomy support was assessed at 15 months and the quality of father-child interactions was scored at 18 months. Children’s sleep was assessed at 3 and 4 years using a sleep diary completed by mothers during three consecutive days. Results indicated that after controlling for family SES and daycare attendance, the quality of both mother-infant and father-infant interactions was related to children’s proportions of night-time sleep at preschool age. The second article aimed to examine infant sleep as a moderator of the relation between maternal sensitivity and child externalizing and internalizing symptoms, in a prospective longitudinal design. 55 infants took part in two assessments, at 1 and 4 years. Maternal sensitivity was rated at 1 year, based on observations performed throughout a home visit. Infant sleep was assessed at 1 year as well, using a sleep diary completed by mothers. At 4 years, mothers completed the Child Behavior Checklist to assess children’s internalizing and externalizing symptoms. Results indicated that maternal sensitivity interacted with infant sleep duration, such that there were negative relations between sensitivity and subsequent internalizing and externalizing symptoms only for children who slept more at night. The results presented in both articles are discussed along with their theoretical and clinical implications.
622

Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiques

Nassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised. In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET. Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we : developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions. developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies. Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
623

Maternal history of early adversity and child emotional development : investigating intervening factors

Bouvette-Turcot, Andrée-Anne 03 1900 (has links)
L’objectif de cette thèse était de contribuer à l’avancement des connaissances quant aux circonstances permettant une transmission intergénérationnelle du risque émanant de l’adversité maternelle et aux mécanismes sous-tendant cette transmission, dans quatre articles empiriques. Le premier visait à explorer la relation entre un historique d’adversité maternelle, la sécurité d’attachement mère-enfant et le tempérament de l’enfant. Les mères ont complété une entrevue semi-structurée portant sur leurs représentations d’attachement avec leurs parents, à 6 mois, et ont évalué le tempérament de leur enfant à 2 ans. La sécurité d’attachement fut également évaluée à 2 ans. Les résultats ont démontré que les enfants dont les mères rapportaient des niveaux supérieurs d’adversité présentaient de moins bons niveaux d’activité comportementale, uniquement lorsqu’ils avaient un attachement sécurisant avec leur mère. Ces résultats suggèrent une transmission intergénérationnelle des effets d’un historique d’adversité maternelle sur le tempérament des enfants. Le deuxième article visait à investiguer si le transporteur de sérotonine (5-HTTLPR) module la transmission de risque intergénérationnelle de l’adversité maternelle sur le tempérament des enfants. L’historique d’adversité maternelle fut évalué en combinant deux mesures auto-rapportées. Les mères ont également évalué le tempérament de leur enfant à 18 et à 36 mois. Le génotype des enfants fut extrait à 36 mois. Les résultats ont révélé un effet d’interaction entre l’adversité maternelle et le génotype de l’enfant sur le tempérament, suggérant une transmission intergénérationnelle des effets de l’adversité maternelle sur le fonctionnement émotionnel des enfants. Le troisième article visait à explorer la relation entre les difficultés d’adaptation psychosociale des mères, la sensibilité maternelle et les symptômes intériorisés de leurs enfants. Les mères ont complété plusieurs questionnaires desquels un score composite de difficultés d’adaptation psychosociale fut extrait. La sensibilité maternelle fut observée à 12 mois. Les symptômes intériorisés des enfants furent évalués par les deux parents à 2 et à 3 ans. Les résultats ont démontré qu’une augmentation des difficultés maternelles d’adaptation psychosociale étaient associée à davantage de symptômes intériorisés chez les enfants, mais seulement chez ceux dont les mères étaient moins sensibles. Ces résultats ont été observés par les mères à 2 ans et par les deux parents à 3 ans. Ces résultats suggèrent que les enfants peuvent être différemment affectés par l’adaptation émotionnelle de leur mère tout en mettant l’emphase sur le rôle protecteur de la sensibilité maternelle. Le quatrième article visait à investiguer les rôles médiateurs de la dépression et de la sensibilité maternelle dans la relation entre un historique d’adversité maternelle et le tempérament de l’enfant. L’historique d’adversité maternelle fut évalué en combinant deux mesures auto-rapportées. Les mères ont également rapporté leurs symptômes dépressifs à 6 mois. La sensibilité maternelle fut évaluée de façon concomitante. Les mères ont évalué le tempérament de leur enfant à 36 mois. Les résultats ont révélé une transmission intergénérationnelle des effets d’un historique d’adversité maternelle à la génération suivante suivant une médiation séquentielle passant d’abord par la dépression maternelle et ensuite par la sensibilité maternelle. Finalement, les résultats des quatre articles ont été intégrés dans la conclusion générale. / The main goal of this dissertation was to document more extensively the circumstances under which intergenerational risk transmission of maternal adversity occurs and to identify underlying processes. The dissertation is comprised of four empirical articles. The first article examined the relation between maternal history of early adversity, mother-child attachment security, and child temperament. Mothers completed a semi-structured interview pertaining to their childhood attachment experiences with their parents at 6 months and rated their children’s temperament at 2 years. Mother-child attachment was also assessed at 2 years. Results showed that children whose mothers received higher scores of early life adversity displayed poorer temperamental activity level outcomes but only when they also showed high concomitant levels of attachment security, suggesting intergenerational effects of maternal early life experiences on child temperament. The second article examined the intergenerational effects of maternal childhood adversity on child temperament targeting the serotonin transporter polymorphism, 5-HTTLPR, as a potential moderator of those maternal influences. Maternal history of early adversity was assessed with an integrated measure derived from two self-report questionnaires. Mothers also rated their children’s temperament at 18 and 36 months. Child genotyping was performed at 36 months. Results yielded a significant interaction effect of maternal childhood adversity and child 5-HTTLPR genotype on child temperament, suggesting intergenerational effects of maternal history of adversity on child emotional function. The third article investigated the interactive effects of maternal psychosocial maladjustment and maternal sensitivity on child internalizing symptoms. Families took part in four assessments between ages 1 and 3 years. Mothers completed several questionnaires from which a composite score of maternal psychosocial maladjustment was derived. Maternal sensitivity was rated by an observer at 12 months. Child internalizing symptoms were assessed by both parents at 2 and 3 years. Results revealed that increased maternal psychosocial maladjustment was related to more internalizing symptoms in children, however only among children of less sensitive mothers whereas children of more sensitive mothers appeared to be protected. This was observed with maternal reports at 2 years, and both maternal and paternal reports at 3 years. These results suggest that young children may be differentially affected by their parents’ emotional adjustment, while highlighting the pivotal protective role of maternal sensitivity in this process. Finally, the fourth article examined the mediating roles of maternal depression and maternal sensitivity in the relation between maternal history of early adversity and child temperament. Maternal history of early adversity was assessed with an integrated measure derived from two self-report questionnaires. Mothers also reported on their depression symptoms at 6 months. Maternal sensitivity was rated concurrently. Mothers also completed a questionnaire on their children’s temperament at 36 months. Results suggested the intergenerational transmission of the effects of maternal childhood adversity to offspring occurs through a two-step, serial pathway, specifically through maternal depression, first, and, then, to maternal sensitivity. Finally, the results of the four articles were integrated into a general conclusion.
624

Structure of bio-macromolecular complexes by solid-state Nuclear Magnetic Resonance / Structure de complexes biologiques macromoléculaires par Résonance Magnétique Nucléaire du solide

Barbet-Massin, Emeline 03 May 2013 (has links)
La RMN du solide a récemment émergé en tant que technique très puissante en biologie structurale, permettant de caractériser au niveau atomique des systèmes qui ne peuvent être étudiés par d’autres méthodes. Des protocoles spécifiques à la RMN du solide sont à présent bien établis pour la préparation des échantillons, l’attribution des spectres et l’acquisition de contraintes structurales. Ensemble, ces protocoles ont ouvert la voie aux premières déterminations de structures tridimensionnelles de molécules biologiques à l’état solide avec une résolution atomique, et ce non seulement pour des échantillons protéiques microcristallins, mais également pour des systèmes plus complexes tels que des fibrilles ou des protéines membranaires.La détermination structurale de tels systèmes est cependant encore loin d’être une routine, et des avancées de plus large ampleur sont attendues grâce à des développements aux niveaux méthodologique et matériel. Pour cette raison, une majeure partie du travail présenté dans cette thèse a été consacrée au développement d’expériences à la fois nouvelles et sophistiquées pour améliorer la sensibilité et la résolution des méthodes déjà existantes pour attribuer les spectres et élargir les possibilités offertes par la RMN du solide en vue d’étudier la structure de systèmes protéiques plus larges. Ces développements reposent notamment sur l’utilisation de champs magnétiques très intenses et sur la rotation des échantillons à l’angle magique dans la gamme des très hautes vitesses angulaires. Nous montrons que dans ce cadre, il est possible de concevoir des expériences utilisant uniquement des champs radiofréquences à faible puissance ainsi que d’utiliser des transferts sélectifs, l’acquisition de corrélations à travers les liaisons chimiques et la détection proton.En particulier, nous montrons que des expériences de corrélation homonucléaire reposant sur des transferts scalaires deviennent une alternative compétitive aux expériences basées sur des transferts dipolaires. Deux nouvelles séquences d’impulsion permettant de détecter des corrélations 13C-13C à travers les liaisons chimiques avec une excellente résolution sont présentées; couplées à des transferts 15N-13C, elles permettent l’attribution des résonances de la chaîne principale des protéines avec une grande sensibilité.De plus, nous démontrons qu’il est possible d’obtenir des raies très fines pour les résonances de protons dans des protéines complètement protonées à l’état solide grâce à la rotation à l’angle magique à ultra-haute vitesse, sans avoir recours à la deutération. Dans ce contexte, nous avons développé de nouvelles stratégies permettant d’attribuer rapidement et de façon fiable les résonances des spins 1H, 15N, 13CO, 13CA et 13CB dans différentes classes de protéines, ainsi que pour mesurer des contraintes structurales à partir des distances entre protons. L’approche proposée repose sur la haute sensibilité des protons et accélère donc considérablement les processus d’attribution et de détermination structurale des protéines à l’état solide, comme illustré sur la protéine beta-2-microglobuline.Enfin, nous avons appliqué cette nouvelle approche pour réaliser l’attribution et l’étude structurale et fonctionnelle de trois catégories de complexes protéiques: les fibrilles amyloidogènes formées par beta-2-microglobuline, les nucléocapsides du virus de la rougeole, et les nucléocapsides d’Acinetobacter phage205. Nous avons également utilisé la technique de Polarisation Nucléaire Dynamique pour obtenir des informations sur l’ARN des nucléocapsides du virus de la rougeole.Nous considérons que les résultats présentés dans cette thèse représentent une avancée substantielle dans le domaine de la RMN du solide appliquée à la biologie structurale. Grâce aux progrès actuels dans ce domaine, l’impact de la RMN biomoléculaire à l’état solide promet d’augmenter dans les prochaines années. / Solid-state NMR has recently emerged as a key technique in modern structural biology, by providing information at atomic level for the characterization of a wide range of systems that cannot be investigated by other atomic-scale methods. There are now well established protocols for sample preparation, resonance assignment and collection of structural restraints, that have paved the way to the first three-dimensional structure determinations at atomic resolution of biomolecules in the solid state, from microcrystalline samples to fibrils and membrane-associated systems. These determinations are however still far from being routine, and larger breakthroughs are expected with further methodological and hardware developments. Accordingly, most of the work presented in this thesis consists of the development of new, sophisticated NMR experiments to improve the sensitivity and resolution of the currently existing schemes for resonance assignment and to extend the capabilities of solid-state NMR in terms of structural investigation of proteins for the analysis of large substrates. These developments notably rely on the use of very high magnetic fields and ultra-fast magic-angle spinning (MAS). We show the great potential of this particular regime, which enables the use of low-power experiments and the acquisition of selective cross-polarization transfers, through-bond correlations and 1H-detected correlations.In particular, we show that homonuclear correlation experiments based on through-bond transfers become competitive alternatives to dipolar transfer schemes. Two new pulse sequences that detect sensitive and resolved 13C-13C through-bond correlations are introduced, which coupled to 15N-13C dipolar transfer steps provide sensitive routes for protein backbone resonance assignment.Furthermore, we demonstrate that narrow 1H NMR line widths can be obtained for fully protonated proteins in the solid state under ultra-fast MAS, even without perdeuteration. In this context, we have developed new strategies for extensive, robust and expeditious assignments of the 1H, 15N, 13CO, 13CA and 13CB resonances of proteins in different aggregation states, and new schemes for the measurements of site-specific 1H-1H distance restraints. This approach relying on the very high sensitivity of 1H spins remarkably accelerates the processes of assignment and structure determination of proteins in the solid state, as shown by the assignment and de novo structure determination of native beta-2-microglobulin. Finally, we apply this new approach to perform resonance assignment and to study structural and dynamic features of three complex protein aggregates: amyloid fibrils formed by native and D76N beta-2-microglobulin, Acinetobacter phage 205 nucleocapsids and measles virus (MeV) nucleocapsids. We also used Dynamic Nuclear Polarization to obtain the first information about RNA in MeV nucleocapsids.We believe that the results presented in this thesis represent a substantial step forward for solid-state NMR in structural biology. With all the current advances in the field, the impact of biomolecular solid-state NMR is likely to increase in the next years.
625

Applications of the error theory using Dirichlet forms / Application de la théorie d'erreur par formes de Dirichlet

Scotti, Simone 16 October 2008 (has links)
Cette thèse est consacrée à l'étude des applications de la théorie des erreurs par formes de Dirichlet. Notre travail se divise en trois parties. La première analyse les modèles gouvernés par une équation différentielle stochastique. Après un court chapitre technique, un modèle innovant pour les carnets d’ordres est proposé. Nous considérons que le spread bid-ask n'est pas un défaut, mais plutôt une propriété intrinsèque du marché. L'incertitude est portée par le mouvement Brownien qui conduit l'actif. Nous montrons que l'évolution des spread peut être évaluée grâce à des formules fermées et nous étudions l'impact de l'incertitude du sous-jacent sur les produits dérivés. En suite, nous introduisons le modèle PBS pour le pricing des options européennes. L'idée novatrice est de distinguer la volatilité du marché par rapport au paramètre utilisé par les traders pour se couvrir. Nous assumons la première constante, alors que le deuxième devient une estimation subjective et erronée de la première. Nous prouvons que ce modèle prévoit un spread bid-ask et un smile de volatilité. Les propriétés plus intéressantes de ce modèle sont l’existence de formules fermés pour le pricing, l'impact de la dérive du sous-jacent et une efficace stratégie de calibration. La seconde partie s'intéresse aux modèles décrit par une équation aux dérivées partielles. Les cas linéaire et non-linéaire sont analysés séparément. Dans le premier nous montrons des relations intéressantes entre la théorie des erreurs et celui des ondelettes. Dans le cas non-linéaire nous étudions la sensibilité des solutions à l’aide de la théorie des erreurs. Sauf dans le cas d’une solution exacte, il y a deux approches possibles : on peut d’abord discrétiser l’EDP et étudier la sensibilité du problème discrétisé, soit démontrer que les sensibilités théoriques vérifient des EDP. Les deux cas sont étudiés, et nous prouvons que les sharp et le biais sont solutions d’EDP linéaires dépendantes de la solution de l’EDP originaire et nous proposons des algorithmes pour évaluer numériquement les sensibilités. Enfin, la troisième partie est dédiée aux équations stochastiques aux dérivées partielles. Notre analyse se divise en deux chapitres. D’abord nous étudions la transmission de l’incertitude, présente dans la condition initiale, à la solution de l’EDPS. En suite, nous analysons l'impact d'une perturbation dans les termes fonctionnelles de l’EDPS et dans le coefficient de la fonction de Green associée. Dans le deux cas, nous prouvons que le sharp et le biais sont solutions de deux EDPS linéaires dépendantes de la solution de l’EDPS originaire / This thesis is devoted to the study of the applications of the error theory using Dirichlet forms. Our work is split into three parts. The first one deals with the models described by stochastic differential equations. After a short technical chapter, an innovative model for order books is proposed. We assume that the bid-ask spread is not an imperfection, but an intrinsic property of exchange markets instead. The uncertainty is carried by the Brownian motion guiding the asset. We find that spread evolutions can be evaluated using closed formulae and we estimate the impact of the underlying uncertainty on the related contingent claims. Afterwards, we deal with the PBS model, a new model to price European options. The seminal idea is to distinguish the market volatility with respect to the parameter used by traders for hedging. We assume the former constant, while the latter volatility being an erroneous subjective estimation of the former. We prove that this model anticipates a bid-ask spread and a smiled implied volatility curve. Major properties of this model are the existence of closed formulae for prices, the impact of the underlying drift and an efficient calibration strategy. The second part deals with the models described by partial differential equations. Linear and non-linear PDEs are examined separately. In the first case, we show some interesting relations between the error and wavelets theories. When non-linear PDEs are concerned, we study the sensitivity of the solution using error theory. Except when exact solution exists, two possible approaches are detailed: first, we analyze the sensitivity obtained by taking “derivatives” of the discrete governing equations. Then, we study the PDEs solved by the sensitivity of the theoretical solutions. In both cases, we show that sharp and bias solve linear PDE depending on the solution of the former PDE itself and we suggest algorithms to evaluate numerically the sensitivities. Finally, the third part is devoted to stochastic partial differential equations. Our analysis is split into two chapters. First, we study the transmission of an uncertainty, present on starting conditions, on the solution of SPDE. Then, we analyze the impact of a perturbation of the functional terms of SPDE and the coefficient of the related Green function. In both cases, we show that the sharp and bias verify linear SPDE depending on the solution of the former SPDE itself / Questa tesi é dedicata allo studio delle applicazioni della teoria degli errori tramite forme di Dirichlet, il nostro lavoro si divide in tre parti. Nella prima vengono studiati i modelli descritti da un’equazione differenziale stocastica: dopo un breve capitolo con risultati tecnici viene descritto un modello innovativo per i libri d’ordini. La presenza dei differenziali denarolettera viene considerata non come un’imperfezione, bensi una proprietà intrinseca dei mercati. L’incertezza viene descritta come un rumore sul moto Browniano sottostante all’azione; dimostriamo che l’evoluzione di questi differenziali puó essere valutata attraverso formule chiuse e stimiamo l’impatto dell’incertezza del sottostante sui prodotti derivati. In seguito proponiamo un nuovo modello, chiamato PBS, per il prezzaggio delle opzioni di tipo europeo: l’idea innovativa consiste nel distinguere la volatilità di mercato dal parametro usato dai trader per la copertura. Noi supponiamo la prima constante, mentre il secondo diventa una stima soggettiva ed erronea della prima. Dimostriamo che questo modello prevede dei differenziali lettera-denaro e uno smile di volatilità implicita. Le maggiori proprietà di questo modello sono l’esistenza di formule chiuse per il princing, l’impatto del drift del sottostante e un’efficace strategia per la calibrazione. La seconda parte è dedicata allo studio dei modelli descritti da delle equazioni alle derivate perziali. I casi lineare e non-lineare sono trattati separatamente. Nel primo caso mostriamo interessanti relazioni tra la teoria degli errori e quella delle wavelets. Nel caso delle EDP non-lineari studiamo la sensibilità della soluzione usando la teoria degli errori. Due possibili approcci esistono, salvo quando la soluzione è esplicita. Possiamo prima discretizzare il problema e studiare la sensibilità delle equazioni discretizzate, oppure possiamo dimostrare che le sensibilità teoriche verificano, a loro volta, delle EDP dipendenti dalla soluzione della EDP iniziale. Entrambi gli approcci sono descritti e vengono proposti degli algoritmi per valutare le sensibilità numericamente. Infine, la terza parte è dedicata ai modelli descritti da un’equazione stocastica alle derivate parziali. La nostra analisi é divisa in due capitoli. Nel primo viene studiato l’impatto di un’incertezza, presente nella condizione iniziale, sulla soluzione dell’EDPS, nella seconda si analizzano gli impatti di una perturbazione dei termini funzionali dell’EDPS del coefficiente della funzione di Green associata. In entrambi i casi dimostriamo che lo sharp e la discrepanza sono soluzioni di due EDPS lineari dipendenti dalla soluzione dell’EDPS iniziale
626

Spectroscopie Raman et microfluidique : application à la diffusion Raman exaltée de surface

Delhaye, Caroline 17 December 2009 (has links)
Ce mémoire porte sur la mise au point de plateforme microfluidique couplée à la microscopie Raman confocale, utilisée dans des conditions d’excitation de la diffusion Raman (diffusion Raman exaltée de surface), dans le but d’obtenir une détection de très haute sensibilité d’espèces moléculaires sous écoulement dans des canaux de dimensions micrométriques. Ce travail a pour ambition de démontrer la faisabilité d’un couplage microscopie Raman/microfluidique en vue de la caractérisation in-situ et locale, des espèces et des réactions mises en jeu dans les fluides en écoulement dans les microcanaux. Nous avons utilisé un microcanal de géométrie T, fabriqué par lithographie douce, dans lequel sont injectées, à vitesse constante, des nanoparticules métalliques d’or ou d’argent dans une des deux branches du canal et une solution de pyridine ou de péfloxacine dans l’autre branche. La laminarité et la stationnarité du processus nous ont permis de cartographier la zone de mélange et de mettre en évidence l’exaltation du signal de diffusion Raman de la pyridine et de la péfloxacine, obtenue grâce aux nanoparticules métalliques, dans cette zone d’interdiffusion. L’enregistrement successif de la bande d’absorption des nanoparticules d’argent (bande plasmon) et du signal de diffusion Raman de la péfloxacine, en écoulement dans un microcanal, nous a permis d’établir un lien entre la morphologie des nanostructures métalliques, et plus précisément l’état d’agrégation des nanoparticules d’argent, et l’exaltation du signal Raman de la péfloxacine observé. Nous avons alors modifié la géométrie du canal afin d’y introduire une solution d’électrolyte (NaCl et NaNO3) et de modifier localement la charge de surface des colloïdes d’argent en écoulement. Nous avons ainsi confirmé que la modification de l’état d’agrégation des nanoparticules d’argent, induite par l’ajout contrôlé de solutions d’électrolytes, permet d’amplifier le signal SERS de la péfloxacine et d’optimiser la détection en microfluidique. Enfin, nous avons développé une seconde approche qui consistait à mettre en place une structuration métallisée des parois d’un microcanal. Nous avons ainsi démontré que la fonctionnalisation chimique de surface via un organosilane (APTES) permettait de tapisser le canal avec des nanoparticules d’argent et d’amplifier le signal Raman des espèces en écoulement dans ce même microcanal. / This thesis focuses on the development of a microfluidic platform coupled with confocal Raman microscopy, used in excitation conditions of Raman scattering (Surface enhanced Raman scattering, SERS) in order to gain in the detection sensitivity of molecular species flowing in channels of micrometer dimensions. This work aims to demonstrate the feasibility of coupling Raman microscopy / microfluidics for the in situ and local characterization of species and reactions taking place in the fluid flowing in microchannels. We used a T-shaped microchannel, made by soft lithography, in which gold or silver nanoparticles injected at constant speed, in one of the two branches of the channel and a solution of pyridine or pefloxacin in the other one. The laminar flow and the stationarity of the process allowed us to map the mixing zone and highlight the enhancement of the Raman signal of pyridine and pefloxacin, due to the metallic nanoparticles, in the interdiffusion zone. The recording of the both absorption band of the silver nanoparticles (plasmon band) and the Raman signal of pefloxacin, flowing in microchannel, allowed us to establish a link between the shape of the metallic nanostructure, and more precisely the silver nanoparticle aggregation state, and the enhancement of the Raman signal of pefloxacin observed. We then changed the channel geometry to introduce an electrolyte solution (NaCl and NaNO3) and locally modify the surface charge of the colloids. We have put in evidence that the change of the silver nanoparticle aggregation state, induced by the controlled addition of electrolyte solutions, could amplify the SERS signal of pefloxacin and thus optimizing the detection in microfluidics. At last, we established second a approach that consists in the metallic structuring of microchannel walls. This has shown that the surface chemical functionalization through organosilanes (APTES) allowed the pasting of the channel with silver nanoparticles, thus amplifying the Raman signal of the species flowing within the same microchannel.
627

Développement d’une méthode de méta modélisation des consommations énergétiques des bâtiments en fonction des facteurs d’usages et d’exploitation pour la garantie de résultat énergétique / Development of a metamodel for building energy consumption as a function of space use and HVAC systems operations factors for energy performance guarantee

Novel, Aymeric 07 January 2019 (has links)
À mesure que les performances intrinsèques des bâtiments s’améliorent, les usages énergétiques non réglementés, que nous associons à une notion d’intensité énergétique des usages, prennent de plus en plus d’importance dans le bilan des consommations des bâtiments. De plus, les bâtiments performants font apparaître des problématiques au niveau de l’exploitation des installations. Ces constats nous permettent d’affirmer qu’il est aujourd’hui important de proposer un cadre pour le suivi et l’optimisation de la sobriété énergétique des usages et l’exploitation performante pour la maîtrise des consommations énergétiques réelles des bâtiments. Cette thèse propose tout d’abord de développer des modèles polynomiaux de prédiction de la consommation énergétique tous usages en fonction des facteurs caractérisant l’intensité d’usage, la qualité d’usage et la qualité d’exploitation. Pour cela, nous utilisons le logiciel EnergyPlus afin de réaliser des simulations énergétiques dynamiques (SED) sur des valeurs de paramètres définis par la méthode des plans d’expérience D-optimaux. Le modèle polynomial créé permet alors d’effectuer, avec un faible temps de calcul, une propagation des incertitudes sur les consommations d’énergie calculées. Pour ce faire, nous utilisons les données mesurées en exploitation dans le cadre de la mesure et de la vérification de la performance énergétique, associées à une incertitude concernant leur valeur. Nous pouvons alors déterminer l’incertitude globale sur les consommations énergétiques et identifier les pistes pour la réduire, permettant ainsi un meilleur suivi et encadrement de la consommation énergétique réelle. / Since building envelope and MEP systems characteristics regularly improve, the weight of non-regulatory energy end-uses increases. These energy end-uses are typically associated with tenants or owners’ activities. In addition, high performance buildings show new issues related to HVAC systems operations. Therefore, it is important to evaluate and improve non-regulatory energy end-uses energy as well as HVAC systems operations efficiencies. We have developed polynomial energy models that can predict energy consumption as a function of building’s activities characteristics and HVAC systems operations factors. We used EnergyPlus software in order to build reliable energy models along with the D-optimum design of experiments method (DOE). Then, we used measurement and verification (M&V) data, associated with probability functions, to determine the associated uncertainty of the calculated energy consumption. Finally, we combine the latter with the polynomial modeling error to calculate the energy consumption global uncertainty, with the goal to identify strategies to reduce it.
628

Experimental identification of physical thermal models for demand response and performance evaluation / Identification expérimentale des modèles thermiques physiques pour la commande et la mesure des performances énergétiques

Raillon, Loic 16 May 2018 (has links)
La stratégie de l’Union Européenne pour atteindre les objectifs climatiques, est d’augmenter progressivement la part d’énergies renouvelables dans le mix énergétique et d’utiliser l’énergie plus efficacement de la production à la consommation finale. Cela implique de mesurer les performances énergétiques du bâtiment et des systèmes associés, indépendamment des conditions climatiques et de l’usage, pour fournir des solutions efficaces et adaptées de rénovation. Cela implique également de connaître la demande énergétique pour anticiper la production et le stockage d’énergie (mécanismes de demande et réponse). L’estimation des besoins énergétiques et des performances énergétiques des bâtiments ont un verrou scientifique commun : l’identification expérimentale d’un modèle physique du comportement intrinsèque du bâtiment. Les modèles boîte grise, déterminés d’après des lois physiques et les modèles boîte noire, déterminés heuristiquement, peuvent représenter un même système physique. Des relations entre les paramètres physiques et heuristiques existent si la structure de la boîte noire est choisie de sorte qu’elle corresponde à la structure physique. Pour trouver la meilleure représentation, nous proposons d’utiliser, des simulations de Monte Carlo pour analyser la propagation des erreurs dans les différentes transformations de modèle et, une méthode de priorisation pour classer l’influence des paramètres. Les résultats obtenus indiquent qu’il est préférable d’identifier les paramètres physiques. Néanmoins, les informations physiques, déterminées depuis l’estimation des paramètres, sont fiables si la structure est inversible et si la quantité d’information dans les données est suffisante. Nous montrons comment une structure de modèle identifiable peut être choisie, notamment grâce au profil de vraisemblance. L’identification expérimentale comporte trois phases : la sélection, la calibration et la validation du modèle. Ces trois phases sont détaillées dans le cas d’une expérimentation d’une maison réelle en utilisant une approche fréquentiste et Bayésienne. Plus précisément, nous proposons une méthode efficace de calibration Bayésienne pour estimer la distribution postérieure des paramètres et ainsi réaliser des simulations en tenant compte de toute les incertitudes, ce qui représente un atout pour le contrôle prédictif. Nous avons également étudié les capacités des méthodes séquentielles de Monte Carlo pour estimer simultanément les états et les paramètres d’un système. Une adaptation de la méthode de prédiction d’erreur récursive, dans une stratégie séquentielle de Monte Carlo, est proposée et comparée à une méthode de la littérature. Les méthodes séquentielles peuvent être utilisées pour identifier un premier modèle et fournir des informations sur la structure du modèle sélectionnée pendant que les données sont collectées. Par la suite, le modèle peut être amélioré si besoin, en utilisant le jeu de données et une méthode itérative. / The European Union strategy for achieving the climate targets, is to progressively increase the share of renewable energy in the energy mix and to use the energy more efficiently from production to final consumption. It requires to measure the energy performance of buildings and associated systems, independently of weather conditions and user behavior, to provide efficient and adapted retrofitting solutions. It also requires to known the energy demand to anticipate the energy production and storage (demand response). The estimation of building energy demand and the estimation of energy performance of buildings have a common scientific: the experimental identification of the physical model of the building’s intrinsic behavior. Grey box models, determined from first principles, and black box models, determined heuristically, can describe the same physical process. Relations between the physical and mathematical parameters exist if the black box structure is chosen such that it matches the physical ones. To find the best model representation, we propose to use, Monte Carlo simulations for analyzing the propagation of errors in the different model transformations, and factor prioritization, for ranking the parameters according to their influence. The obtained results show that identifying the parameters on the state-space representation is a better choice. Nonetheless, physical information determined from the estimated parameters, are reliable if the model structure is invertible and the data are informative enough. We show how an identifiable model structure can be chosen, especially thanks to profile likelihood. Experimental identification consists of three phases: model selection, identification and validation. These three phases are detailed on a real house experiment by using a frequentist and Bayesian framework. More specifically, we proposed an efficient Bayesian calibration to estimate the parameter posterior distributions, which allows to simulate by taking all the uncertainties into account, which is suitable for model predictive control. We have also studied the capabilities of sequential Monte Carlo methods for estimating simultaneously the states and parameters. An adaptation of the recursive prediction error method into a sequential Monte Carlo framework, is proposed and compared to a method from the literature. Sequential methods can be used to provide a first model fit and insights on the selected model structure while the data are collected. Afterwards, the first model fit can be refined if necessary, by using iterative methods with the batch of data.
629

Stratégies diagnostiques des pharyngites de l'enfant : du test de diagnostic rapide aux règles de décision clinique / Rapid antigen detection tests and clinical prediction rules for the diagnosis of streptococcal pharyngitis in children

Cohen, Jérémie 02 October 2014 (has links)
Introduction – La place des tests de diagnostic rapide (TDR) et des règles de décision cliniques (RDC) pour le diagnostic des pharyngites à streptocoque du groupe A (SGA) chez l’enfant varie selon les recommandations internationales en raison de doutes sur la stabilité des performances diagnostiques du TDR et d’une validation insuffisante des RDC. Méthodes – Dans une étude prospective multicentrique (n=17) ambulatoire réalisée au sein du réseau clinique pédiatrique ACTIV de 2009 à 2011, 1776 enfants avec pharyngite ou sains ont été soumis à des prélèvements de gorge pour réaliser un TDR et une mise en culture (test de référence). Nous avons étudié l’effet indépendant de variables liées aux patients et aux médecins sur les performances diagnostiques du TDR, exploré systématiquement les faux-Positifs (FP) du TDR et réalisé une validation externe et une comparaison des RDC existantes. Résultats – La sensibilité du TDR (en moyenne 87%) variait selon la présentation clinique (âge, signes cliniques), l’inoculum bactérien et le phénomène de portage (paramètres aussi liés entre eux), et selon des variables liées aux médecins (dont le type d’activité clinique). La valeur prédictive négative du TDR était élevée (autour de 90%) et stable. Les FP du TDR étaient positifs pour le SGA en PCR. Aucune RDC n’était satisfaisante en termes de calibration et de discrimination. Conclusion – Le TDR est suffisant pour le diagnostic de pharyngite à SGA si les cliniciens évaluent leurs propres performances et les améliorent si besoin. Aucune RDC ne peut être recommandée en pratique clinique en pédiatrie. / Background – The roles of rapid antigen detection tests (RADT) and clinical prediction rules (CPR) for the diagnosis of group A streptococcus (GAS) in children with pharyngitis vary across international clinical guidelines. This might be related to unstable diagnostic accuracy of RADTs and insufficient validation of CPRs. Methods – In a prospective multicenter (n=17) office-Based study that took place in France within the ACTIV network between 2009 and 2011, 1776 children with pharyngitis or healthy controls underwent throat swabs to perform a RADT and a throat culture (reference standard). We assessed the independent effect of patient- and physician-Level characteristics on the accuracy of a RADT, systematically re-Analyzed RADT false-Positive results, and externally validated and compared existing CPRs. Results – RADT sensitivity (overall 87%) varied according to clinical signs and symptoms, bacterial inoculum size and GAS throat carriage (factors also related to each other), and according to physician-Level characteristics (including type of clinical practice). RADT negative predictive value was high (about 90%) and stable. RADT false-Positives were positive for GAS when using a new PCR technique. No CPR had sufficient performances regarding calibration and discrimination. Conclusions – RADTs are sufficient for diagnosing GAS pharyngitis if clinicians accept diagnostic accuracy monitoring and adequate training when needed. No CPR can be recommended for use in pediatrics.
630

Systèmes de numérisation hautes performances – Architectures robustes adaptées à la radio cognitive. / High performance digitization systems - robust architecture adapted to the cognitive radio

Song, Zhiguo 17 December 2010 (has links)
Les futures applications de radio cognitive requièrent des systèmes de numérisation capables de convertir alternativement ou simultanément soit une bande très large avec une faible résolution soit une bande plus étroite avec une meilleure résolution, ceci de manière versatile (i.e. par contrôle logiciel). Pour cela, les systèmes de numérisation basés sur les Bancs de Filtres Hybrides (BFH) sont une solution attractive. Ils se composent d'un banc de filtres analogiques, un banc de convertisseurs analogique-numérique et un banc de filtres numériques. Cependant, ils sont très sensibles aux imperfections analogiques. L'objectif de cette thèse était de proposer et d’étudier une méthode de calibration qui permette de corriger les erreurs analogiques dans la partie numérique. De plus, la méthode devait être implémentable dans un système embarqué. Ce travail a abouti à une nouvelle méthode de calibration de BFH utilisant une technique d'Égalisation Adaptative Multi-Voies (EAMV) qui ajuste les coefficients des filtres numériques par rapport aux filtres analogiques réels. Cette méthode requiert d'injecter un signal de test connu à l'entrée du BFH et d'adapter la partie numérique afin de reconstruire le signal de référence correspondant. Selon le type de reconstruction souhaité (d’une large-bande, d’une sous-bande ou d’une bande étroite particulière), nous avons proposé plusieurs signaux de test et de référence. Ces signaux ont été validés en calculant les filtres numériques optimaux par la méthode de Wiener-Hopf et en évaluant leurs performances de ces derniers dans le domaine fréquentiel. Afin d’approcher les filtres numériques optimaux avec une complexité calculatoire minimum, nous avons implémenté un algorithme du gradient stochastique. La robustesse de la méthode a été évaluée en présence de bruit dans la partie analogique et de en tenant compte de la quantification dans la partie numérique. Un signal de test plus robuste au bruit analogique a été proposé. Les nombres de bits nécessaires pour coder les différentes données dans la partie numérique ont été dimensionnés pour atteindre les performances visées (à savoir 14 bits de résolution). Ce travail de thèse a permis d'avancer vers la réalisation des futurs systèmes de numérisation basés sur les BFH. / The future applications of cognitive radio require digitization systems being capable to perform a flexible conversion in terms of bandwidth and Resolution. The digitization systems based on Hybrid Filter Bancs (HFB) provide an attractive solution for achieving this purpose. The HFBs consist of a bank of analog filters, a bank of analog/digital converters and a bank of digital filters. However, they are so sensitive that the presence of analog errors renders them impossible to carry out. Therefore, the goal of the thesis was to propose and study a calibration method for the analog errors to be corrected in the digital part. Furthermore, the proposed method had to be implementable in an embedded system. Based on Multichannel Adaptive Equalization (MCAE), we proposed a new calibration method. The digital filter coefficients are adjusted according to the real analog filters. To perform this calibration process, a known test signal is injected into the HFB which output is compared to a linked desired signal, their difference is used to adjust the digital part iteratively until the goal is achieved. For different reconstruction goals (wideband, subband or a particular narrow band), we proposed two ways to generate the test and desired signals. With the filters achieved by using method Wiener-Hopf, these signals have been validated by the evaluation of the reconstruction performances. In order to approach the optimal coefficients with a minimal computational complexity, we have implemented an algorithm of stochastic gradient. The robustness of the MCAE method has been studied both in presence of the thermal noise in the analog part and in presence of quantization errors in the digital part. A more robust test signal against the analog noise has been proposed. According to our analytical expressions, for the reconstruction goal (i.e. resolution of 14 bits), the numbers of bits needed for coding the different data of the digital part can be indicated. This thesis is a step forward for realizing future digitization systems based on HFBs.

Page generated in 0.0559 seconds