• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • 1
  • Tagged with
  • 11
  • 11
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Effect of haptic guidance and error amplification robotic training interventions on the immediate improvement of timing among individuals that had a stroke / Effet de l’entrainement robotisé par réduction de l’erreur et augmentation de l’erreur sur le timing du mouvement chez la personne ayant eu un accident vasculaire cérébral

Bouchard, Amy January 2016 (has links)
Abstract : Many individuals that had a stroke have motor impairments such as timing deficits that hinder their ability to complete daily activities like getting dressed. Robotic rehabilitation is an increasingly popular therapeutic avenue in order to improve motor recovery among this population. Yet, most studies have focused on improving the spatial aspect of movement (e.g. reaching), and not the temporal one (e.g. timing). Hence, the main aim of this study was to compare two types of robotic rehabilitation on the immediate improvement of timing accuracy: haptic guidance (HG), which consists of guiding the person to make the correct movement, and thus decreasing his or her movement errors, and error amplification (EA), which consists of increasing the person’s movement errors. The secondary objective consisted of exploring whether the side of the stroke lesion had an effect on timing accuracy following HG and EA training. Thirty-four persons that had a stroke (average age 67 ± 7 years) participated in a single training session of a timing-based task (simulated pinball-like task), where they had to activate a robot at the correct moment to successfully hit targets that were presented a random on a computer screen. Participants were randomly divided into two groups, receiving either HG or EA. During the same session, a baseline phase and a retention phase were given before and after each training, and these phases were compared in order to evaluate and compare the immediate impact of HG and EA on movement timing accuracy. The results showed that HG helped improve the immediate timing accuracy (p=0.03), but not EA (p=0.45). After comparing both trainings, HG was revealed to be superior to EA at improving timing (p=0.04). Furthermore, a significant correlation was found between the side of stroke lesion and the change in timing accuracy following EA (r[subscript pb]=0.7, p=0.001), but not HG (r[subscript pb]=0.18, p=0.24). In other words, a deterioration in timing accuracy was found for participants with a lesion in the left hemisphere that had trained with EA. On the other hand, for the participants having a right-sided stroke lesion, an improvement in timing accuracy was noted following EA. In sum, it seems that HG helps improve the immediate timing accuracy for individuals that had a stroke. Still, the side of the stroke lesion seems to play a part in the participants’ response to training. This remains to be further explored, in addition to the impact of providing more training sessions in order to assess any long-term benefits of HG or EA. / Résumé : À la suite d’un accident vasculaire cérébral (AVC), plusieurs atteintes, comme un déficit de timing, sont notées, et ce, même à la phase chronique d’un AVC, ce qui nuit à l’accomplissement de tâches quotidiennes comme se vêtir. L’entrainement robotisé est un entrainement qui est de plus en plus préconisé dans le but d’améliorer la récupération motrice à la suite d’un AVC. Par contre, la plupart des études ont étudié les effets de l’entrainement robotisé sur l’amélioration de l’aspect spatial du mouvement (ex : la direction du mouvement), et non l’aspect temporel (ex : timing). L’objectif principal de ce projet était donc d’évaluer et de comparer l’impact de deux entrainements robotisés sur l’amélioration immédiate du timing soit : la réduction de l’erreur (RE), qui consiste à guider la personne à faire le mouvement désiré, et l’augmentation de l’erreur (AE), qui nuit au mouvement de la personne. L’objectif secondaire consistait à explorer s’il y avait une relation entre le côté de la lésion cérébrale et le changement dans les erreurs de timing suivant l’entrainement par RE et AE. Trente-quatre personnes atteintes d’un AVC au stade chronique (âge moyen de 67 ± 7 années) ont participé à cette étude, où ils devaient jouer à un jeu simulé de machine à boules. Les participants devaient activer une main robotisée au bon moment pour atteindre des cibles présentées aléatoirement sur un écran d’ordinateur. Les participants recevaient soit RE ou AE. Une ligne de base et une phase de rétention étaient données avant et après chaque entrainement, et elles étaient utilisées pour évaluer et comparer l’effet immédiat de RE et AE sur le timing. Les résultats ont démontré que RE permet d’améliorer les erreurs de timing (p=0,03), mais pas AE (p=0,45). De plus, la comparaison entre les deux entrainements a démontré que RE était supérieur à AE pour améliorer le timing (p=0,04). Par ailleurs, une corrélation significative a été notée entre le côté de la lésion cérébrale et le changement des erreurs de timing suivant AE (r[indice inférieur pb]=0,70; p=0,001), mais pas RE (r[indice inférieur pb]=0,18; p=0,24). En d’autres mots, une détérioration de l’exécution de la tâche de timing a été notée pour les participants ayant leur lésion cérébrale à gauche. Par contre, ceux ayant leur lésion à droite ont bénéficié de l’entrainement par AE. Bref, l’entrainement par RE peut améliorer les erreurs de timing pour les survivants d’AVC au stade chronique. Toutefois, le côté de la lésion cérébrale semble jouer un rôle important dans la réponse à l’entrainement par AE. Ceci demeure à être exploré, ainsi que l’impact d’un entrainement par RE et AE de plus longue durée pour en déterminer leurs effets à long terme.
2

Approximation par éléments finis conformes et non conformes enrichis / Approximation by enriched conforming and nonconforming finite elements

Zaim, Yassine 11 September 2017 (has links)
L’enrichissement des éléments finis standard est un outil performant pour améliorer la qualité d’approximation. L’idée principale de cette approche est d’ajouter aux fonctions de base un ensemble de fonctions censées améliorer la qualité des solutions approchées. Le choix de ces dernières est crucial et est en grande partie basé sur la connaissance a priori de quelques informations telles que les caractéristiques de la solution, de la géométrie du problème à résoudre, etc. L’efficacité de cette approche pour résoudre une équation aux dérivées partielles dans un maillage fixe, sans avoir recours au raffinement, a été prouvée dans de nombreuses applications dans la littérature. La clé de son succès repose principalement sur le bon choix des fonctions de base et plus particulièrement celui des fonctions d’enrichissement. Une question importante se pose alors : quelles conditions faut-il imposer sur les fonctions d’enrichissement afin qu’elles génèrent des éléments finis bien définis ?Dans cette thèse sont abordés différents aspects d’une approche générale d’enrichissement d’éléments finis. Notre première contribution porte principalement sur l’enrichissement de l’élément fini du type Q_1. Par contre, notre seconde contribution, certainement la plus importante, met l’accent sur une approche plus générale pour enrichir n’importe quel élément fini qu’il soit P_k, Q_k ou autres, conformes ou non conformes. Cette approche a conduit à l’obtention des versions enrichies de l’élément de Han, l’élément de Rannacher-Turek et l’élément de Wilson, qui font maintenant partie des codes d’éléments finis les plus couramment utilisés en milieu industriel. Pour établir ces extensions, nous avons eu recours à l’élaboration de nouvelles formules de quadrature multidimensionnelles appropriées généralisant les formules classiques bien connues en dimension 1, dites du “point milieu,” des “trapèzes” et de leurs versions perturbées, ainsi que la formule de Simpson. Elles peuvent être vues comme des extensions naturelles de ces formules en dimension supérieure. Ces dernières, en plus de leurs tests numériques implémentés sous MATLAB, version R2016a, ont fait l’objet de notre troisième contribution. Nous mettons particulièrement l’accent sur la détermination explicite des meilleures constantes possibles apparaissant dans les estimations d’erreur pour ces formules d’intégration. Enfin, dans la quatrième contribution nous testons notre approche pour résoudre numériquement le problème d’élasticité linéaire à l’aide d’un maillage rectangulaire. Nous effectuons l’analyse numérique aussi bien l’analyse de l’erreur d’approximation et résultats de convergence que l’analyse de l’erreur de consistance. Nous montrons également comment cette dernière peut être établie à n’importe quel ordre, généralisant ainsi certains travaux menés dans le domaine. Nous réalisons la mise en œuvre de la méthode et donnons quelques résultats numériques établis à l’aide de la bibliothèque libre d’éléments finis GetFEM++, version 5.0. Le but principal de cette partie sert aussi bien à la validation de nos résultats théoriques, qu’à montrer comment notre approche permet d’élargir la gamme de choix des fonctions d’enrichissement. En outre, elle permet de montrer comment cette large gamme de choix peut aider à avoir des solutions optimales et également à améliorer la validité et la qualité de l’espace d’approximation enrichie. / The enrichment of standard finite elements is a powerful tool to improve the quality of approximation. The main idea of this approach is to incorporate some additional functions on the set of basis functions. These latter are requested to improve the accuracy of the approximate solution. Their best choice is crucial and is based on the knowledge of some a priori information, such as the characteristics of the solution, the geometry of the problem to be solved, etc. The efficiency of such an approach for finding numerical solutions of partial differential equations using a fixed mesh, without recourse to refinement, was proved in numerous applications in the literature. However, the key to its success lies mainly on the best choice of the basis functions, and more particularly those of enrichment functions.An important question then arises: How to suitably choose them, in such a way that they generate a well-defined finite element ?In this thesis, we present a general approach that enables an enrichment of the finite element approximation. This was the subject of our first contribution, which was devoted to the enrichment of the classical Q_1 element, as a first step. As a second step, in our second contribution, we have developed a more general framework for enriching any finite element either P_k, Q_k or others, conforming or nonconforming. As an illustration of how to use this framework to build new enriched finite elements, we have introduced the extensions of some well-known nonconforming finite elements, notably, Han element, Rannacher-Turek element and Wilson element, which are now part of the main code of finite element methods. To establish these extensions, we have introduced a new family of multivariate versions of the classical trapezoidal, midpoint and Simpson rules. These latter, in addition to their numerical tests under MATLAB, version R2016a, have been the subject of our third contribution. They may be viewed as an extension of the well-known trapezoidal, midpoint and Simpson’s one-dimensional rules to higher dimensions. We particularly pay attention to the explicit expressions of the best possible constants appearing in the error estimates for these cubatute formulas. Finally, in the fourth contribution we apply our approach to numerically solving the linear elasticity problem based on a rectangular mesh. We carry out the numerical analysis of the approximation error and also for the consistency error, and show how the latter can be established to any order. This constitutes a generalization of some work already done in the field. In addition to our theoretical results, we have also made some numerical tests, which were achieved by using the GetFEM++ library, version 5.0. The aim of this contribution was not only to confirm our theoretical predictions, but also to show how the new developed framework allows us to expand the range of choices of enrichment functions. Furthermore, we have shown how this wide choices range can help us to improve some approximation properties and to get the optimal solutions for the particular problem of elasticity.
3

Effets de la vigilance sur le contrôle de l'erreur chez l'homme : études comportementales et électrophysiologiques

Ramdani Beauvir, Céline 12 April 2013 (has links)
Nous avons étudié les effets de la baisse de la vigilance sur les mécanismes de contrôle de l'erreur lors d'une tâche de temps de réaction de choix (TR). Lors de la première expérience, la baisse de vigilance a été obtenue par un éveil prolongé de 26 heures. Dans les expériences deux et trois, on a diminué le niveau de vigilance par voie pharmacologique en choisissant de n'affecter qu'une des voies neurochimiques impliquées dans l'éveil (voie histaminergique puis voie dopaminergique) pour déterminer si les indices du contrôle de l'erreur seraient ou non affectés de la même façon qu'après un éveil prolongé. Si oui, cela supposerait un effet redondant des systèmes neurochimiques impliqués dans l'éveil sur le contrôle de l'erreur, dans le cas contraire, cela supposerait une influence spécifique de ces différents systèmes sur le contrôle de l'erreur. Le contrôle de l'erreur peut être décomposé en contrôle proactif et contrôle réactif. Ce contrôle de l'erreur est dit en ligne s'il opère au cours d'un essai, hors-ligne s'il s'opère d'un essai sur l'autre.La privation de sommeil affecte le contrôle de l'erreur proactif en ligne et le contrôle de l'erreur réactif. La baisse de l'activité histaminergique n'affecte que le contrôle de l'erreur réactif et on n'a pas mis en évidence d'effets de la déplétion dopaminergique sur le contrôle de l'erreur. Les effets observés sur le contrôle de l'erreur par la baisse de vigilance induite par la privation de sommeil n'étaient pas reproduits par la baisse de vigilance induite par les déplétions des activités dopaminergiques et histaminergiques, suggérant des influences spécifiques de ces deux voies sur le contrôle de l'erreur. / To study the impact of a vigilance decrease on error monitoring mechanisms in healthy participants, electromyogram and electroencephalogram were recorded during a choice reaction time task. The aim of experiment one was to decipher which indices of error monitoring at the behavioral and electrophysiological levels, were altered by sleep deprivation. In experiments two and three, decreases in vigilance were obtained through pharmacological treatments. We attempted to selectively inhibit one arousal system (either by acting on the histaminergic or on the dopaminergic pathway), so as to determine whether indices of error monitoring would be affected in the same way than after extended wakefulness. Proactive (implemented before an error execution) and reactive modes (implemented after an error execution) of error monitoring were distinguished. Within each mode, we further distinguished on-line (implemented within-trial) and off-line (between-trials) processes.Proactive off-line monitoring was unaffected by the decrease in vigilance, whether this caused by extended wakefulness, histaminergic depeltion or dopaminergic depletion). Sleep deprivation affected proactive on-line and off-line monitoring and reactive control. Histaminergic depletion affected only reactive control and reactive control seemed insensitive to dopaminergic depletion.As sleep deprivation, both histaminergic and dopaminergic depletion induced decrease in vigilance. However, effects of sleep deprivation on error monitoring were entirely reproduced neither by histaminergic nor by dopaminergic depletion, suggesting specific influences of the corresponding systems on error monitoring.
4

Outils statistiques pour le positionnement optimal de capteurs dans le contexte de la localisation de sources / Statistical tool for the array geometry optimization in the context of the sources localization

Vu, Dinh Thang 19 October 2011 (has links)
Cette thèse porte sur l’étude du positionnement optimale des réseaux de capteurs pour la localisation de sources. Nous avons étudié deux approches: l’approche basée sur les performances de l’estimation en termes d’erreur quadratique moyenne et l’approche basée sur le seuil statistique de résolution (SSR).Pour le première approche, nous avons considéré les bornes inférieures de l’erreur quadratique moyenne qui sont utilisés généralement pour évaluer la performance d’estimation indépendamment du type d’estimateur considéré. Nous avons étudié deux types de bornes: la borne Cramér-Rao (BCR) pour le modèle où les paramètres sont supposés déterministes et la borne Weiss-Weinstein (BWW) pour le modèle où les paramètres sont supposés aléatoires. Nous avons dérivé les expressions analytiques de ces bornes pour développer des outils statistiques afin d’optimiser la géométrie des réseaux de capteurs. Par rapport à la BCR, la borne BWW peut capturer le décrochement de l’EQM des estimateurs dans la zone non-asymptotique. De plus, les expressions analytiques de la BWW pour un modèle Gaussien général à moyenne paramétré ou à covariance matrice paramétré sont donnés explicitement. Basé sur ces expressions analytiques, nous avons étudié l’impact de la géométrie des réseaux de capteurs sur les performances d’estimation en utilisant les réseaux de capteurs 3D et 2D pour deux modèles des observations concernant les signaux sources: (i) le modèle déterministe et (ii) le modèle stochastique. Nous en avons ensuite déduit des conditions concernant les propriétés d’isotropie et de découplage.Pour la deuxième approche, nous avons considéré le seuil statistique de résolution qui caractérise la séparation minimale entre les deux sources. Dans cette thèse, nous avons étudié le SSR pour le contexte Bayésien moins étudié dans la littérature. Nous avons introduit un modèle des observations linéarisé basé sur le critère de probabilité d’erreur minimale. Ensuite, nous avons présenté deux approches Bayésiennes pour le SSR, l’une basée sur la théorie de l’information et l’autre basée sur la théorie de la détection. Ces approches pourront être utilisée pour améliorer la capacité de résolution des systèmes. / This thesis deals with the array geometry optimization problem in the context of sources localization. We have considered two approaches for the array geometry optimization: the performance estimation in terms of mean square error approach and the statistical resolution limit (SRL) approach. In the first approach, the lower bounds on the mean square error which are usually used in array processing to evaluate the estimation performance independently of the considered estimator have been considered. We have investigated two kinds of lower bounds: the well-known Cramér-Rao bound (CRB) for the deterministic model in which the parameters are assumed to be deterministic, and the Weiss-Weinstein bound (WWB) which is less studied, for the Bayesian model, in which, the parameters are assumed to be random with some prior distributions. We have proposed closed-form expressions of these bounds, which can be used as a statistical tool for array geometry design. Compared to the CRB, the WWB can predict the threshold effect of the MSE in the non-asymptotic area. Moreover, the closed-form expressions of the WWB proposed for a general Gaussian model with parameterized mean or parameterized covariance matrix can also be useful for other problems. Based on these closed-form expressions, the 3D array geometry and the classical planar array geometry have been investigated under (i) the conditional observation model in which the source signal is modeled as a deterministic sequence and under (ii) the unconditional observation model in which the source signal is modeled as a Gaussian random process. Conditions concerning the isotropic and uncoupling properties were then derived.In the second approach, we have considered the statistical resolution limit which characterizes the minimal separation between the two closed spaced sources which still allows to determine correctly the number of sources. In this thesis, we are interested in the SRL in the Bayesian context which is less studied in the literature. Based on the linearized observation model with the minimum probability of error, we have introduced the two Bayesian approaches of the SRL based on the detection and information theories which could lead to some interesting tools for the system design.
5

Performance bounds in terms of estimation and resolution and applications in array processing / Performances limites en termes d’estimation et de résolution et applications aux traitements d’antennes

Tran, Nguyen Duy 24 September 2012 (has links)
Cette thèse porte sur l'analyse des performances en traitement du signal et se compose de deux parties: Premièrement, nous étudions les bornes inférieures dans la caractérisation et la prédiction des performances en termes d'erreur quadratique moyenne (EQM). Les bornes inférieures de l'EQM donne la variance minimale qu'un estimateur peut atteindre et peuvent être divisées en deux catégories: les bornes déterministes pour le modèle où les paramètres sont supposés déterministes (mais inconnus), et les bornes Bayésiennes pour le modèle où les paramètres sont supposés aléatoires. En particulier, nous dérivons les expressions analytiques de ces bornes pour deux applications différentes: (i) La première est la localisation des sources en utilisant un radar multiple-input multiple-output (MIMO). Nous considérons les bornes inférieures dans deux contextes c'est-à-dire avec ou sans erreurs de modèle. (ii) La deuxième est l'estimation de phase d'impulsion de pulsars à rayon X qui est une solution potentielle pour la navigation autonome dans l'espace. Pour cette application, nous avons calculé plusieurs bornes inférieures de l'EQM dans le contexte de données modélisées par une loi de Poisson (complétant ainsi les travaux disponibles dans la littérature où les données sont modélisées par une loi gaussienne). Deuxièmement, nous étudions le seuil statistique de résolution limite (SRL), qui est la distance minimale en termes des paramètres d'intérêts entre les deux signaux permettant de séparer / estimer correctement les paramètres d'intérêt. Plus précisément, nous dérivons le SRL dans deux contextes: le traitement d'antenne et le radar MIMO en utilisant deux approches basées sur la théorie de l'estimation et sur la théorie de l'information. Finalement, nous proposons des expressions compactes du SRL dans le cas d'erreurs de modèle. / This manuscript concerns the performance analysis in signal processing and consists into two parts : First, we study the lower bounds in characterizing and predicting the estimation performance in terms of mean square error (MSE). The lower bounds on the MSE give the minimum variance that an estimator can expect to achieve and it can be divided into two categories depending on the parameter assumption: the so-called deterministic bounds dealing with the deterministic unknown parameters, and the so-called Bayesian bounds dealing with the random unknown parameter. Particularly, we derive the closed-form expressions of the lower bounds for two applications in two different fields: (i) The first one is the target localization using the multiple-input multiple-output (MIMO) radar in which we derive the lower bounds in the contexts with and without modeling errors, respectively. (ii) The other one is the pulse phase estimation of X-ray pulsars which is a potential solution for autonomous deep space navigation. In this application, we show the potential universality of lower bounds to tackle problems with parameterized probability density function (pdf) different from classical Gaussian pdf since in X-ray pulse phase estimation, observations are modeled with a Poisson distribution. Second, we study the statistical resolution limit (SRL) which is the minimal distance in terms of the parameter of interest between two signals allowing to correctly separate/estimate the parameters of interest. More precisely, we derive the SRL in two contexts: array processing and MIMO radar by using two approaches based on the estimation theory and information theory. We also present in this thesis the usefulness of SRL in optimizing the array system.
6

Prise en compte des erreurs de mesure dans l’analyse du risque associe a l’exposition aux rayonnements ionisants dans une cohorte professionnelle : application à la cohorte française des mineurs d'uranium / Taking into account measurement error in the analysis of risk associated with exposure to ionizing radiation in an occupational cohort : application to the French cohort of uranium miners.

Allodji, Setcheou Rodrigue 09 December 2011 (has links)
Dans les études épidémiologiques, les erreurs de mesure de l’exposition étudiée peuvent biaiser l’estimation des risques liés à cette exposition. Un grand nombre de méthodes de correction de l’effet de ces erreurs a été développé mais en pratique elles ont été rarement appliquées, probablement à cause du fait que leur capacité de correction et leur mise en œuvre sont peu maîtrisées. Une autre raison non moins importante est que, en l’absence de données répétées ou de données de validation, ces méthodes de correction exigent la connaissance détaillée des caractéristiques (taille, nature, structure et distribution) des erreurs de mesure. L’objectif principal de cette thèse est d’étudier l’impact de la prise en compte des erreurs de mesure dans les analyses du risque de décès par cancer du poumon associé à l’exposition au radon à partir de la cohorte française des mineurs d’uranium (qui ne dispose ni de données répétées, ni de données de validation). Les objectifs spécifiques étaient (1) de caractériser les erreurs de mesure associées aux expositions radiologiques (radon et ses descendants, poussières d’uranium et rayonnements gamma), (2) d’étudier l’impact des erreurs de mesure de l’exposition au radon et à ses descendants sur l’estimation de l’excès de risque relatif (ERR) de décès par cancer du poumon et (3) d’étudier et comparer la performance des méthodes de correction de l’effet de ces erreurs. La cohorte française des mineurs d’uranium comprend plus de 5000 individus exposés de manière chronique au radon et à ses descendants qui ont été suivis en moyenne pendant 30 ans. Les erreurs de mesure ont été caractérisées en prenant en compte l’évolution des méthodes d’extraction et de la surveillance radiologique des mineurs au fil du temps. Une étude de simulation basée sur la cohorte française des mineurs d’uranium a été mise en place pour étudier l’impact de ces erreurs sur l’ERR ainsi que pour comparer la performance des méthodes de correction. Les résultats montrent que les erreurs de mesure de l’exposition au radon et à ses descendants ont diminué au fil des années. Pour les premières années, avant 1970, elles dépassaient 45 % et après 1980 elles étaient de l’ordre de 10 %. La nature de ces erreurs a aussi changé au cours du temps ; les erreurs essentiellement de nature Berkson ont fait place à des erreurs de nature classique après la mise en place des dosimètres individuels à partir de 1983. Les résultats de l’étude de simulation ont montré que les erreurs de mesure conduisent à une atténuation de l’ERR vers la valeur nulle, avec un biais important de l’ordre de 60 %. Les trois méthodes de correction d’erreurs considérées ont permis une réduction notable mais partielle du biais d’atténuation. Un avantage semble exister pour la méthode de simulation extrapolation (SIMEX) dans notre contexte, cependant, les performances des trois méthodes de correction sont fortement tributaires de la détermination précise des caractéristiques des erreurs de mesure.Ce travail illustre l’importance de l’effet des erreurs de mesure sur les estimations de la relation entre l’exposition au radon et le risque de décès par cancer du poumon. L’obtention d’estimation de risque pour laquelle l’effet des erreurs de mesure est corrigé devrait s’avérer d’un intérêt majeur en support des politiques de protection contre le radon en radioprotection et en santé publique. / In epidemiological studies, measurement errors in exposure can substantially bias the estimation of the risk associated to exposure. A broad variety of methods for measurement error correction has been developed, but they have been rarely applied in practice, probably because their ability to correct measurement error effects and their implementation are poorly understood. Another important reason is that many of the proposed correction methods require to know measurement errors characteristics (size, nature, structure and distribution).The aim of this thesis is to take into account measurement error in the analysis of risk of lung cancer death associated to radon exposure based on the French cohort of uranium miners. The mains stages were (1) to assess the characteristics (size, nature, structure and distribution) of measurement error in the French uranium miners cohort, (2) to investigate the impact of measurement error in radon exposure on the estimated excess relative risk (ERR) of lung cancer death associated to radon exposure, and (3) to compare the performance of methods for correction of these measurement error effects.The French cohort of uranium miners includes more than 5000 miners chronically exposed to radon with a follow-up duration of 30 years. Measurement errors have been characterized taking into account the evolution of uranium extraction methods and of radiation protection measures over time. A simulation study based on the French cohort of uranium miners has been carried out to investigate the effects of these measurement errors on the estimated ERR and to assess the performance of different methods for correcting these effects.Measurement error associated to radon exposure decreased over time, from more than 45% in the early 70’s to about 10% in the late 80’s. Its nature also changed over time from mostly Berkson to classical type from 1983. Simulation results showed that measurement error leads to an attenuation of the ERR towards the null, with substantial bias on ERR estimates in the order of 60%. All three error-correction methods allowed a noticeable but partial reduction of the attenuation bias. An advantage was observed for the simulation-extrapolation method (SIMEX) in our context, but the performance of the three correction methods highly depended on the accurate determination of the characteristics of measurement error.This work illustrates the importance of measurement error correction in order to obtain reliable estimates of the exposure-risk relationship between radon and lung cancer. Corrected risk estimates should prove of great interest in the elaboration of protection policies against radon in radioprotection and in public health.
7

Impact des raies d'absorption telluriques sur la vélocimétrie de haute précision

Beauvais, Simon-Gabriel 05 1900 (has links)
Dans la recherche d’exoplanètes comme la Terre dans la zone habitable de leur étoile, la vélocimétrie radiale s’est avérée un outil important. Les candidats les plus intéressants pour faire ce genre de mesures sont les naines rouges, car la zone habitable se trouve proche de l’étoile et possède donc une courte période, et de par leurs faibles masses, l’orbite d’une planète comme la Terre induirait un signal de l’ordre de 1 ms^−1. L’effet Doppler résultant de ce mouvement est mesurable par des spectrographes optimisés pour la vélocimétrie de haute précision. Par contre, comme les naines rouges émettent principalement dans l’infrarouge et que l’atmosphère terrestre présente de fortes raies d’absorption dans ces longueurs d’onde, il est alors important de soustraire ces raies pour minimiser le biais de vitesse radiale de l’étoile induit par l’atmosphère. Le but de ce travail de maîtrise fut de développer un algorithme permettant de faire des mesures de vélocimétrie de haute précision dans le domaine infrarouge, de procéder à la quantification de l’impact des raies d’absorption telluriques et de déterminer une cible pour le niveau requis de retrait de ces raies. Une méthode de traitement de données basée sur l’analyse d’un spectre segmenté adéquatement pondéré fut aussi développée pour extraire optimalement la vitesse radiale en présence de raies telluriques résiduelles. On note l’existence d’une corrélation entre l’époque des mesures et l’incertitude de vitesse radiale associée avec les raies telluriques résiduelles ce qui souligne toute l’importance du choix de la fenêtre d’observation pour atteindre une précision de 1 ms^−1. De cette analyse, on conclut qu’un masque de 80% de transmission couplé avec un retrait laissant au maximum 10% des raies telluriques est requis pour atteindre des performances mieux que le ms^−1. / In the search for an exoplanet like Earth in the habitable zone of its star, radial velocimetry has proved itself an important tool. The most promising candidates for this type of measurements are red dwarfs. Since their habitable zone is very close to the star with relatively small orbital periods (a few weeks), and because of their small masses, the presence of an Earth-like planet in their habitable zone would produce a signal of ∼ 1 ms−1. Such a small Doppler effect resulting from this reflex motion is within the capabilities of precision radial velocity instruments. But, since red dwarfs emit mostly in the infrared and Earth’s atmosphere has strong absorption lines in that domain, the removal of telluric absorption lines is crucial to minimize the velocity bias induced by the atmosphere. The goal of this work was the development of an algorithm capable of performing high precision radial velocimetry measurements, to quantify the impact of telluric lines on the measurements and to determine the level of telluric line masking and attenuation needed to minimize their impact on velocity measurements. A data processing method based on the analysis of an adequately weighted segmented spectrum was also developed to optimally extract radial velocities in the presence of residual telluric lines. We note the existence of a correlation between the time of the measurements and the radial velocity uncertainty associated with the residual telluric lines, which underlines the importance of the choice of the observation window to achieve an accuracy of 1 meter per second. From this analysis, it is concluded that a mask of 80% transmission coupled with an attenuation leaving a maximum of 10% of the telluric lines is required to achieve performance better than 1 meter per second.
8

Analyse de performances en traitement d'antenne : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite / Performance analysis in array signal processing. : lower bounds on the mean square error and statistical resolution limit

El Korso, Mohammed Nabil 07 July 2011 (has links)
Ce manuscrit est dédié à l’analyse de performances en traitement d’antenne pour l’estimation des paramètres d’intérêt à l’aide d’un réseau de capteurs. Il est divisé en deux parties :– Tout d’abord, nous présentons l’étude de certaines bornes inférieures de l’erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l’étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d’observations). Puis, nous étudions d’autres bornes inférieures de l’erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l’erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).– Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c’est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une ”correcte” estimation des paramètres. Nous présentons quelques applications bien connues en traitement d’antenne avant d’étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d’hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d’observation multidimensionnels / This manuscript concerns the performance analysis in array signal processing. It can bedivided into two parts :- First, we present the study of some lower bounds on the mean square error related to the source localization in the near eld context. Using the Cramér-Rao bound, we investigate the mean square error of the maximum likelihood estimator w.r.t. the direction of arrivals in the so-called asymptotic area (i.e., for a high signal to noise ratio with a nite number of observations.) Then, using other bounds than the Cramér-Rao bound, we predict the threshold phenomena.- Secondly, we focus on the concept of the statistical resolution limit (i.e., the minimum distance between two closely spaced signals embedded in an additive noise that allows a correct resolvability/parameter estimation.) We de ne and derive the statistical resolution limit using the Cramér-Rao bound and the hypothesis test approaches for the mono-dimensional case. Then, we extend this concept to the multidimensional case. Finally, a generalized likelihood ratio test based framework for the multidimensional statistical resolution limit is given to assess the validity of the proposed extension.
9

Autonomous quantum error correction with superconducting qubits / Vers le calcul quantique tolérant à l’erreur adapté aux expériences en circuit QED

Cohen, Joachim 03 February 2017 (has links)
Dans cette thèse, nous développons plusieurs outils pour la Correction d’Erreur Quantique (CEQ) autonome avec les qubits supraconducteurs.Nous proposons un schéma de CEQ autonome qui repose sur la technique du « reservoir engineering », dans lequel trois qubits de type transmon sont couplés à un ou plusieurs modes dissipatifs. Grâce à la mise au point d’une interaction effective entre les systèmes, l’entropie créée par les éventuelles erreurs est évacuée à travers les modes dissipatifs.La deuxième partie de ce travail porte sur un type de code récemment développé, le code des chats, à travers lequel l’information logique est encodée dans le vaste espace de Hilbert d’un oscillateur harmonique. Nous proposons un protocole pour réaliser des mesures continues et non-perturbatrices de la parité du nombre de photons dans une cavité micro-onde, ce qui correspond au syndrome d’erreur pour le code des chats. Enfin, en utilisant les résultats précédents, nous présentons plusieurs protocoles de CEQ continus et/ou autonomes basés sur le code des chats. Ces protocoles offrent une protection robuste contre les canaux d’erreur dominants en présence de dissipation stimulée à plusieurs photons. / In this thesis, we develop several tools in the direction of autonomous Quantum Error Correction (QEC) with superconducting qubits. We design an autonomous QEC scheme based on quantum reservoir engineering, in which transmon qubits are coupled to lossy modes. Through an engineered interaction between these systems, the entropy created by eventual errors is evacuated via the dissipative modes.The second part of this work focus on the recently developed cat codes, through which the logical information is encoded in the large Hilbert space of a harmonic oscillator. We propose a scheme to perform continuous and quantum non-demolition measurements of photon-number parity in a microwave cavity, which corresponds to the error syndrome in the cat code. In our design, we exploit the strongly nonlinear Hamiltonian of a highimpedance Josephson circuit, coupling ahigh-Q cavity storage cavity mode to a low-Q readout one. Last, as a follow up of the above results, we present several continuous and/or autonomous QEC schemes using the cat code. These schemes provide a robust protection against dominant error channels in the presence of multi-photon driven dissipation.
10

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture / Characterization of mean squared error fundamental limitations in parameter estimation of signals with change-points

Bacharach, Lucien 28 September 2018 (has links)
Cette thèse porte sur l'étude des performances d'estimateurs en traitement du signal, et s'attache en particulier à étudier les bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture, afin de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), mais surtout du maximum a posteriori ou de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. Si l'on décide de concentrer nos efforts sur l'EQM des estimateurs comme indicateur de performance, un travail important autour des bornes inférieures de l'EQM a été réalisé ces dernières années. Plusieurs études ont ainsi permis de proposer des inégalités plus précises que la borne de Cramér-Rao. Ces dernières jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) dans un contexte d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l’EQM de la famille Weiss-Weinstein qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l’analyse spectrale et du traitement d’antenne. Nous fournissons une forme compacte de cette famille dans le cas d’un seul et de plusieurs points de ruptures puis, nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis des lois a priori utilisées dans nos modèles. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels. / This thesis deals with the study of estimators' performance in signal processing. The focus is the analysis of the lower bounds on the Mean Square Error (MSE) for abrupt change-point estimation. Such tools will help to characterize performance of maximum likelihood estimator in the frequentist context but also maximum a posteriori and conditional mean estimators in the Bayesian context. The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change points) lie on a discrete space. Consequently, the classical large sample theory results (e.g., asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood only are available in the mathematics literature but are currently of limited interest for practical signal processing problems. When the MSE of estimators is chosen as performance criterion, an important amount of work has been provided concerning lower bounds on the MSE in the last years. Then, several studies have proposed new inequalities leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and are able to handle estimators’ MSE behavior in both asymptotic and non-asymptotic areas. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation but, also, to provide an analysis in the non-asymptotic region. The tools used here will be the lower bounds of the Weiss-Weinstein family which are already known in signal processing to outperform the Cramér-Rao bound for applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change points and some extensions are given when the parameters of the distributions on each segment are unknown. An analysis in terms of robustness with respect to the prior influence on our models is also provided. Finally, we apply our results to specific problems such as: Gaussian data, Poisson data and exponentially distributed data.

Page generated in 0.0539 seconds