Spelling suggestions: "subject:"calibrage"" "subject:"calibragem""
31 |
Mesure inertielle pour l'analyse du mouvement humain. Optimisation des méthodologies de traitement et de fusion des données capteur, intégration anatomique / Inertial measurement for human motion analysis. Optimization of methodologies for processing and fusion of sensor data, anatomical integrationNez, Alexis 06 July 2017 (has links)
Face aux limites auxquelles doivent faire face les systèmes optoélectroniques (matériel lourd, champ de mesure limité), les capteurs inertiels constituent une alternative prometteuse pour la mesure du mouvement humain. Grâce aux dernières avancées techniques, notamment en termes de miniaturisation des capteurs, leur utilisation en ambulatoire c’est-à-dire de façon autonome et embarquée est devenue possible. Mais ces opérations de miniaturisation ne sont pas sans effet sur les performances de ces capteurs. En effet, une telle mesure est dégradée par différents types de perturbations (stochastiques et déterministes) qui sont alors propagées au cours du processus dit de fusion des données visant à estimer l'orientation des segments humains. Classiquement, cette opération est réalisée à l'aide d'un filtre de Kalman dont le rôle est justement d'estimer une grandeur à partir d'une mesure bruitée en la confrontant à un modèle d'évolution.Dans ce contexte, nous proposons diverses méthodologies dans le but d'accéder à une mesure suffisamment précise pour être exploitée dans le cadre de l'analyse du mouvement humain. La première partie de cette thèse se focalise sur les capteurs. Tout d'abord, nous étudions les bruits de mesure issus des capteurs inertiels, puis nous leur attribuons un modèle afin de les prendre en compte au sein du filtre de Kalman. Ensuite, nous analysons les procédures de calibrage et évaluons leurs effets réels sur la mesure afin d'émettre quelques propositions en termes de compromis performance/facilité de réalisation.Dans une seconde partie, nous nous consacrons à l'algorithme de fusion des données. Après avoir proposé un filtre de Kalman adapté à la mesure du mouvement humain, nous nous focalisons sur un problème récurrent à ce stade : l'identification des matrices de covariance dont le rôle est d'attribuer une caractérisation globale aux erreurs de mesure. Cette méthode, basée sur une confrontation de la mesure avec une référence issue d'un système optoélectronique, met en évidence la nécessité de traiter ce problème rigoureusement.Dans une troisième partie, nous commençons à aborder les problèmes liés à l'utilisation des capteurs inertiels pour la mesure du mouvement humain, notamment le calibrage anatomique et le positionnement des capteurs.En conclusion, les gains apportés par les diverses propositions avancées dans cette thèse sont évalués et discutés. / To face the limits of optoelectronic systems (heavy device, restricted measurement field), inertial sensors are a promising alternative for human motion analysis. Thanks to the latest technical advancements like sensor miniaturization, they can now work autonomously which makes possible to directly embed them on the human segments. But, as a counterpart of these developments, inertial sensor measurement still suffers from both stochastic and deterministic perturbations. The induced errors then propagate over the so-called fusion algorithm used to estimate human segment orientation. A common tool to perform such an operation is the Kalman filter that estimates unknown variables by correcting noisy measurements by the use of a dynamic model.With the aim of achieving a sufficiently accurate measurement to perform human motion analysis, various methodologies are proposed in the present work. The first part of this thesis focuses on the sensors. First, inertial sensor noises are studied and modeled in order to be integrated into the Kalman filter. Calibration processes as their effects over the measurement are for that purposed analyzed. Some recommendations are thus proposed to reach a compromise between calibration performance and complexity.In a second part, the data fusion algorithm is approached. A specific Kalman filter dedicated to human motion measurement is first proposed. Then, a recurrent problem is studied in details: the definition of the covariance matrix that represents a globalcharacterization of the measurement errors. Considering an optoelectronic system as a reference to compare inertial measurement, a method is proposed for this covariance matrix identification, which also highlights the need to address this problem rigorously.In a third part, we begin to address the use of inertial sensors for human motion analysis by focusing on models and IMU-to-segment calibration.To conclude, the benefits made by the proposed methodologies are evaluated and discussed.
|
32 |
Protocoles de mesure et de calibrage de champs électromagnétiques en vue de l'imagerie par diffraction d'objets faiblement enfouis / Electromagnetic fields measurement and calibration protocols for the shallowly buried objects imaging.Nounouh, Soufiane 22 October 2013 (has links)
Cette thèse est consacrée à la mise en place d'un système hyperfréquence dédié à l'imagerie du proche sous-sol. L'analyse de l'onde mesurée après interaction de l'onde incidente avec le milieu permet de remonter aux propriétés électromagnétiques de la structure illuminée. Ici, nous choisissons d'utiliser une seule fréquence en s'appuyant sur une configuration multistatique pour garantir une meilleure diversité de l'information.L'imagerie quantitative exige un calibrage minutieux des données mesurées après correction des erreurs expérimentales. Un calibrage a été donc proposé, basé sur la mesure du diagramme de rayonnement de chaque antenne. Celles-ci sont modélisées quantitativement en champ proche grâce à une combinaison de fils sources adéquatement optimisée. Ce calibrage, rapide et simple, ne nécessite pas d'objets de calibrage supplémentaires. Il a été d'abord testé dans le cas de la diffraction par des objets 2D en espace libre, puis dans le cas d'objets faiblement enfouis. Les champs calibrés servent de données d'entrée à des algorithmes d'inversion. En terme de localisation, les résultats obtenus sont très satisfaisants. Quant à la caractérisation, la configuration stratifiée apparaît bien moins propice que la configuration en espace libre, de part la faible quantité d'information disponible. Des changements ont été apportés à la configuration (différentes antennes avec ou sans orientation) dans l'optique d'améliorer le rapport signal à bruit. Bien que les reconstructions des permittivité soient encore perfectibles, les premiers résultats sont intéressants d'autant plus que les algorithmes n'exploitent aucune information a-priori sur la cible. / This thesis is devoted to the development of a microwave system dedicated to subsurface imaging applications. The analysis of the measured wave after the interaction with the medium allows to retrieve the electromagnetic properties of the probed structure. Here, we choose a single frequency operating mode combined with a multistatic configuration in order to improve the information diversity.Quantitative imaging requires a high-precision calibration of the measured data even after a careful correction of experimental errors. Thus, a calibration method is proposed, exploiting the measurement in free-space of the radiation pattern of each antenna. These patterns are quantitatively modeled thanks to an optimized linear combination of elementary sources positioned on the antenna's aperture. This simple and efficient calibration avoids additional measurements with calibration objects. This method provides successful results in a 2D free space scattering problem, as well as in the shallowly buried targets case.The calibrated data serve as inputs to inversion algorithms. As localization is concerned, very satisfactory detection results are obtained. Regarding the characterization aspects, the results indicate that the stratified configuration is less suitable than the free space configuration, due to its lack of spatial information. In order to improve the signal-to-noise ratio, some amendments are made to the experimental configuration (different antennas with or without orientation). Although the permittivity reconstructions are perfectible, the first results are promising especially since no a-priori on the targets has been inserted in the inversion algorithm so far.
|
33 |
Modeling and control of an upper extremity exoskeleton / Modélisation et commande d'un exosquelette du membre supérieurMoubarak, Salam 16 July 2012 (has links)
Ce travail présente le développement d’un robot exosquelette du membre supérieur pour des applications expérimentales dans le domaine des neurosciences. Le premier chapitre présente une description générale de l’anatomie du bras humain et introduit les principaux mouvements de l’épaule, du coude, et du poignet. Puis, l’état de l’art en matière d’exosquelettes et leurs différentes applications, fonctionnalités et limitations sont dressés. Le deuxième chapitre traite la conception mécanique et la plateforme électronique de notre prototype. Le calibrage et le traitement des signaux de commande et des retours codeurs sont abordés. Les modèles géométriques et cinématiques ainsi que les modèles dynamiques théoriques du robot sont calculés, simulés, et validés. Dans le troisième chapitre, la procédure d’identification des paramètres dynamiques de base du robot est présentée. Elle permet d’aboutir à une estimation du modèle dynamique réel utilisé dans la commande de l’exosquelette. Ensuite, une nouvelle méthode pour la compensation de gravité du robot est développée et validée, elle offre une alternative de commande plus simple et plus robuste et permet d’exécuter des manipulations dans un mode passif et transparent. Dans le dernier chapitre, la commande de l’exosquelette est abordée, trois stratégies de commande sont présentées, testées, et comparées. Une commande basée sur la compensation de la gravité et des frottements s’est avérée particulièrement appropriée pour nos manipulations. Puis, un protocole expérimental est mis au point pour un échantillon de douze personnes. Il permet l’évaluation des habilités visuelles et proprioceptives de l’homme à reconnaitre explicitement et implicitement ses propres mouvements reconstruits parmi d’autres. Enfin, une analyse statistique exhaustive des résultats est menée. Elle met en évidence une discrimination implicite entre les mouvements de soi et d’autrui, traduite par un avantage substantiel dans la reconnaissance des spécificités des mouvements reconstruits de soi par rapport à d’autrui. / This work presents the development of an upper extremity exoskeleton for experimental applications in the neuroscience field. The first chapter gives a general description of the anatomy of the human arm and introduces the major movements of the shoulder, elbow, and wrist joints. Then, the state of the art of exoskeletons and their different applications, features, and limitations are presented. The second chapter presents the mechanical design and the electronic platform our prototype. The calibration and signal processing procedures of the control and encoder feedback signals are discussed. The geometric, kinematic and dynamic models of the robot are calculated, simulated and validated. In the third chapter, the identification of the dynamic parameters of the robot is treated. It leads to an estimate of the real dynamic model employed in the control of the exoskeleton. Then, a new method for the gravity compensation of serial robots is developed and validated. It offers a simple and robust control alternative and the possibility to operate in a passive and transparent mode. In the last chapter, the control of the exoskeleton is addressed, three control strategies are presented, tested and compared. A control based on the gravity and friction compensation was particularly appropriate for our applications. Then, an experimental protocol is developed and applied on a sample of twelve persons. It allows the evaluation of the visual and proprioceptive abilities of humans to explicitly or implicitly recognize their own movements. Finally, an exhaustive statistical analysis of the results is conducted. It gives substantial evidence of an implicit discrimination between self and others’ movements manifested by a clear advantage in the recognition of the specificities of ones own movements reconstructed among others.
|
34 |
Construction de modèles 3D à partir de données vidéo fisheye : application à la localisation en milieu urbain / Construction of 3D models from fisheye video data—Application to the localisation in urban areaMoreau, Julien 07 June 2016 (has links)
Cette recherche vise à la modélisation 3D depuis un système de vision fisheye embarqué, utilisée pour une application GNSS dans le cadre du projet Predit CAPLOC. La propagation des signaux satellitaires en milieu urbain est soumise à des réflexions sur les structures, altérant la précision et la disponibilité de la localisation. L’ambition du projet est (1) de définir un système de vision omnidirectionnelle capable de fournir des informations sur la structure 3D urbaine et (2) de montrer qu’elles permettent d’améliorer la localisation.Le mémoire expose les choix en (1) calibrage automatique, (2) mise en correspondance entre images, (3) reconstruction 3D ; chaque algorithme est évalué sur images de synthèse et réelles. De plus, il décrit une manière de corriger les réflexions des signaux GNSS depuis un nuage de points 3D pour améliorer le positionnement. En adaptant le meilleur de l’état de l’art du domaine, deux systèmes sont proposés et expérimentés. Le premier est un système stéréoscopique à deux caméras fisheye orientées vers le ciel. Le second en est l’adaptation à une unique caméra.Le calibrage est assuré à travers deux étapes : l’algorithme des 9 points adapté au modèle « équisolide » couplé à un RANSAC, suivi d’un affinement par optimisation Levenberg-Marquardt. L’effort a été porté sur la manière d’appliquer la méthode pour des performances optimales et reproductibles. C’est un point crucial pour un système à une seule caméra car la pose doit être estimée à chaque nouvelle image.Les correspondances stéréo sont obtenues pour tout pixel par programmation dynamique utilisant un graphe 3D. Elles sont assurées le long des courbes épipolaires conjuguées projetées de manière adaptée sur chaque image. Une particularité est que les distorsions ne sont pas rectifiées afin de ne pas altérer le contenu visuel ni diminuer la précision. Dans le cas binoculaire il est possible d’estimer les coordonnées à l’échelle. En monoculaire, l’ajout d’un odomètre permet d’y arriver. Les nuages successifs peuvent être calés pour former un nuage global en SfM.L’application finale consiste dans l’utilisation du nuage 3D pour améliorer la localisation GNSS. Il est possible d’estimer l’erreur de pseudodistance d’un signal après multiples réflexions et d’en tenir compte pour une position plus précise. Les surfaces réfléchissantes sont modélisées grâce à une extraction de plans et de l’empreinte des bâtiments. La méthode est évaluée sur des paires d’images fixes géo-référencées par un récepteur bas-coût et un récepteur GPS RTK (vérité terrain). Les résultats montrent une amélioration de la localisation en milieu urbain. / This research deals with 3D modelling from an embedded fisheye vision system, used for a GNSS application as part of CAPLOC project. Satellite signal propagation in urban area implies reflections on structures, impairing localisation’s accuracy and availability. The project purpose is (1) to define an omnidirectional vision system able to provide information on urban 3D structure and (2) to demonstrate that it allows to improve localisation.This thesis addresses problems of (1) self-calibration, (2) matching between images, (3) 3D reconstruction ; each algorithm is assessed on computer-generated and real images. Moreover, it describes a way to correct GNSS signals reflections from a 3D point cloud to improve positioning. We propose and evaluate two systems based on state-of-the-art methods. First one is a stereoscopic system made of two sky facing fisheye cameras. Second one is the adaptation of the former to a single camera.Calibration is handled by a two-steps process: the 9-point algorithm fitted to “equisolid” model coupled with a RANSAC, followed by a Levenberg-Marquardt optimisation refinement. We focused on the way to apply the method for optimal and repeatable performances. It is a crucial point for a system composed of only one camera because the pose must be estimated for every new image.Stereo matches are obtained for every pixel by dynamic programming using a 3D graph. Matching is done along conjugated epipolar curves projected in a suitable manner on each image. A distinctive feature is that distortions are not rectified in order to neither degrade visual content nor to decrease accuracy. In the binocular case it is possible to estimate full-scale coordinates.In the monocular case, we do it by adding odometer information. Local clouds can be wedged in SfM to form a global cloud.The end application is the usage of the 3D cloud to improve GNSS localisation. It is possible to estimate and consider a signal pseudodistance error after multiple reflections in order to increase positioning accuracy. Reflecting surfaces are modelled thanks to plane and buildings trace fitting. The method is evaluated on fixed image pairs, georeferenced by a low-cost receiver and a GPS RTK receiver (ground truth). Study results show the localisation improvement ability in urban environment.
|
35 |
Road scene perception based on fisheye camera, LIDAR and GPS data combination / Perception de la route par combinaison des données caméra fisheye, Lidar et GPSFang, Yong 24 September 2015 (has links)
La perception de scènes routières est un domaine de recherche très actif. Cette thèse se focalise sur la détection et le suivi d’objets par fusion de données d’un système multi-capteurs composé d’un télémètre laser, une caméra fisheye et un système de positionnement global (GPS). Plusieurs étapes de la chaîne de perception sont ´ étudiées : le calibrage extrinsèque du couple caméra fisheye / télémètre laser, la détection de la route et enfin la détection et le suivi d’obstacles sur la route.Afin de traiter les informations géométriques du télémètre laser et de la caméra fisheye dans un repère commun, une nouvelle approche de calibrage extrinsèque entre les deux capteurs est proposée. La caméra fisheye est d’abord calibrée intrinsèquement. Pour cela, trois modèles de la littérature sont étudiés et comparés. Ensuite, pour le calibrage extrinsèque entre les capteurs,la normale au plan du télémètre laser est estimée par une approche de RANSAC couplée `a une régression linéaire `a partir de points connus dans le repère des deux capteurs. Enfin une méthode des moindres carres basée sur des contraintes géométriques entre les points connus, la normale au plan et les données du télémètre laser permet de calculer les paramètres extrinsèques. La méthode proposée est testée et évaluée en simulation et sur des données réelles.On s’intéresse ensuite `a la détection de la route à partir des données issues de la caméra fisheye et du télémètre laser. La détection de la route est initialisée `a partir du calcul de l’image invariante aux conditions d’illumination basée sur l’espace log-chromatique. Un seuillage sur l’histogramme normalisé est appliqué pour classifier les pixels de la route. Ensuite, la cohérence de la détection de la route est vérifiée en utilisant les mesures du télémètre laser. La segmentation de la route est enfin affinée en exploitant deux détections de la route successives. Pour cela, une carte de distance est calculée dans l’espace couleur HSI (Hue,Saturation, Intensity). La méthode est expérimentée sur des données réelles. Une méthode de détection d’obstacles basée sur les données de la caméra fisheye, du télémètre laser, d’un GPS et d’une cartographie routière est ensuite proposée. On s’intéresse notamment aux objets mobiles apparaissant flous dans l’image fisheye. Les régions d’intérêts de l’image sont extraites `a partir de la méthode de détection de la route proposée précédemment. Puis, la détection dans l’image du marquage de la ligne centrale de la route est mise en correspondance avec un modelé de route reconstruit `a partir des données GPS et cartographiques. Pour cela, la transformation IPM (Inverse Perspective Mapping) est appliquée à l’image. Les régions contenant potentiellement des obstacles sont alors extraites puis confirmées à l’aide du télémètre laser.L’approche est testée sur des données réelles et comparée `a deux méthodes de la littérature. Enfin, la dernière problématique étudiée est le suivi temporel des obstacles détectés `a l’aide de l’utilisation conjointe des données de la caméra fisheye et du télémètre laser. Pour cela, les resultats de détection d’obstacles précédemment obtenus sont exploit ´es ainsi qu’une approche de croissance de région. La méthode proposée est également testée sur des données réelles. / Road scene understanding is one of key research topics of intelligent vehicles. This thesis focuses on detection and tracking of obstacles by multisensors data fusion and analysis. The considered system is composed of a lidar, a fisheye camera and aglobal positioning system (GPS). Several steps of the perception scheme are studied: extrinsic calibration between fisheye camera and lidar, road detection and obstacles detection and tracking. Firstly, a new method for extinsic calibration between fisheye camera and lidar is proposed. For intrinsic modeling of the fisheye camera, three models of the literatureare studied and compared. For extrinsic calibration between the two sensors, the normal to the lidar plane is firstly estimated based on the determination of ń known ż points. The extrinsic parameters are then computed using a least square approachbased on geometrical constraints, the lidar plane normal and the lidar measurements. The second part of this thesis is dedicated to road detection exploiting both fisheye camera and lidar data. The road is firstly coarse detected considering the illumination invariant image. Then the normalised histogram based classification is validated using the lidar data. The road segmentation is finally refined exploiting two successive roaddetection results and distance map computed in HSI color space. The third step focuses on obstacles detection, especially in case of motion blur. The proposed method combines previously detected road, map, GPS and lidar information.Regions of interest are extracted from previously road detection. Then road central lines are extracted from the image and matched with road shape model extracted from 2DŋSIG map. Lidar measurements are used to validated the results.The final step is object tracking still using fisheye camera and lidar. The proposed method is based on previously detected obstacles and a region growth approach. All the methods proposed in this thesis are tested, evaluated and compared to stateŋofŋtheŋart approaches using real data acquired with the IRTESŋSET laboratory experimental platform.
|
36 |
Contributions à l'intégration vision robotique : calibrage, localisation et asservissementDornaika, Fadi 25 December 1995 (has links) (PDF)
Cette thèse concerne principalement l'intégration des fonctionnalités d'un système de vision avec celles d'un système robotique. Cette intégration apporte beaucoup d'avantages pour l'interaction d'un robot avec son environnement. Dans un premier temps, nous nous intéressons aux aspects de modélisation. Deux sujets liés à cette modélisation ont été traités : <br /> i) le calibrage caméra/pince et <br /> ii) la localisation caméra/objet. <br /> Pour le premier, nous proposons une méthode de calibrage non linéaire qui s'avère robuste en présence des erreurs de mesure ; pour le second, nous proposons une méthode linéaire très rapide et bien adaptée aux applications temps-réel puisqu'elle est basée sur des approximations successives par une projection para-perspective.<br /> Dans un deuxième temps, nous nous intéressons au contrôle visuel de robots. Nous adaptons la méthode "commande référencée capteur" à une caméra indépendante du robot asservi. De plus, dans le cas d'un positionnement relatif, nous montrons que le calcul de la position de référence ne dépend pas de l'estimation explicite des paramètres intrinsèques et extrinsèques de la caméra. Pour une tâche donnée, le problème de la commande peut alors se traduire sous la forme d'une régulation d'une erreur dans l'image. Nous montrons que la localisation temps-réel caméra/robot améliore le comportement dynamique de l'asservissement. Cette méthode de contrôle a été expérimentée dans la réalisation de tâches de saisie avec un robot manipulateur à six degrés de liberté. Toutes les méthodes proposées sont validées avec des mesures réelles et simulées.
|
37 |
Mise en correspondance d'images multimodales appliquée à la visée pédiculaire assistée par ordinateurMazier, Bruno 22 December 1992 (has links) (PDF)
.
|
38 |
Reconstruction 3D pour la volcanologie: apports d'une méthode multi-vues par photogrammétrie numériquececchi, emmanuelle 12 December 2003 (has links) (PDF)
La reconstruction 3D est un outil primordial en volcanologie : études morpho-structurales, déformation du sol, modélisation analogique. Une approche originale de reconstruction 3D spécifique aux applications volcanologiques a été développée. Basée sur l'utilisation de plusieurs images numériques acquises autour d'une surface, elle se décompose en deux étapes : (1) un calibrage précis du capteur optique (2) une reconstruction 3D reposant sur la déformation itérative d'un modèle 3D initial. La méthode a été développée et testée en laboratoire sur divers modèles analogiques. Les résultats montrent qu'elle constitue un outil de quantification souple et puissant permettant de détecter des variations fines de la morphologie. Des tests sur site réel ont aussi montré le potentiel important de la méthode dans le cadre de la surveillance volcanologique. L'approche, à la frontière entre Volcanologie et Vision par Ordinateur, offre une alternative aux méthodes classiquement utilisées.
|
39 |
Vision stéréoscopique et propriétés différentielles des surfacesDevernay, Frédéric 10 February 1997 (has links) (PDF)
Ce document traite de plusieurs aspects de la vision stéréoscopique par ordinateur. Cette méthode consiste à partir d'une ou de plusieurs paires d'images à " reconstruire " une scène observée en trois dimensions, c'est-à-dire à produire une description des objets et surfaces observés ainsi que leur position dans l'espace. Le premier problème abordé est celui du calibrage, dont l'objet est de calculer les paramètres des caméras (focale, centre optique, etc.) ainsi que leur position, soit à partir d'images d'objets de géométrie et de position connue, soit de manière automatique (on parle alors d'auto-calibrage). Des résultats nouveaux sont présentés sur l'auto-calibrage de la distorsion optique et sur l'auto-calibrage d'une paire de caméras rigidement liées à partir de plusieurs paires d'images. Ensuite sont présentées différentes méthodes permettant de rectifier les images de manière à simplifier la mise en correspondance, puis d'effectuer cette mise en correspondance par une technique de corrélation. Outre des améliorations des résultats classiques, de nouvelles méthodes permettant d'obtenir une plus grande précision sont discutées. La dernière phase, dite de reconstruction, permet d'obtenir une description des surfaces observée allant jusqu'aux propriétés différentielles d'ordre un et deux (plan tangent et courbures à la surface), à partir des résultats de stéréoscopie par corrélation. Ce document se termine par quelques applications réalisées au cours de ces recherches telles qu'un système d'aide chirurgicale pré-opératoire ou une caméra stéréo bon marché.
|
40 |
Étude du quark top avec ATLAS au LHC.<br />Mise en route du calorimètre électromagnétiqueResende, B. 15 May 2007 (has links) (PDF)
En 2007 aura lieu au CERN le démarrage du collisionneur LHC qui étudiera l'origine de la masse et cherchera les signes d'une nouvelle physique. L'expérience ATLAS en exploitera les potentialités avec un détecteur généraliste multicouches.<br />L'étude du quark top sera une étape importante : ses propriétés peuvent révéler une éventuelle nouvelle physique. Dans ce but, la polarisation du quark top et du boson W ont été étudiées avec une simulation détaillée du détecteur, dont les résultats confirment la simulation simplifiée. Ils indiquent une précision de 1 à 7 % avec 10 fb-1 de données, adéquate pour écarter ou retenir divers modèles de nouvelle physique.<br />Le calorimètre électromagnétique d'ATLAS est crucial pour l'observation des électrons et photons, et donc pour la recherche du boson de Higgs. Sa mise en route est illustrée ici par l'analyse des rampes reliant le calibrage au signal mesuré, ainsi qu'une analyse des muons cosmiques, premier test de la chaîne de lecture dans de vraies conditions de fonctionnement.
|
Page generated in 0.0368 seconds