Spelling suggestions: "subject:"imagerie"" "subject:"magerie""
391 |
Le développement du fonctionnement réflectif chez les enfants de 7 à 12 ansChiasson, Catherine 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Plusieurs chercheurs et cliniciens s'intéressent à la mentalisation et au fonctionnement réflectif (FR), mais peu de repères empiriques existent concernant son développement à l'âge scolaire. Cette étude vise à documenter le développement du FR chez des enfants de 7 à 12 ans et s'articule autour de deux objectifs. Le premier permet de décrire les scores de FR de 79 enfants et d'examiner le lien entre le FR et l'âge. Les résultats révèlent que l'âge est associée aux scores de FR (global, soi, et autres) et au potentiel réflectif (score le plus élevé), mais pas aux scores les moins élevés. Ils laissent ainsi entrevoir la possible influence de facteurs personnels (p.ex., inconfort intrapsychique) dans la compréhension des ruptures de mentalisation. La préadolescence (11-12 ans) semble également une période charnière pour le développement du FR. Afin de mieux se représenter le type de réponses attendues, le second objectif consiste en une analyse qualitative du discours de dix enfants évalués à deux reprises, à quelques années d'intervalle. Les stratégies de mentalisation utilisées et les façons de décrire leur personnalité et leur relation avec leurs parents sont documentées. L'analyse intra-sujet documente comment l'enfant évolue et l'analyse inter-sujets dégage les tendances générales selon l'âge. Somme toute, la description d'eux-mêmes et de leur relation avec leur parent s'avèrent surtout positives. La majorité des enfants manifestent des habiletés réflectives plus raffinées lors de leur seconde entrevue et les entrevues réalisées par des enfants plus âgés se démarquent sur plusieurs points. Les principaux constats sont présentés et discutés. En somme, l'étude contribue à enrichir la compréhension clinique et empirique du développement du FR à l'âge scolaire et offre aux intervenants des balises normatives pour l'évaluer. Considérant son effet protecteur, la mentalisation constitue une avenue intéressante à mettre de l'avant en psychothérapie, même avec des enfants d'âge scolaire.
|
392 |
Algorithmes de compression d'images hyperspectrales astrophysiquesVohl, Dany 19 April 2018 (has links)
SpIOMM, le Spectromètre imageur à transformée de Fourier de l’Observatoire du Mont-Mégantic génère des fichiers de taille imposante, de l’ordre de 700 Mo et SITELLE, son successeur génèrera des fichiers de l’ordre du Go. Puisque plusieurs fichiers peuvent être générés durant une nuit d’observation et que les astronomes ne sont pas toujours sur place pour effectuer leurs observations, ces fichiers apportent à la fois des besoins de stockage et de transfert de données. Afin de minimiser l’espace nécessaire à son stockage et de minimiser la bande passante et le temps de transfert nécessaire pour obtenir le fichier à distance, trois techniques de compression sont abordées. Les deux premières sont des techniques de compression sans perte et la troisième en est une avec perte. Les deux premières permettent d’obtenir de meilleurs taux de compression que les algorithmes génériques que sont zip et gzip2, avec des taux de compression de l’ordre de 1; 19 : 1 à 1; 22 : 1. La troisième permet des taux de compression allant jusqu’à un ratio de 64 : 1. Les effets des perte sont étudiés pour évaluer l’effet de la compression sur les mesures de photométrie et les analyses basées sur les spectres. / SpIOMM, the Imaging Fourier Transform Spectrometer of the Observatoire du Mont-Mégantic generates huge files of about 700 MB per file on average, and SITELLE, its successor will generate files of a few GB. Since several files can be generated during an observation night and the astronomers are not always on-site, there is an increasing need for both storage and transmission. To minimize storage space, bandwidth use and transmission time, three data compression techniques are presented. The first two techniques are lossless data compression and the third one is lossy. The lossless techniques give better results than generic techniques that are zip and gzip2, with compression ratios varying from 1:19 : 1 to 1:22 : 1. The lossy technique compresses files up to a 64 : 1 ratio. The effect of the lossy process on the photometric measurements and the spectra analysis is also studied.
|
393 |
Prise autonome d'objets divers avec un robot sériel industriel, un préhenseur sous-actionné et une caméra 3DLévesque, François 24 April 2018 (has links)
Longtemps confinée à l'industrie de fabrication en série, la robotique est en train de se démocratiser et fait ses débuts dans des domaines non traditionnels comme les secteurs alimentaire et logistique. Dans ce contexte, une tâche faisant l'objet de recherches et concours est l'automatisation de l'emballage de colis dans de grands entrepôts contenant plusieurs centaines de milliers d'objets différents. Les travaux entrepris dans le cadre de ce mémoire constituent un premier pas vers l'atteinte de cet objectif : la prise et le dépôt par un robot autonome d'une grande variété d'objets de la vie courante sans connaissance préalable de ces derniers (modèle 3D complet, etc.). Pour réaliser ce projet, un robot sériel, une pince sous-actionnée et un système de vision 3D ont été utilisés. Deux techniques de prise d'objets furent développées pour arriver à agripper un maximum d'objets. La première est une prise par le dessus. Le point de prise utilisé y est choisi en fonction de la largeur de l'objet au point de prise, des chances de collisions avec les obstacles environnants et de la robustesse de l'équilibre statique anticipé de la prise. Pour attraper les objets trop larges ou minces pour être pris par le dessus (comme un livre), une technique de prise en pelletage fut développée. Cette dernière tire avantage du sous-actionnement de la pince utilisée pour glisser un doigt sous l'objet puis le prendre en pincée. Un mouvement analogue est celui d'un humain prenant une feuille sur un plancher. Pour tester ces techniques, une batterie de 800 essais de prise sur 80 objets différents fut effectuée. Un taux de succès de 84 % fut obtenu, démontrant que le système forme une bonne base pour l'avenir.
|
394 |
Développement d'un système d'imagerie microscopique pour l'observation des micro-organismes dans la glace de merLessard-Hamel, Béatrice 01 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles. / L'obtention d'un aperçu microscopique de la structure interne et de la biologie de la glace de mer a traditionnellement été limitée à des méthodes d'échantillonnage destructives et intrusives par carottes de glace. Dans cette étude, nous présenterons un système révolutionnaire d'imagerie microscopique in situ conçu pour étudier les microstructures internes et les micro-organismes présents dans la glace de mer, sans avoir recours aux techniques d'échantillonnage conventionnelles. Ce nouveau système offre une vue inédite en temps réel de la vie dans cet environnement unique. La nature complexe et hétérogène de la glace de mer, avec sa matrice de glace, ses canaux de saumure, ses bulles d'air et ses diverses impuretés, a posé de nombreux défis d'ingénierie pour la mise au point de ce système d'imagerie. Le système développé est un microscope de terrain à multi-illumination et à géométrie d'imagerie réflective. Nous avons effectué des tests de validation dans la glace de mer de première année entre le 20 avril et le 3 mai 2023 dans la baie de Baffin. Malgré la fragilité inhérente à la matrice de la glace de mer, notre système d'imagerie nous a permis de capturer des images de microstructures et de micro-organismes avec des détails satisfaisants. La conception matérielle et logicielle de l'endoscope est présentée ainsi que les résultats de l'acquisition des images de la microstructure et de micro-organismes. Ces résultats démontrent collectivement le potentiel de ce nouveau système d'imagerie microscopique in situ à révolutionner la façon dont nous étudions la glace de mer et à fournir une compréhension plus approfondie de ses microstructures complexes et de ses micro-organismes vivants. Cette innovation recèle un immense potentiel pour faire progresser notre compréhension de la dynamique écologique, des processus biogéochimiques et des adaptations des micro-organismes dans la glace de mer. / Gaining microscopic insight into the internal structure and biology of sea ice has traditionally been limited to destructive and intrusive ice core sampling methods. In this study, we introduce a groundbreaking in situ microscopic imaging system designed to study the internal micro-structures and microorganisms within sea ice, all without the need for conventional sampling techniques. This novel system offers a never-before-seen real-time view of life within this unique environment. The complex and heterogeneous nature of sea ice, including its water crystal lattice, brine channels, air bubbles, and various impurities, presented numerous engineering challenges for developing this imaging system. The developed system is a field microscope with multi-illumination and *en-face* geometry. We conducted validations tests in first-year Arctic interior sea ice between April 20th and May 3rd 2023 in Baffin Bay. Despite the inherent fragility of the sea-ice matrix, our imaging system allowed us to capture images of microstructures and biota in satisfying detail. The hardware and software design of the endoscope are presented along with acquisition results of the microstructure and biota images. These findings collectively demonstrate the potential for this new in situ microscopy imaging system to revolutionize the way we study sea ice and provide a deeper understanding of its complex microstructures and living microorganisms. This innovation holds immense potential for advancing our understanding of ecological dynamics, biogeochemical processes, and microorganism adaptations in sea ice environments.
|
395 |
Analyse et modélisation de la surface corticale et de l'architecture sous-jacente des axonesSt-Onge, Etienne January 2016 (has links)
L'imagerie par résonance magnétique (IRM) est la seule technique non invasive d'imagerie médicale qui permet la reconstruction de l'architecture neuronale du cerveau. Cette approche est fondamentale pour le domaine des neurosciences, qui tente continuellement de développer de nouveaux outils et modèles pour mieux détecter et étudier les maladies mentales et neurodégénératives, les troubles du développement, les tumeurs, les commotions, ainsi que plusieurs autres pathologies du cerveau humain. L'IRM de diffusion (IRMd) combinée à la tractographie rend possible l'extraction de l'information structurelle sur les fibres nerveuses. Ces méthodes permettent de visualiser, d'analyser et d'évaluer l'intégrité de la matière blanche, ceci afin d'identifier la présence d'anomalies le long des axones, causées par la démyélinisation, la mort axonale ou d'autres détériorations. La problématique est que ces méthodes ont une faible résolution comparée à une surface ou une image anatomique IRM. L'IRMd est limitée par son faible rapport signal sur bruit (SNR) et l'effet de volume partiel causé par la discrétisation. Certains modèles géométriques ont récemment été utilisés pour mieux modéliser l'expansion corticale, la topologie des plis corticaux et l'organisation des couches de la matière grise. Toutefois, ces modèles fournissent seulement de l'information sur l'organisation du cortex et non pas sur la matière blanche comme telle, ni sur la structure des neurones. Cette recherche vise à modéliser la structure complexe des fibres de la matière blanche à l'aide d'équations différentielles et de flots géométriques. Ce mémoire présente différents modèles mathématiques (surface et flot) ainsi que leur intégration avec la méthode des différences finies. Nous proposons également d'utiliser un maillage de la surface corticale afin d'améliorer la précision de l'IRMd et de limiter l'effet de volume partiel. Validée qualitativement et quantitativement avec l'aide d'acquisitions hautes résolutions du Human Connectome Project (HCP) et d'un jeu de données de reproductibilité de test-retest, cette méthode permet d'améliorer la tractographie. Les résultats de ces travaux permettront de faire le pont entre l'imagerie de diffusion (IRMd) et les modalités propres à l'imagerie fonctionnelle (EEG, MEG, IRMf et TMS), pour lesquelles la structure des axones situés sous le cortex est essentielle pour bien modéliser et comprendre le fonctionnement cérébral.
|
396 |
Sources of contrast and acquisition methods in functional MRI of the Human BrainDenolin, Vincent 08 October 2002 (has links)
<p align="justify">L'Imagerie fonctionnelle par Résonance Magnétique (IRMf) a connu un développement important depuis sa découverte au début des années 1990. Basée le plus souvent sur l'effet BOLD (Blood Oxygenation Level Dependent), cette technique permet d'obtenir de façon totalement non-invasive des cartes d'activation cérébrale, avec de meilleures résolutions spatiale et temporelle que les méthodes préexistantes telles que la tomographie par émission de positrons (TEP). Facilement praticable au moyen des imageurs par RMN disponible dans les hôpitaux, elle a mené à de nombreuses applications dans le domaine des neurosciences et de l'étude des pathologies cérébrales.</p>
<p align="justify">Il est maintenant bien établi que l'effet BOLD est dû à une augmentation de l'oxygénation du sang veineux dans les régions du cerveau où se produit l'activation neuronale, impliquant une diminution de la différence de susceptibilité magnétique entre le sang et les tissus environnants (la déoxyhémoglobine étant paramagnétique et l'oxyhémoglobine diamagnétique), et par conséquent un augmentation du signal si la méthode d'acquisition est sensible aux inhomogénéités de champ magnétique. Cependant, il reste encore de nombreuses inconnues quant aux mécanismes liant les variations d'oxygénation, de flux et de volume sanguin à l'augmentation de signal observée, et la dépendance du phénomène en des paramètres tels que l'intensité du champ, la résolution spatiale, et le type de séquence de RMN utilisée. La première partie de la thèse est donc consacrée à l'étude de l'effet BOLD, dans le cas particulier des contributions dues aux veines de drainage dans les séquences de type écho de gradient rendues sensibles au mouvement par l'ajout de gradients de champ. Le modèle développé montre que, contrairement au comportement suggéré par de précédentes publications, l'effet de ces gradients n'est pas une diminution monotone de la différence de signal lorsque l'intensité des gradients augmente. D'importantes oscillations sont produites par l'effet de phase dû au déplacement des spins du sang dans les gradients additionnels, et par la variation de cette phase suite à l'augmentation du flux sanguin. La validation expérimentale du modèle est réalisée au moyen de la séquence PRESTO (Principles of Echo-Shifting combined with a Train of Observations), c'est-à-dire une séquence en écho de gradient où des gradients supplémentaires permettent d'augmenter la sensibilité aux inhomogénéités de champ, et donc à l'effet BOLD. Un accord qualitatif avec la théorie est établi en montrant que la variation de signal observée peut augmenter lorsqu'on intensifie les gradients additionnels.</p>
<p align="justify">Un autre source de débat continuel dans le domaine de l'IRMf réside dans l'optimalisation des méthodes d'acquisition, au point de vue notamment de leur sensibilité à l'effet BOLD, leurs résolutions spatiale et temporelle, leur sensibilité à divers artefacts tels que la perte de signal dans les zones présentant des inhomogénéités de champ à grande échelle, et la contamination des cartes d'activation par les contributions des grosses veines, qui peuvent être distantes du lieu d'activation réel. Les séquences en écho de spin sont connues pour être moins sensibles à ces deux derniers problèmes, c'est pourquoi la deuxième partie de la thèse est consacrée à une nouvelle technique permettant de donner une pondération T2 plutôt que T2* aux images. Le principe de base de la méthode n'est pas neuf, puisqu'il s'agit de la « Préparation T2 » (T2prep), qui consiste à atténuer l'aimantation longitudinale différemment selon la valeur du temps de relaxation T2, mais il n’avait jamais été appliqué à l’IRMf. Ses avantages par rapport à d’autres méthodes hybrides T2 et T2* sont principalement le gain en résolution temporelle et en dissipation d’énergie électromagnétique dans les tissus. Le contraste généré par ces séquences est étudié au moyen de solutions stationnaires des équations de Bloch. Des prédictions sont faites quant au contraste BOLD, sur base de ces solutions stationnaires et d’une description simplifiée de l’effet BOLD en termes de variations de T2 et T2*. Une méthode est proposée pour rendre le signal constant au travers du train d’impulsions en faisant varier l’angle de bascule d’une impulsion à l’autre, ce qui permet de diminuer le flou dans les images. Des expériences in vitro montrent un accord quantitatif excellent avec les prédictions théoriques quant à l’intensité des signaux mesurés, aussi bien dans le cas de l’angle constant que pour la série d’angles variables. Des expériences d’activation du cortex visuel démontrent la faisabilité de l’IRMf au moyen de séquences T2prep, et confirment les prédictions théoriques quant à la variation de signal causée par l’activation.</p>
<p align="justify"> La troisième partie de la thèse constitue la suite logique des deux premières, puisqu’elle est consacrée à une extension du principe de déplacement d’écho (echo-shifting) aux séquences en écho de spin à l’état stationnaire, ce qui permet d’obtenir une pondération T2 et T2* importante tout en maintenant un temps de répétition court, et donc une bonne résolution temporelle. Une analyse théorique approfondie de la formation du signal dans de telles séquences est présentée. Elle est basée en partie sur la technique de résolution des équations de Bloch utilisée dans la deuxième partie, qui consiste à calculer l’aimantation d’état stationnaire en fonction des angles de précession dans le plan transverse, puis à intégrer sur les isochromats pour obtenir le signal résultant d’un voxel (volume element). Le problème est aussi envisagé sous l’angle des « trajectoires de cohérence », c’est-à-dire la subdivision du signal en composantes plus ou moins déphasées, par l’effet combiné des impulsions RF, des gradients appliqués et des inhomogénéités du champ magnétique principal. Cette approche permet d’interpréter l’intensité du signal dans les séquences à écho déplacé comme le résultat d’interférences destructives entre diverses composantes physiquement interprétables. Elle permet de comprendre comment la variation de la phase de l’impulsion d’excitation (RF-spoiling) élimine ces interférences. Des expériences in vitro montrent un accord quantitatif excellent avec les calculs théoriques, et la faisabilité de la méthode in vivo est établie. Il n’est pas encore possible de conclure quant à l’applicabilité de la nouvelle méthode dans le cadre de l’IRMf, mais l’approche théorique proposée a en tout cas permis de revoir en profondeur les mécanismes de formation du signal pour l’ensemble des méthodes à écho déplacé, puisque le cas de l’écho de gradient s’avère complètement similaire au cas de l’écho de spin.</p>
<p align="justify">La thèse évolue donc progressivement de la modélisation de l’effet BOLD vers la conception de séquences, permettant ainsi d’aborder deux aspects fondamentaux de la physique de l’IRMf.</p>
|
397 |
Banc microfluidique d’histologie IRM pour la modélisation in vitro du marquage moléculaire : effet du choix du marqueur et du champ magnétique sur les seuils de détection / Microfluidic bench for histological MRI to model in vitro molecular imaging : effect of the choice of the contrast agent and the magnetic field on the detection limitsGargam, Nicolas 12 July 2012 (has links)
Dans la foulée des avancées en médecine nucléaire, l’imagerie moléculaire par résonance magnétique a pris son essor ces dernières années car elle constitue un enjeu contemporain en vue d’améliorer le diagnostic et le suivi thérapeutique de pathologies comme le cancer ou la maladie d’Alzheimer. Cependant, cette technique d’imagerie médicale souffre à la fois de la petite quantité de récepteurs disponibles in vivo et de la faible sensibilité de l’IRM pour la détection d’agents de contraste exogènes. De ce fait, la littérature montre un intérêt croissant pour le développement de nouveaux agents de contraste pouvant porter plusieurs milliers de contrastophores et de nouvelles techniques sont nécessaires pour évaluer l’efficacité de ces derniers. Ainsi, lorsqu’un agent de contraste fonctionnalisé est injecté in vivo, ce dernier va subir de nombreux processus biochimiques (extravasation, fixation spécifique sur les récepteurs, internalisation dans les cellules…) qui peuvent rendre les mécanismes de prise de contraste difficile à appréhender. De ce fait, nous avons développé une nouvelle méthode in vitro d’observation cellulaire permettant de caractériser les agents de contraste par IRM en modélisant expérimentalement certains des mécanismes ayant lieu in vivo, tout en s’affranchissant des problèmes liées à l’expérimentation sur petit animal (résolution, Rapport signal sur bruit, reproductibilité inter-animale,…). Notre approche a reposé sur la conception d’un dispositif de microhistologie par IRM qui permet de détecter une monocouche de cellules d’une dizaine de microns d’épaisseur dans un environnement microfluidique. Après avoir totalement caractérisé notre méthode avec des cellules ayant internalisé un agent de contraste commercial (Dotarem), nous l’avons utilisé pour évaluer la capture dynamique d’un nouvel agent de contraste développé à Guerbet : une émulsion paramagnétique fonctionnalisée avec des peptides RGD destinée à l’imagerie de l’angiogénèse tumorale. Dans un canal microfluidique, nous avons préparé une monocouche confluente de cellules endothéliales et appliqué un flux d’agent de contraste au-dessus de ces dernières. Par IRM, nous avons pu réaliser un suivi dynamique de la capture de l’agent de contraste par les récepteurs membranaires des cellules. En plus de démontrer la spécificité de l’agent de contraste comme le font les méthodes traditionnelles, notre technique nous a permis d’évaluer les constante cinétiques d’association et de dissociation et la constante d’affinité de l’agent de contraste pour les récepteurs dans des conditions physiologiques proches de celles existant in vivo, notamment en termes de disposition des cellules et de la vitesse et de la concentration de l’agent de contraste. / Following the recent advances in nuclear medicine, magnetic resonance imaging has rapidly become an emerging technique for molecular imaging since it constitutes a contemporary issue for the improvement of the diagnosis and the post-treatment follow-up of pathologies such as cancer and Alzheimer’s disease. However, this technique suffers from both the weak amount of in vivo receptors and the low sensitivity of MRI for the detection of exogenous contrast agents. Thus, the literature shows an increasing interest for the development of novel contrast agents which can carry several thousands of contrastophores and new techniques are needed to evaluate the efficiency of these contrast agents. Indeed, when a targeted contrast agent is injected intraveneously, many biochemical process can occur simultaneously (extravasation, specific binding on receptors, internalization inside cells, …), which can make the contrast uptake mechanisms difficult to investigate. Hence, we developed a new method of cellular observation allowing to characterize the contrast agent by MRI, by imitating some of the in vitro mechanisms that occur in vivo. Using this technique, we also avoided problems that are linked to the experimentation on small animal in terms of resolution, signal to noise ratio and inter-animal reproducibility.Our approach was based on the design and fabrication of a microhistological device that allows to detect a living cells’ monolayer - whose thickness is above 10 microns - in a microfluidic environment. After having fully characterized our method with cells that had internalized a commercial contrast agent (Dotarem), we used it to evaluate the dynamic uptake of a new contrast agent developed and synthetized in Guerbet : a paramagnetic nanoemulsion functionalized with RGD peptides to target the avb3 integrins that play a capital role in the tumor angiogenesis process. In a microfluidic channel, we prepared an endothelial cell monolayer and applied a flow of contrast agent over the cell layer. We were able to follow-up by MRI the uptake of the contrast agent by the cell surface receptors. Besides demonstrating the specificity of the contrast agent as well as traditional in vitro techniques, our technique provides an additional information level since it is able to evaluate the kinetic constants and the affinity of the contrast agents toward the receptors. These experiments were done under physiological conditions close to the ones existing in vivo in terms of cell arrangement, concentration and flow velocity of the contrast agent.
|
398 |
Etude et développement de tableaux non diffractants pour la conception de systèmes imageurs spécialisés / Analysis and development of non diffracting arrays for the design of specialized imaging systemsPiponnier, Martin 17 December 2012 (has links)
La capacité actuelle d’accéder à des détecteurs très performants et de faible coût amène la communauté des concepteurs de systèmes optiques à un changement de paradigme. Plutôt que de réaliser des caméras généralistes, aptes à réaliser un grand nombre de missions d’observation différentes, il est maintenant de plus en plus courant de développer des systèmes imageurs adaptés à une seule mission et/ou à une seule classe d’objets. Prendre en compte ces connaissances a priori sur la scène et la mission, au moment de la conception, permet d’envisager des systèmes plus simples, mais aussi dotés de nouvelles compétences. L'objectif de la thèse est d'explorer les potentialités des tableaux non diffractants pour la conception de systèmes imageurs spécialisés. Pour cette étude nous considérons l'environnement des drones aéroportés de faible capacité d'emport pour lesquels les systèmes imageurs embarqués doivent être simples et robustes. Nous considérons de plus que la mission du système imageur est de détecter les obstacles. Pour cela, il doit délivrer une information 3D sur la scène observée. Dans un premier temps, j'ai analysé les propriétés d'imagerie du système imageur constitué d'un composant non diffractant et d'un détecteur matriciel. L'analyse comparative de deux composants, l'axicon et le tableau non diffractant, m'a permis de montrer que c'est le second composant qui est le mieux adapté pour remplir ce type de mission. J'ai ensuite réalisé un système imageur de démonstration, ce qui m'a permis au final de mettre en évidence sa capacité à faire de l'imagerie 3D. Cette étude a montré que les tableaux non diffractants ont un très fort potentiel pour réaliser un système imageur simple, robuste et dédié à l'imagerie 3D. Ce travail doit être poursuivi en partenariat avec des industriels pour appliquer la démarche de conception à une mission précise et transformer ce travail théorique en un système industrialisable. / Currently, detectors with high performances and a low cost are available and lead the community of optical designers to a new paradigm. Instead of designing generalist cameras, suitable for fulfilling a high number of different observation missions, it is now more and more common to develop imaging systems adapted to a unique mission and/or a unique object class. Taking this a priori knowledge on the observed scene or on the mission into account, at the beginning of the design process, allows us to consider simpler imaging systems with new properties. The aim of this thesis is to investigate the possibilities of nondiffracting array for the design of specialized imaging systems. For this study we consider the environment of unmanned aerial vehicles with a small payload capacity, for which embedded imaging systems must be simple and robust. We consider in addition that the mission of the imaging system is to detect obstacles. To do this, it must provide a 3D information on the observed scene. At first, I have analysed the properties of the imaging system composed by a nondiffracting optical device and a focal plane array. The comparison between two devices, axicon and nondiffracting arrays, allowed me to show that the second one is best suited for achieving this kind of mission. Then, I have made a practical implementation of such an imaging system. Finally, I have used it to demonstrate the 3D imaging property. This study has demonstrated the potential of nondiffracting array to design a simple and robust imaging system dedicated to 3D imaging. This work must be continued in partnership with the industry to apply the co-design process to a more precise mission, transforming this way this theoretical work into an industrial prototype.
|
399 |
Imagerie sans lentille 3D pour la culture cellulaire 3D / 3D lens-free imaging of 3D cell cultureBerdeu, Anthony 16 November 2017 (has links)
Ce travail de thèse se situe à l’interface de deux domaines : la culture cellulaire en trois dimensions et l’imagerie sans lentille.Fournissant un protocole de culture cellulaire plus réaliste sur le plan physiologique, le passage des cultures monocouches (2D) à des cultures tridimensionnelles (3D) - via l’utilisation de gels extracellulaires dans lesquels les cellules peuvent se développer dans les trois dimensions - permet de faire de grandes avancées dans de nombreux domaines en biologie tels que l’organogénèse, l’oncologie et la médecine régénérative. Ces nouveaux objets à étudier crée un besoin en matière d’imagerie 3D.De son côté, l’imagerie sans lentille 2D fournit un moyen robuste, peu cher, sans marquage et non toxique, d’étudier les cultures cellulaires en deux dimensions sur de grandes échelles et sur de longues périodes. Ce type de microscopie enregistre l’image des interférences produites par l’échantillon biologique traversé par une lumière cohérente. Connaissant la physique de la propagation de la lumière, ces hologrammes sont rétro-propagés numériquement pour reconstruire l’objet recherché. L’algorithme de reconstruction remplace les lentilles absentes dans le rôle de la formation de l’image.Le but de cette thèse est de montrer la possibilité d’adapter cette technologie sans lentille à l’imagerie des cultures cellulaires en 3D. De nouveaux prototypes de microscopes sans lentille sont conçus en parallèle du développement d’algorithmes de reconstructions tomographiques dédiés.Concernant les prototypes, plusieurs solutions sont testées pour converger vers un schéma alliant deux conditions. La première est le choix de la simplicité d’utilisation avec une culture cellulaire en boîte de Petri standard et ne nécessitant aucune préparation spécifique ou aucun changement de contenant. Cette condition entraînant de fortes contraintes géométriques sur l’architecture, la deuxième est de trouver la meilleure couverture angulaire possible des angles d’éclairage. Enfin, une version adaptée aux conditions en incubateur est développée et testée avec succès.Concernant les algorithmes, quatre types de solutions sont proposés, basées sur le théorème de diffraction de Fourier classiquement utilisé en tomographie diffractive optique. Toutes cherchent à corriger deux problèmes inhérents au microscope sans lentille : l’absence de l’information de phase, le capteur n’étant sensible qu’à l’intensité de l’onde reçue, et la couverture angulaire limitée. Le premier algorithme se limite à remplacer la phase inconnue par celle d’une onde incidente plane. Rapide, cette méthode est néanmoins source de nombreux artefacts. La deuxième solution, en approximant l’objet 3D inconnu par un plan moyen, utilise les outils de la microscopie sans lentille 2D pour retrouver cette phase manquante via une approche inverse. La troisième solution consiste à implémenter une approche inverse régularisée sur l’objet 3D à reconstruire. C’est la méthode la plus efficace pour compenser les deux problèmes mentionnés, mais elle est très lente. La quatrième et dernière solution est basée sur un algorithme de type Gerchberg-Saxton modifié avec une étape de régularisation sur l’objet.Toutes ces méthodes sont comparées et testées avec succès sur des simulations numériques et des données expérimentales. Des comparaisons avec des acquisitions au microscope classique montrent la validité des reconstructions en matière de tailles et de formes des objets reconstruits ainsi que la précision de leur positionnement tridimensionnel. Elles permettent de reconstruire des volumes de plusieurs dizaines de millimètres cubes de cultures cellulaires 3D, inaccessibles en microscopie standard.Par ailleurs, les données spatio-temporelles obtenues avec succès en incubateur montrent aussi la pertinence de ce type d’imagerie en mettant en évidence des interactions dynamiques sur de grandes échelles des cellules entres elles ainsi qu’avec leur environnement tridimensionnel. / This PhD work is at the interface of two fields: 3D cell culture and lens-free imaging.Providing a more realistic cell culture protocol on the physiological level, switching from single-layer (2D) cultures to three-dimensional (3D) cultures - via the use of extracellular gel in which cells can grow in three dimensions - is at the origin of several breakthroughs in several fields such as developmental biology, oncology and regenerative medicine. The study of these new 3D structures creates a need in terms of 3D imaging.On another side, 2D lens-free imaging provides a robust, inexpensive, non-labeling and non-toxic tool to study cell cultures in two dimensions over large scales and over long periods of time. This type of microscopy records the interferences produced by a coherent light scattered by the biological sample. Knowing the physics of the light propagation, these holograms are retro-propagated numerically to reconstruct the unknown object. The reconstruction algorithm replaces the absent lenses in the role of image formation.The aim of this PhD is to show the possibility of adapting this lens-free technology for imaging 3D cell culture. New lens-free microscopes are designed and built along with the development of dedicated tomographic reconstruction algorithms.Concerning the prototypes, several solutions are tested to finally converge to a scheme combining two conditions. The first requirement is the choice of simplicity of use with a cell culture in standard Petri dish and requiring no specific preparation or change of container. The second condition is to find the best possible angular coverage of lighting angles in regards of the geometric constraint imposed by the first requirement. Finally, an incubator-proof version is successfully built and tested.Regarding the algorithms, four major types of solutions are implemented, all based on the Fourier diffraction theorem, conventionally used in optical diffractive tomography. All methods aim to correct two inherent problems of a lens-free microscope: the absence of phase information, the sensor being sensitive only to the intensity of the incident wave, and the limited angular coverage. The first algorithm simply replaces the unknown phase with that of an incident plane wave. However, this method is fast but it is the source of many artifacts. The second solution tries to estimate the missing phase by approximating the unknown object by an average plane and uses the tools of the 2D lens-free microscopy to recover the missing phase in an inverse problem approach. The third solution consists in implementing a regularized inverse problem approach on the 3D object to reconstruct. This is the most effective method to deal with the two problems mentioned above but it is very slow. The fourth and last solution is based on a modified Gerchberg-Saxton algorithm with a regularization step on the object.All these methods are compared and tested successfully on numerical simulations and experimental data. Comparisons with conventional microscope acquisitions show the validity of the reconstructions in terms of shape and positioning of the retrieved objects as well as the accuracy of their three-dimensional positioning. Biological samples are reconstructed with volumes of several tens of cubic millimeters, inaccessible in standard microscopy.Moreover, 3D time-lapse data successfully obtained in incubators show the relevance of this type of imaging by highlighting large-scale interactions between cells or between cells and their three-dimensional environment.
|
400 |
IRM de diffusion à haute résolution angulaire: estimation locale, segmentation et suivi de fibresDescoteaux, Maxime 05 February 2008 (has links) (PDF)
La résolution actuelle des IRM pondérées en diffusion suggère qu'il y a entre un et deux tiers des voxels de la matière blanche qui contiennent plusieurs faisceaux de fibres qui se croisent. L'IRM par tenseur de diffusion (DTI) classique est intrinsèquement limitée à ces endroits par son hypothèse de base qu'un seul faisceau traverse chaque voxel de l'image. Le but de cette thèse est donc de développer des techniques d'IRM à haute résolution angulaire (HARDI) pour pouvoir retrouver une ou plusieurs fibres et surmonter aux limites DTI. L'imagerie par q-ball (QBI) est une technique récente qui permet d'estimer la distribution d'orientation des fibres (ODF). La technique de QBI ainsi que l'ODF de diffusion des fibres permettent de retrouver plusieurs directions de fibres en chaque voxel de l'image. Ceux-ci joueront donc un rôle important tout au long de ce document. Cette thèse propose plusieurs contributions originales. D'abord, nous développons l'estimation robuste du signal HARDI en utilisant une base modifiée d'harmoniques sphériques et un terme de régularisation. Ensuite, nous proposons la modélisation du coefficient de diffusion apparent (ADC) pour étudier les mesures d'anisotropie HARDI et faire la classification des voxels contenant une distribution isotrope, une distribution d'une seule population de fibres et une distribution de plusieurs faisceaux fibres. Nous proposons de plus, le développement d'une solution analytique pour estimer l'ODF de diffusion en QBI ainsi qu'un nouvel algorithme de segmentation de ces images d'ODF obtenues par le QBI. Nous présentons également le calcul de l'ODF de fibres avec une nouvelle méthode de déconvolution sphérique à partir des données QBI. Enfin, nous développons de nouveaux algorithmes de suivi de fibres (tracking) déterministes et probabilistes à partir de l'ODF du q-ball et l'ODF de fibres. Finalement, tous ces nouveaux algorithmes sont testés et appliqués sur des données HARDI simulées, sur un fantôme biologique et sur des données réelles de plusieurs sujets dans des régions complexes avec plusieurs faisceaux qui se croisent.Nos résultats illustrent clairement la valeur ajoutée de nos méthodes HARDI sur la plupart des méthodes courantes en DTI qui négligent ces faisceaux complexes, ce qui peut amener à une mauvaise analyse et interprétation de l'anatomie et des fonctions cérébrales.
|
Page generated in 0.0598 seconds