• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 36
  • 3
  • Tagged with
  • 79
  • 79
  • 52
  • 25
  • 24
  • 18
  • 16
  • 14
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Joint super-resolution/segmentation approaches for the tomographic images analysis of the bone micro-architecture / Approches conjointes de super-résolution / segmentation pour l'analyse des images tomographiques de la micro-architecture osseuse

Toma, Alina 09 March 2016 (has links)
L'analyse de la microstructure osseuse joue un rôle important pour étudier des maladies de l'os comme l'ostéoporose. Des nouveaux scanners périphériques haute résolution (HR-pQCT) permettent de faire des acquisitions de la micro-architecture osseuse in-vivo sur l'homme. Toutefois la résolution spatiale de ces appareils reste comparable à la taille des travées osseuses, ce qui limite leur analyse quantitative. L'objectif de cette thèse est de proposer de nouvelles approches jointes super-résolution/ segmentation pour une analyse quantitative plus fine des images HR-pQCT in-vivo de la structure osseuse trabéculaire. Dans une première étape nous nous sommes concentrés sur des méthodes 2D de super-résolution avec régularisation par variation totale (TV) puis par variation totale d'ordre plus élevé (Higher Degree TV), avec minimisation par un algorithme ADMM (Alternating Direction Method of Multipliers). Ensuite, nous avons proposé une méthode itérative combinant le principe de Morozov et la méthode de Newton pour estimer le paramètre de régularisation TV. Comparé à la méthode UPRE (Unbiased Predictive Risk Estimator), la méthode proposée est plus rapide et ne requiert pas un balayage exhaustif des valeurs des paramètres. Nous avons développé dans une deuxième étape une méthode de super-résolution/segmentation conjointe avec un a priori basé sur la Variation Totale et une relaxation convexe (Tvbox), qui permet d'améliorer les paramètres quantitatifs de l'os et de la connectivité 3D. La méthode a été validée sur des images expérimentales micro-CT déteriorées artificiellement. Finalement, en vue de l'application à des images réelles HR-pQCT, nous nous sommes intéressés à une approche conjointe semi-aveugle super-résolution/segmentation qui vise à estimer à la fois l'image binaire super-résolue et le noyau de convolution. Des résultats sur des images micro-CT et HR-pQCT sont présentés. En conclusion, notre travail montre que les méthodes d'optimisation basées sur la régularisation TV sont prometteurs pour améliorer la quantification de la micro-architecture osseuse sur des images HR-pQCT. / The investigation of trabecular bone micro-architecture provides relevant information to determine the bone strength, an important parameter in osteoporosis investigation. While the spatial resolution of clinical CT is not sufficient to resolve the trabecular structure, the High Resolution peripheral Quantitative CT (HR-pQCT) has been developed to investigate bone micro-architecture in-vivo at peripheral sites (tibia and radius). Despite this considerable progress, the quantification of 3D trabecular bone micro-architecture in-vivo remains limited due to a lack of spatial resolution compared to the trabeculae size. The objective of this thesis is to propose new joint super-resolution/segmentation approaches for improving the quantitative analysis of in-vivo HR-pQCT images of the trabecular bone structure. To begin with, we have investigated 2D super-resolution methods based on Total Variation (TV) and Higher Degree Total Variation (HDTV) and Alternating Direction Method of Multipliers (ADMM) minimization. Afterwards, an iterative method combining the Morozov principle and the Newton method was proposed in order to estimate the TV regularization parameter. The proposed method provides a very good regularization parameter only in few iterations compared with the UPRE method that requires an extensive scanning of parameter values. Furthermore, we have developed a 3D joint super-resolution/segmentation method based on a TV a prior with a convex relaxation (TVbox). The validation of the proposed methods was made on experimental micro-CT bone images artificially deteriorated. The results showed an improvement of the bone parameters and 3D connectivity with the TVbox method. Moreover, we have investigated a semi-blind joint super-resolution/ segmentation approach aiming to estimate both the binary super-resolved image and the assumed Gaussian blurring kernel that is not known for the real HR-pQCT images. Results on micro-CT and HR-pQCT experimental bone images were presented. In conclusion, our work has shown that TV based regularization methods promise to improve the quantification of bone micro-architecture from HR-pQCT images.
72

Towards a 3D building reconstruction using spatial multisource data and computational intelligence techniques / Vers une reconstruction de batiment en 3D utilisant des données spatiales multisources et des techniques d'intelligence informatique

Papadopoulos, Georgios 27 November 2019 (has links)
La reconstruction de bâtiments à partir de photographies aériennes et d’autres données spatiales urbaines multi-sources est une tâche qui utilise une multitude de méthodes automatisées et semi-automatisées allant des processus ponctuels au traitement classique des images et au balayage laser. Dans cette thèse, un système de relaxation itératif est développé sur la base de l'examen du contexte local de chaque bord en fonction de multiples sources d'entrée spatiales (masques optiques, d'élévation, d'ombre et de feuillage ainsi que d'autres données prétraitées, décrites au chapitre 6). Toutes ces données multisource et multirésolution sont fusionnées de manière à extraire les segments de ligne probables ou les arêtes correspondant aux limites des bâtiments. Deux nouveaux sous-systèmes ont également été développés dans cette thèse. Ils ont été conçus dans le but de fournir des informations supplémentaires, plus fiables, sur les contours des bâtiments dans une future version du système de relaxation proposé. La première est une méthode de réseau de neurones à convolution profonde (CNN) pour la détection de frontières de construction. Le réseau est notamment basé sur le modèle SRCNN (Dong C. L., 2015) de super-résolution à la pointe de la technologie. Il accepte des photographies aériennes illustrant des données de zones urbaines densément peuplées ainsi que leurs cartes d'altitude numériques (DEM) correspondantes. La formation utilise trois variantes de cet ensemble de données urbaines et vise à détecter les contours des bâtiments grâce à une nouvelle cartographie hétéroassociative super-résolue. Une autre innovation de cette approche est la conception d'une couche de perte personnalisée modifiée appelée Top-N. Dans cette variante, l'erreur quadratique moyenne (MSE) entre l'image de sortie reconstruite et l'image de vérité de sol (GT) fournie des contours de bâtiment est calculée sur les 2N pixels de l'image avec les valeurs les plus élevées. En supposant que la plupart des N pixels de contour de l’image GT figurent également dans les 2N pixels supérieurs de la reconstruction, cette modification équilibre les deux catégories de pixels et améliore le comportement de généralisation du modèle CNN. Les expériences ont montré que la fonction de coût Top-N offre des gains de performance par rapport à une MSE standard. Une amélioration supplémentaire de la capacité de généralisation du réseau est obtenue en utilisant le décrochage. Le deuxième sous-système est un réseau de convolution profonde à super-résolution, qui effectue un mappage associatif à entrée améliorée entre les images d'entrée à basse résolution et à haute résolution. Ce réseau a été formé aux données d’altitude à basse résolution et aux photographies urbaines optiques à haute résolution correspondantes. Une telle différence de résolution entre les images optiques / satellites optiques et les données d'élévation est souvent le cas dans les applications du monde réel. / Building reconstruction from aerial photographs and other multi-source urban spatial data is a task endeavored using a plethora of automated and semi-automated methods ranging from point processes, classic image processing and laser scanning. In this thesis, an iterative relaxation system is developed based on the examination of the local context of each edge according to multiple spatial input sources (optical, elevation, shadow & foliage masks as well as other pre-processed data as elaborated in Chapter 6). All these multisource and multiresolution data are fused so that probable line segments or edges are extracted that correspond to prominent building boundaries.Two novel sub-systems have also been developed in this thesis. They were designed with the purpose to provide additional, more reliable, information regarding building contours in a future version of the proposed relaxation system. The first is a deep convolutional neural network (CNN) method for the detection of building borders. In particular, the network is based on the state of the art super-resolution model SRCNN (Dong C. L., 2015). It accepts aerial photographs depicting densely populated urban area data as well as their corresponding digital elevation maps (DEM). Training is performed using three variations of this urban data set and aims at detecting building contours through a novel super-resolved heteroassociative mapping. Another innovation of this approach is the design of a modified custom loss layer named Top-N. In this variation, the mean square error (MSE) between the reconstructed output image and the provided ground truth (GT) image of building contours is computed on the 2N image pixels with highest values . Assuming that most of the N contour pixels of the GT image are also in the top 2N pixels of the re-construction, this modification balances the two pixel categories and improves the generalization behavior of the CNN model. It is shown in the experiments, that the Top-N cost function offers performance gains in comparison to standard MSE. Further improvement in generalization ability of the network is achieved by using dropout.The second sub-system is a super-resolution deep convolutional network, which performs an enhanced-input associative mapping between input low-resolution and high-resolution images. This network has been trained with low-resolution elevation data and the corresponding high-resolution optical urban photographs. Such a resolution discrepancy between optical aerial/satellite images and elevation data is often the case in real world applications. More specifically, low-resolution elevation data augmented by high-resolution optical aerial photographs are used with the aim of augmenting the resolution of the elevation data. This is a unique super-resolution problem where it was found that many of -the proposed general-image SR propositions do not perform as well. The network aptly named building super resolution CNN (BSRCNN) is trained using patches extracted from the aforementioned data. Results show that in comparison with a classic bicubic upscale of the elevation data the proposed implementation offers important improvement as attested by a modified PSNR and SSIM metric. In comparison, other proposed general-image SR methods performed poorer than a standard bicubic up-scaler.Finally, the relaxation system fuses together all these multisource data sources comprising of pre-processed optical data, elevation data, foliage masks, shadow masks and other pre-processed data in an attempt to assign confidence values to each pixel belonging to a building contour. Confidence is augmented or decremented iteratively until the MSE error fails below a specified threshold or a maximum number of iterations have been executed. The confidence matrix can then be used to extract the true building contours via thresholding.
73

Optique des ondes de surface : super-résolution et interaction matière-rayonnement / Surface wave optics : super-resolution and wave-matter interaction

Archambault, Alexandre 09 December 2011 (has links)
Il existe au niveau d’interfaces séparant des milieux de constantes diélectriques de signes opposés des ondes électromagnétiques confinées à proximité de ces interfaces. On parle d’ondes de surface. C’est notamment le cas des métaux et des cristaux polaires : on parle alors de plasmons-polaritons de surface et de phonons-polaritons de surface respectivement. L’objectif de cette thèse est de revisiter certains aspects théoriques associés à ces ondes de surface.Dans un premier temps, en nous basant sur le formalisme de Green, nous donnons un moyen d’obtenir une expression du champ des ondes de surface sous forme de somme de modes. En présence de pertes, ces ondes ont nécessairement un vecteur d’onde ou une pulsation complexe. Nous donnons ainsi deux expressions de leur champ, correspondant à chacun de ces deux cas, et discutons de l’opportunité d’utiliser l’une ou l’autre de ces expressions.Nous posons par la suite les bases d’une optique de Fourier et d’une optique géométrique des ondes de surface. Nous montrons comment obtenir une équation de Helmholtz à deux dimensions pour les ondes de surface, un principe d’Huygens-Fresnel pour les ondes de surface, ainsi qu’une équation eikonale pour les ondes de surface, qui s’applique sous certaines hypothèses. Nous nous intéressons également à la superlentille proposée par Pendry, qui s’appuie sur les ondes de surface. Nous étudions notamment le fonctionnement de cette superlentille en régime impulsionnel, et montrons qu’en présence de pertes, il est possible d’obtenir une meilleure résolution avec certaines formes d’impulsion par rapport au régime harmonique, au prix d’une importante baisse de signal toutefois.Nous développons ensuite un traitement quantique des ondes de surface. Nous calculons au préalable une expression de leur énergie, et nous donnons une expression de leur hamiltonien et de leurs opérateurs champ. Sans pertes, nous montrons que le facteur de Purcell prédit par notre théorie quantique est rigoureusement égal au facteur de Purcell calculé avec des outils classiques. Nous comparons ensuite ce facteur de Purcell à celui calculé classiquement avec pertes, et montrons sur un exemple que les pertes peuvent être négligées dans de nombreux cas. Nous donnons enfin une expression des coefficients d’Einstein associés aux ondes de surface permettant d’étudier la dynamique de l’inversion de population d’un milieu fournissant un gain aux ondes de surface. Nous appliquons par la suite ce formalisme quantique à l’interaction électrons-phonons-polaritons de surface dans les puits quantiques, notamment leur interaction avec un mode de phonon du puits particulièrement confiné grâce à un effet de constante diélectrique proche de zéro (epsilon near zero, ENZ). / Interfaces between materials having opposite dielectric constants support electromagnetic waves confined close to these interfaces called surface waves. For metals and polar crystals, they are respectively called surface plasmon-polaritons and surface phonon-polaritons. The goal of this thesis is to revisit some theoretical aspects associated to these surface waves.Using the Green formalism, we derive an expression of the surface wave field as a sum of modes. With losses, these waves must have a complex wave vector or frequency. Thus we give two expressions of their field, for each of these cases, and discuss when each of these expressions should be used.We then give the basis of a surface wave Fourier optics and geometrical optics. We derive a 2D Helmholtz equation for surface waves, a Huygens-Fresnel principle for surface waves, and an eikonal equation for surface waves. We then take a look at Pendry’s superlens, in which surface waves play a major role. We study the behavior of the superlens in pulsed mode taking losses into account, and show that its resolution can be increased for some pulse shapes compared to the steady state, at the expense of a signal decay.We then develop a quantum treatment of surface waves. We first calculate their energy, and then give an expression of their hamiltonian and field operators. Without losses, we show that the Purcell factor given by our quantum theory is perfectly equal to the Purcell factor given by the classical theory. We then compare this Purcell factor to the lossy case on an example, and show that losses can often be neglected. We then derive the Einstein coefficients associated to surface wave emission and absorption, which allow studying the population inversion dynamics of a gain medium. We then use this quantum formalism to study the interaction between electrons and surface phonon-polaritons in quantum wells, particularly their interaction with a phonon mode which features high confinement thanks to an epsilon near zero (ENZ) effect.
74

Etude des techniques de super-résolution latérale en nanoscopie et développement d'un système interférométrique nano-3D / Study of lateral super-resolution nanoscopy techniques and development of a nano-3D interference system

Leong-Hoï, Audrey 02 December 2016 (has links)
Ce manuscrit de thèse présente l’étude des techniques de super-résolution latérale en nanoscopie optique, qui est une des nouvelles techniques d'imagerie haute résolution, aujourd'hui largement utilisée en biophysique et en imagerie médicale, pour imager et caractériser des nanostructures, tout en conservant les avantages de l'imagerie optique en champ lointain comme un vaste champ, la visualisation et l’analyse en temps réel…Un des défis futurs de la microscopie 3D super-résolue est d’éviter l’utilisation des marqueurs fluorescents. La microscopie interférométrique fait partie des techniques d’imagerie 3D sans marquage permettant la détection de nanostructures. Pour améliorer le pouvoir de détection de ce système optique, un premier protocole de traitement d’images a été développé et implémenté, permettant ainsi de révéler des structures initialement non mesurables. Puis, pour améliorer la résolution latérale du système, une nouvelle technique combinant l’interférométrie et le principe du nano-jet photonique a été développée permettant l’observation d’objets de taille inférieure à la limite de diffraction de l’instrument optique. / This manuscript presents the study of the lateral super-resolution techniques in optical nanoscopy, which is a new high-resolution imaging method now widely used in biophysics and medical imaging, to observe and measure nanostructures, with the advantages of far field optical imaging, such as a large field of view, visualization and analysis in real time…One of the future challenges of 3D super resolution microscopy is to avoid the use of fluorescent markers. Interferometric microscopy is a 3D label-free imaging technique enabling the detection of nanostructures. To improve the detection capability of this optical system, a first version of a protocol composed of image processing methods was developed and implemented, revealing structures initially unmeasurable. Then, to improve the lateral resolution of the system, a new technique combining interferometry and the principle of the photonic nano-jet has been developed, thus allowing the observation of objects of a size smaller than the diffraction limit of the optical instrument.
75

Localization and quality enhancement for automatic recognition of vehicle license plates in video sequences / Localisation et amélioration de qualité pour reconnaissance automatique de plaques d'immatriculation de véhicules dans les séquences vidéo.

Nguyen, Chu Duc 29 June 2011 (has links)
La lecture automatique de plaques d’immatriculation de véhicule est considérée comme une approche de surveillance de masse. Elle permet, grâce à la détection /localisation ainsi que la reconnaissance optique, d’identifier un véhicule dans les images ou les séquences d’images. De nombreuses applications comme le suivi du trafic, la détection de véhicules volés, le télépéage ou la gestion d’entrée / sortie des parkings utilise ce procédé. Or malgré d’important progrès enregistré depuis l’apparition des premiers prototypes en 1979 accompagné d’un taux de reconnaissance parfois impressionnant, notamment grâce aux avancés en recherche scientifique et en technologie des capteurs, les contraintes imposés pour le bon fonctionnement de tels systèmes en limitent les portées. En effet, l’utilisation optimale des techniques de localisation et de reconnaissance de plaque d’immatriculation dans les scénarii opérationnels nécessite des conditions d’éclairage contrôlées ainsi qu’une limitation dans de la pose, de vitesse ou tout simplement de type de plaque. La lecture automatique de plaques d’immatriculation reste alors un problème de recherche ouvert. La contribution majeure de cette thèse est triple. D’abord une nouvelle approche robuste de localisation de plaque d’immatriculation dans des images ou des séquences d’images est proposée. Puis, l’amélioration de la qualité des plaques localisées est traitée par une adaptation de technique de super-résolution. Finalement, un modèle unifié de localisation et de super-résolution est proposé permettant de diminuer la complexité temporelle des deux approches combinées. / Automatic reading of vehicle license plates is considered an approach to mass surveillance. It allows, through the detection / localization and optical recognition to identify a vehicle in the images or video sequences. Many applications such as traffic monitoring, detection of stolen vehicles, the toll or the management of entrance/ exit parking uses this method. Yet in spite of important progress made since the appearance of the first prototype sin 1979, with a recognition rate sometimes impressive thanks to advanced science and sensor technology, the constraints imposed for the operation of such systems limit laid. Indeed, the optimal use of techniques for localizing and recognizing license plates in operational scenarios requiring controlled lighting conditions and a limitation of the pose, velocity, or simply type plate. Automatic reading of vehicle license plates then remains an open research problem. The major contribution of this thesis is threefold. First, a new approach to robust license plate localization in images or image sequences is proposed. Then, improving the quality of the plates is treated with a localized adaptation of super-resolution technique. Finally, a unified model of location and super-resolution is proposed to reduce the time complexity of both approaches combined.
76

Enregistrement de disques optiques haute densité en champ proche

Mimouni, Salim 26 November 2007 (has links) (PDF)
Nos besoins en stockage de données sont explosifs ; générés par des contenus multimédia dont la taille croît coontinuellement, ce qui conduit à une course effrénée à la performance des disques optiques. Cependant, des limites physiques sont rapidement atteintes. Parmi celles-ci, le phénomène de diffraction des ondes lumineuses a limité la capacité du Compact Disc (CD), du DVD et dictera encore celle du « Blu-ray ». Cette thèse se propose de franchir cette barrière à travers une étude approfondie d'une tête optique en champ proche. En effet le système actuel de lecture des disques utilisant l'immersion solide est passif vis-à-vis de la nature du champ proche. Il sera optimisé pour donner une capacité de stockage 40% plus élevée. Mais la demande du marché des disques optiques exige d'aller plus loin encore. La théorie de l'indice négatif, très controversée, se révèlera cependant pertinente, et inspirera toute la suite du travail. Le matériau à indice négatif est la solution utopique au passage sous la limite de résolution, et ses propriétés vont inspirer une lentille photonique à super-résolution. Dans cette lentille conçue pour le champ proche, les plasmons de surface qui sont excités aux interfaces entre l'argent et le verre seront convertis en ondes propagatives grâce à une structuration de motif plus petit que la longueur d'onde. Ces ondes transportent l'information au détecteur à travers la tête optique. Le fonctionnement du composant sera démontré dans un montage expérimental où il permettra de recouvrer un signal à la longueur d'onde de 488nm, mais porteur d'information d'objets de 60nm de taille.
77

Identification électromagnétique de petites inclusions enfouies

Gdoura, Souhir 29 September 2008 (has links) (PDF)
L'objet de la thèse est la détection électromagnétique non-itérative de petits objets enfouis. Le problème direct de diffraction est abordé en utilisant une formule asymptotique rigoureuse du champ diffracté par des inclusions dont la taille caractéristique est petite devant la longueur d'onde de leur illumination dans le milieu d'enfouissement. La prise en compte de la diffraction multiple dans le cas de deux inclusions sphériques est abordée grâce à un tenseur de polarisation spécifique qui est calculé dans un système approprié de coordonnées bisphériques. Le modèle de Foldy-Lax est aussi utilisé afin de prendre en compte le couplage entre plusieurs inclusions. Les simulations numériques montrent que cet effet de couplage ne peut être ressenti qu'en leurs voisinages immédiats. Une configuration d'enfouissement en demi-espace est aussi étudiée en détail. Les dyades de Green alors nécessaires sont calculées de manière exacte par "force brutale" numérique. Puis trois méthodes approchées de calcul des intégrales de Sommerfeld qui sont impliquées sont proposées, les simulations montrant qu'elles font gagner un temps de calcul significatif dans le calcul de ces dyades, tout en étant de précision convenable. La prise en compte du couplage entre une sphère et l'interface est aussi investiguée grâce à un tenseur de polarisation adéquat en coordonnées bisphériques (de facto, une des deux sphères dégénère en cette interface). A chaque fois, les champs diffractés simulés par la méthode asymptotique sont comparés à des champs obtenus par la méthode dite des dipôles couplés (CDM). Les résultats montrent que la méthode asymptotique fournit des valeurs du champ diffracté satisfaisantes tant que les tailles des inclusions restent assez petites devant la longueur d'onde. L'algorithme d'imagerie MUSIC est quant à lui utilisé pour détecter ces inclusions à partir de leur matrice de réponse multistatique (MSR) collectée via un réseau plan d'extension limitée de dipôles émetteurs-récepteurs idéaux. L'analyse des valeurs et des vecteurs singuliers de la matrice MSR montre qu'il existe une différence entre les données calculées par la méthode asymptotique et celles calculées par la méthode CDM. Mais cette différence ne persiste pas si l'on considère des données bruitées, même à relativement faible niveau de bruit. Dans les deux cas, MUSIC permet une estimation fiable de la position des inclusions, la notion de "super-localisation" étant en particulier discutée. Une méthode est par ailleurs proposée afin de détecter l'angle d'inclinaison d'un ellipsoïde incliné enfoui.
78

Nanoscale imaging of synapse morphology in the mouse neocortex in vivo by two-photon STED microscopy / Imagerie nanométrique de la morphologie synaptique dans le néocortex de souris in vivo par microscopie deux-photon STED

Ter Veer, Mirelle Jamilla Tamara 25 November 2016 (has links)
Le cerveau est un organe complexe composé de neurones et des cellules non-neuronales. La communication entre les neurones a lieu via les synapses, dont le remodelage morphologique est considéré essentiel pour le traitement et le stockage des informations dans le cerveau des mammifères. Récemment, ce point de vue neuro-centré de la fonction synaptique a évolué, en prenant également en compte les processus gliaux à proximité immédiate de la synapse. Cependant, comme leur structure est bien en deçà de la résolution spatiale de la microscopie optique conventionnelle, les progrès dans les enquêtes dans leur environnement physiologique, le cerveau intact, ont été entravés. En effet, on sait peu sur les variations nanométriques de la morphologie des épines dendritiques et l'interaction avec les processus gliaux, et, finalement, comment elles affectent la transmission synaptique in vivo. Dans cette thèse, nous cherchons à visualiser la dynamique de la nano-morphologie des épines dendritiques et les processus gliaux dans le cortex à tonneaux de souris in vivo. Nous avons donc mis en place l’imagerie super-résolution 2P-STED en temps réel, ce qui permet une haute résolution spatiale et la pénétration profonde des tissus, chez la souris anesthésiée in vivo. Nous montrons que la nano-morphologie des épines est diversifiée, variable, mais globalement stable, et que les différences dans la morphologie des épines peut avoir un effet sur leur compartimentation in vivo. En outre, la mise en œuvre de l’imagerie super-résolution en double couleur in vivo et le développement d'une approche de marquage astrocytaire, nous ont permis de fournir la caractérisation à l'échelle nanométrique des interactions neurone-glie. Ces résultats apportent un aperçu sans précédent dans la dynamique de la synapse à l'échelle nanométrique in vivo, et ouvrent la voie à une meilleure compréhension de la façon dont les réarrangements morphologiques des synapses contribuent à la physiologie du cerveau. / The brain is a complex organ consisting of neurons and non-neuronal cells. Communication between neurons takes place via synapses, whose morphological remodeling is thought to be crucial for information processing and storage in the mammalian brain. Recently, this neuro-centric view of synaptic function has evolved, also taking into account the glial processes in close vicinity of the synapse. However, as their structure is well below the spatial resolution of conventional light microscopy, progress in investigating them in a physiological environment, the intact brain, has been impeded. Indeed, little is known on the nanoscale morphological variations of dendritic spines, the interaction with glial processes, and how these affect synaptic transmission in vivo. Here, we aim to visualize the dynamic nano-morphology of dendritic spines in mouse somatosensory cortex in vivo. We implemented super-resolution 2P-STED time-lapse imaging, which allows for high spatial resolution and deep tissue penetration, in anesthetized mice, and show that the nano-morphology of spines is diverse, variable, but on average stable, and that differences in spine morphology can have an effect on spine biochemical compartmentalization in vivo. Moreover, implementation of dual color in vivo super-resolution imaging and a novel astrocytic labeling approach provided the first steps towards nanoscale characterization of neuron-glia interactions in vivo. These findings bring new insights in synapse dynamics at the nanoscale in vivo, and our methodological endeavors help pave the way for a better understanding of how nanoscale aspects of spine morphology and their dynamics might contribute to brain physiology and animal behavior.
79

Theoretical and Numerical Analysis of Super-Resolution Without Grid / Analyse numérique et théorique de la super-résolution sans grille

Denoyelle, Quentin 09 July 2018 (has links)
Cette thèse porte sur l'utilisation du BLASSO, un problème d'optimisation convexe en dimension infinie généralisant le LASSO aux mesures, pour la super-résolution de sources ponctuelles. Nous montrons d'abord que la stabilité du support des solutions, pour N sources se regroupant, est contrôlée par un objet appelé pré-certificat aux 2N-1 dérivées nulles. Quand ce pré-certificat est non dégénéré, dans un régime de petit bruit dont la taille est contrôlée par la distance minimale séparant les sources, le BLASSO reconstruit exactement le support de la mesure initiale. Nous proposons ensuite l'algorithme Sliding Frank-Wolfe, une variante de l'algorithme de Frank-Wolfe avec déplacement continu des amplitudes et des positions, qui résout le BLASSO. Sous de faibles hypothèses, cet algorithme converge en un nombre fini d'itérations. Nous utilisons cet algorithme pour un problème 3D de microscopie par fluorescence en comparant trois modèles construits à partir des techniques PALM/STORM. / This thesis studies the noisy sparse spikes super-resolution problem for positive measures using the BLASSO, an infinite dimensional convex optimization problem generalizing the LASSO to measures. First, we show that the support stability of the BLASSO for N clustered spikes is governed by an object called the (2N-1)-vanishing derivatives pre-certificate. When it is non-degenerate, solving the BLASSO leads to exact support recovery of the initial measure, in a low noise regime whose size is controlled by the minimal separation distance of the spikes. In a second part, we propose the Sliding Frank-Wolfe algorithm, based on the Frank-Wolfe algorithm with an added step moving continuously the amplitudes and positions of the spikes, that solves the BLASSO. We show that, under mild assumptions, it converges in a finite number of iterations. We apply this algorithm to the 3D fluorescent microscopy problem by comparing three models based on the PALM/STORM technics.

Page generated in 0.1169 seconds