• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 27
  • 10
  • 10
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 306
  • 306
  • 103
  • 92
  • 73
  • 55
  • 46
  • 45
  • 42
  • 40
  • 39
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Volumetric Particle Velocimetry for Microscale Flows

January 2011 (has links)
abstract: Microfluidics is the study of fluid flow at very small scales (micro -- one millionth of a meter) and is prevalent in many areas of science and engineering. Typical applications include lab-on-a-chip devices, microfluidic fuel cells, and DNA separation technologies. Many of these microfluidic devices rely on micron-resolution velocimetry measurements to improve microchannel design and characterize existing devices. Methods such as micro particle imaging velocimetry (microPIV) and micro particle tracking velocimetry (microPTV) are mature and established methods for characterization of steady 2D flow fields. Increasingly complex microdevices require techniques that measure unsteady and/or three dimensional velocity fields. This dissertation presents a method for three-dimensional velocimetry of unsteady microflows based on spinning disk confocal microscopy and depth scanning of a microvolume. High-speed 2D unsteady velocity fields are resolved by acquiring images of particle motion using a high-speed CMOS camera and confocal microscope. The confocal microscope spatially filters out of focus light using a rotating disk of pinholes placed in the imaging path, improving the ability of the system to resolve unsteady microPIV measurements by improving the image and correlation signal to noise ratio. For 3D3C measurements, a piezo-actuated objective positioner quickly scans the depth of the microvolume and collects 2D image slices, which are stacked into 3D images. Super resolution microPIV interrogates these 3D images using microPIV as a predictor field for tracking individual particles with microPTV. The 3D3C diagnostic is demonstrated by measuring a pressure driven flow in a three-dimensional expanding microchannel. The experimental velocimetry data acquired at 30 Hz with instantaneous spatial resolution of 4.5 by 4.5 by 4.5 microns agrees well with a computational model of the flow field. The technique allows for isosurface visualization of time resolved 3D3C particle motion and high spatial resolution velocity measurements without requiring a calibration step or reconstruction algorithms. Several applications are investigated, including 3D quantitative fluorescence imaging of isotachophoresis plugs advecting through a microchannel and the dynamics of reaction induced colloidal crystal deposition. / Dissertation/Thesis / Ph.D. Mechanical Engineering 2011
182

Coordinate-targeted optical nanoscopy: molecular photobleaching and imaging of heterostructured nanowires

Oracz, Joanna 08 March 2018 (has links)
No description available.
183

Image Formation from a Large Sequence of RAW Images : performance and accuracy / Formation d’image à partir d’une grande séquence d’images RAW : performance et précision

Briand, Thibaud 13 November 2018 (has links)
Le but de cette thèse est de construire une image couleur de haute qualité, contenant un faible niveau de bruit et d'aliasing, à partir d'une grande séquence (e.g. des centaines) d'images RAW prises avec un appareil photo grand public. C’est un problème complexe nécessitant d'effectuer à la volée du dématriçage, du débruitage et de la super-résolution. Les algorithmes existants produisent des images de haute qualité, mais le nombre d'images d'entrée est limité par des coûts de calcul et de mémoire importants. Dans cette thèse, nous proposons un algorithme de fusion d'images qui les traite séquentiellement de sorte que le coût mémoire ne dépend que de la taille de l'image de sortie. Après un pré-traitement, les images mosaïquées sont recalées en utilisant une méthode en deux étapes que nous introduisons. Ensuite, une image couleur est calculée par accumulation des données irrégulièrement échantillonnées en utilisant une régression à noyau classique. Enfin, le flou introduit est supprimé en appliquant l'inverse du filtre équivalent asymptotique correspondant (que nous introduisons). Nous évaluons la performance et la précision de chaque étape de notre algorithme sur des données synthétiques et réelles. Nous montrons que pour une grande séquence d'images, notre méthode augmente avec succès la résolution et le bruit résiduel diminue comme prévu. Nos résultats sont similaires à des méthodes plus lentes et plus gourmandes en mémoire. Comme la génération de données nécessite une méthode d'interpolation, nous étudions également les méthodes d'interpolation par polynôme trigonométrique et B-spline. Nous déduisons de cette étude de nouvelles méthodes d'interpolation affinées / The aim of this thesis is to build a high-quality color image, containing a low level of noise and aliasing, from a large sequence (e.g. hundreds or thousands) of RAW images taken with a consumer camera. This is a challenging issue requiring to perform on the fly demosaicking, denoising and super-resolution. Existing algorithms produce high-quality images but the number of input images is limited by severe computational and memory costs. In this thesis we propose an image fusion algorithm that processes the images sequentially so that the memory cost only depends on the size of the output image. After a preprocessing step, the mosaicked (or CFA) images are aligned in a common system of coordinates using a two-step registration method that we introduce. Then, a color image is computed by accumulation of the irregularly sampled data using classical kernel regression. Finally, the blur introduced is removed by applying the inverse of the corresponding asymptotic equivalent filter (that we introduce).We evaluate the performance and the accuracy of each step of our algorithm on synthetic and real data. We find that for a large sequence of RAW images, our method successfully performs super-resolution and the residual noise decreases as expected. We obtained results similar to those obtained by slower and memory greedy methods. As generating synthetic data requires an interpolation method, we also study in detail the trigonometric polynomial and B-spline interpolation methods. We derive from this study new fine-tuned interpolation methods
184

[en] GENERATING SUPERRESOLVED DEPTH MAPS USING LOW COST SENSORS AND RGB IMAGES / [pt] GERAÇÃOO DE MAPAS DE PROFUNDIDADE SUPER-RESOLVIDOS A PARTIR DE SENSORES DE BAIXO CUSTO E IMAGENS RGB

LEANDRO TAVARES ARAGAO DOS SANTOS 11 January 2017 (has links)
[pt] As aplicações da reconstrução em três dimensões de uma cena real são as mais diversas. O surgimento de sensores de profundidade de baixo custo, tal qual o Kinect, sugere o desenvolvimento de sistemas de reconstrução mais baratos que aqueles já existentes. Contudo, os dados disponibilizados por este dispositivo ainda carecem em muito quando comparados àqueles providos por sistemas mais sofisticados. No mundo acadêmico e comercial, algumas iniciativas, como aquelas de Tong et al. [1] e de Cui et al. [2], se propõem a solucionar tal problema. A partir do estudo das mesmas, este trabalho propôs a modificação do algoritmo de super-resolução descrito por Mitzel et al. [3] no intuito de considerar em seus cálculos as imagens coloridas também fornecidas pelo dispositivo, conforme abordagem de Cui et al. [2]. Tal alteração melhorou os mapas de profundidade super-resolvidos fornecidos, mitigando interferências geradas por movimentações repentinas na cena captada. Os testes realizados comprovam a melhoria dos mapas gerados, bem como analisam o impacto da implementação em CPU e GPU dos algoritmos nesta etapa da super-resolução. O trabalho se restringe a esta etapa. As etapas seguintes da reconstrução 3D não foram implementadas. / [en] There are a lot of three dimensions reconstruction applications of real scenes. The rise of low cost sensors, like the Kinect, suggests the development of systems cheaper than the existing ones. Nevertheless, data provided by this device are worse than that provided by more sophisticated sensors. In the academic and commercial world, some initiatives, described in Tong et al. [1] and in Cui et al. [2], try to solve that problem. Studying that attempts, this work suggests the modification of super-resolution algorithm described for Mitzel et al. [3] in order to consider in its calculations coloured images provided by Kinect, like the approach of Cui et al. [2]. This change improved the super resolved depth maps provided, mitigating interference caused by sudden changes of captured scenes. The tests proved the improvement of generated maps and analysed the impact of CPU and GPU algorithms implementation in the superresolution step. This work is restricted to this step. The next stages of 3D reconstruction have not been implemented.
185

Améliorations de la Transformée de Hough en traitement d'images / Enhanced Hough transforms for image processing

Tu, Chunling 23 September 2014 (has links)
Les travaux effectués dans le cadre de la présente thèse concernent l'analyse et les améliorations apportées à la transformée de Hough Standard (SHT), utilisée en traitement d'image comme simple outil de détection de segments de lignes droites. La transformée de Hough a reçu, depuis sa proposition en 1962, une attention particulière de la part de la communauté. La HT est considérée comme une méthode robuste, dont le principe repose sur la transformation le problème initial de détection de segments de lignes droites en un problème de section de sommets dans l'espace des paramètres, appelé aussi espace HT ou espace de Hough. Les points candidats dans l'espace image sont mis en correspondance points dans l'espace de Hough, en utilisant Le principe avancé par la transformée de Hough est qu'il existe un nombre infini de lignes qui passent par un point, dont la seule différence est l'orientation (l'angle). La transformée de Hough permet de déterminer lesquelles de ces lignes passent au plus près du domaine d'intérêt. Les cellules dans l'espace de Hough échantillonné obtiennent des votes des points candidats. Les maxima locaux, correspondant aux sommets sont construit lorsque les cellules considérées obtiennent plus de votes que les cellules voisines. Les sommets détectés alors dans l'espace des paramètres sont transformée dans l'espace image pour validation. Malheureusement, les opérations les opérations de transformation directe, de l'espace image vers l'espace des paramètres, et inverse engendrent des opérations d'approximation, ce qui est la source de plusieurs problèmes de la transformée de Hough, qui affectent les aspects de robustesse, précision et résolution. On se propose de résoudre ces problèmes dans le cadre des travaux engagés dans le cadre de la thèse. Les contributions, détaillées ci-dessous, ont pu être proposées. A) Pour adresser le problème de limitation en termes de résolution de la SHT, les points concernent la sélection d'une bonne résolution, l'extension de la résolution de la SHT et l'utilisation des techniques de super-résolution pour la HT ont été couverts et de nouvelles propositions ont été faites et qui sont d'une utilité certaine pour les applications de traitement d'image.- la relation entre la performance de la HT et la résolution est proposée, ce qui permet de garantir le bon choix.- Une technique de super-résolution ets proposée en s'appuyant sur le principe de la HT- Une auto-similarité dans les échantillons HT a été découverte et a été utilisée pour obtenir une résolution supérieure de la HT avec un grande fidélité. B) Pour adresser le problème de la précision de la SHT, les erreurs de la HT ont été analysées, lorsque l'on fait subir des transformations géométriques à l'image source. Les erreurs ainsi détectées ont été utilisées pour compenser le manque de précision de la SHT, aboutissant ainsi à une HT plus précise. Afin de permettre l'évaluation de performance des approches proposées dan sel cadre de la thèse, une transformée de Hough idéale est proposée comme référence / The thesis addresses the improvements of the Standard Hough Transform (SHT) for image processing applications. As a common tool for straight line segment detection, the Hough Transform (HT) has received extensive attention since its proposal in 1962. HT is robust since it converts the straight line detection problem to a peak seeking problem in the parameter space (also called HT space or Hough space). Feature points in the image space are mapped to the parameter space, according to the normal formulation of the possible straight lines crossing them. The cells in the digitalised parameter space obtain votes from the feature points. The local maxima, corresponding to peaks are built when corresponding cells obtain more votes than the ones around them. The peaks detected in the parameter space are then mapped back to the image space for validation. Unfortunately, when mapping feature points in the image space to the parameter space in conjunction with the voting process, rounding operations are employed, which leads to several problems of HT. The robustness, accuracy and resolution are all affected. This thesis aims to solve these problems, and the following contributions were made towards this goal : A) Because of the resolution limitation of SHT, the topics of how to select a “good” resolution, how to extend the resolutions of SHT and how to employ the super-resolution technique in HT are covered. In the research of these topics, several outputs are obtained, which are helpful to image processing applications. These include:- The map of HT performance versus resolutions is drawn, according to which “good” choices of resolutions can be found.- HT resolutions are extended by geometrical analysis of the HT butterflies.- Super resolution HT is proposed with consideration to the features of HT.- Self-similarity of the HT butterflies is discovered and employed to obtain high resolution HT with high reliability. B) For the accuracy defect of SHT, the error system of HT is studied when the image is shifted in the image space. The detection errors are employed to compensate for the defect, and an accurate HT is proposed. In order to evaluate existing HT varieties, an ideal HT is proposed as a standard
186

Automatické rozpoznávání registračních značek aut z málo kvalitních videosekvencí / Automated number plate recognition from low quality video-sequences

Vašek, Vojtěch January 2018 (has links)
The commercially used automated number plate recognition (ANPR) sys- tems constitute a mature technology which relies on dedicated industrial cam- eras capable of capturing high-quality still images. In contrast, the problem of ANPR from low-quality video sequences has been so far severely under- explored. This thesis proposes a trainable convolutional neural network (CNN) with a novel architecture which can efficiently recognize number plates from low-quality videos of arbitrary length. The proposed network is experimentally shown to outperform several existing approaches dealing with video-sequences, state-of-the-art commercial ANPR system as well as the human ability to recog- nize number plates from low-resolution images. The second contribution of the thesis is a semi-automatic pipeline which was used to create a novel database containing annotated sequences of challenging low-resolution number plate im- ages. The third contribution is a novel CNN based generator of super-resolution number plate images. The generator translates the input low-resolution image into its high-quality counterpart which preserves the structure of the input and depicts the same string which was previously predicted from a video-sequence. 1
187

Influence of gangliosides in the dynamics and partitioning of CD82 and its partners / Influence des gangliosides dans la dynamique et la compartimentation de la tétraspanine CD82 et de ses partenaires

Fernandez, Laurent 22 September 2017 (has links)
Un membre de la famille des tétraspanines, CD82, est une protéine transmembranaire et l'un des rares suppresseurs de métastase identifié jusqu'à présent. Cependant, le mécanisme de suppression de métastase induite par CD82 reste mal compris. Les tétraspanines, y compris CD82, ont la propriété unique de créer un réseau d'interactions protéines-protéines à la membrane plasmique, appelé « tetraspanin web ». Dans ce réseau, CD82 est connu pour interagir avec d’autres tétraspanines, y compris CD9, CD81 et CD151, en plus d’autres protéines membranaires telles que les intégrines, les récepteurs de facteurs de croissance et les protéines de type immunoglobuline. De plus, des travaux antérieurs ont identifié que l'interaction de CD82 avec l’EGFR, d'autres tétraspanines et les intégrines dépend de l'expression des gangliosides au sein de la membrane plasmique.À ce jour, les études dans ce domaine ont utilisé des techniques d'ensemble qui ne peuvent pas tenir compte de la dynamique et de la stochasticité de la membrane, alors qu'il est maintenant bien établi que l'organisation spatio-temporelle de ses composants est cruciale pour certaines fonctions cellulaires.Ainsi, lors de ma thèse de doctorat, j'ai cherché à étudier à la fois la dynamique et la compartimentation de CD82 et de ses partenaires à la membrane plasmique des cellules épithéliales mammaires HB2. Pour ce faire, la technique de pistage en molécule unique basée sur l’utilisation d’un microscope TIRF a été utilisée afin d’obtenir des informations directes à l'échelle nanométrique sur la dynamique de protéines individuelles dans les cellules vivantes. Nos expériences en pistage de molécule unique ont démontré que l'expression de CD82 augmentait la dynamique CD81 à la membrane plasmique des cellules HB2 et modifiait ses interactions au sein du tetraspanin web. En revanche, les dynamiques de CD9 et de l’intégrine α3 n'ont pas été modifiées par l'expression de CD82. De plus, en modifiant enzymatiquement l'expression des gangliosides, nous avons montré que ces lipides sont impliqués à la fois dans la dynamique et la compartimentation des tétraspanines à la membrane plasmique. En effet, la déplétion en gangliosides entraine une augmentation de la dynamique de CD82, CD81 et de l’intégrine α3 ainsi qu'une redistribution des tétraspanines à la membrane plasmique. Nous avons également étudié la migration en 2D des cellules HB2 et montré que CD82 et les gangliosides modifiaient de façon différentielle la migration des cellules HB2.L’ensemble de nos résultats démontrent que CD82 et les gangliosides modulent de manière différente la dynamique et la compartimentation des tétraspanines et de leurs partenaires à la membrane plasmique des cellules HB2. Enfin, ce travail suggère que l'activité de CD82 en tant que suppresseur de métastase pourrait être en partie liée à sa capacité, en coopération avec les gangliosides, à moduler l'organisation spatio-temporelle de ses partenaires au sein du tetraspanin web. / A member of the family of tetraspanins, CD82, is a transmembrane protein and one of the rare metastasis suppressors identified so far. However, the mechanism of CD82-induced metastasis suppression remains not fully revealed. Tetraspanins, including CD82, have the unique property to create a network of protein-protein interactions within the plasma membrane, called tetraspanin web. Within this network, tetraspanins interact with each other (eg. CD82 with CD9, CD81 and CD151) as well as with other proteins, such as: integrins, growth factor receptors and immunoglobulin-like proteins. Additionally previous work has identified that the interaction of CD82 with EGFR, other tetraspanins and integrins depends on the expression of gangliosides at the plasma membrane.To date, studies in this field have employed ensemble-averaging techniques which are unable to account for membrane dynamics and stochasticity. Nevertheless, it is now well established that the spatio-temporal organization of its components is crucial for cellular functions.Thus, during my PhD thesis I aimed to study both the dynamics and partitioning of CD82 and its partners at the plasma membrane of HB2 mammary cells. To achieve this aim, a TIRF-based Single Molecule Tracking (SMT) approach was employed to provide direct nanoscale insights by observing individual proteins in living cells. Our SMT experiments demonstrated that CD82 overexpression increased CD81 dynamics at the plasma membrane of HB2 cells and modified its interaction within the tetraspanin web. In contrast, CD9 and α3 integrin dynamics were not modified by CD82 expression. Moreover, by enzymatically tuning gangliosides expression, we showed that these lipids are involved in both dynamics and partitioning of tetraspanins at the plasma membrane. Indeed, gangliosides depletion resulted in an increase in CD82, CD81 and α3 integrin dynamics as well as a redistribution of tetraspanins at the plasma membrane. We also investigated the 2D migration of HB2 cells showing that CD82 and gangliosides differentially altered the cellular migration of HB2 cells.Taken together, our results demonstrate that both CD82 and gangliosides differentially modulate the dynamics and partitioning of tetraspanins and their partners at the plasma membrane of HB2 cells. Finally, this work suggests that CD82 activity as metastasis suppressor could be in part linked to its ability, in cooperation with gangliosides, to modulate the spatio-temporal organization of its partners within the tetraspanin web.
188

Gaining Depth : Time-of-Flight Sensor Fusion for Three-Dimensional Video Content Creation

Schwarz, Sebastian January 2014 (has links)
The successful revival of three-dimensional (3D) cinema has generated a great deal of interest in 3D video. However, contemporary eyewear-assisted displaying technologies are not well suited for the less restricted scenarios outside movie theaters. The next generation of 3D displays, autostereoscopic multiview displays, overcome the restrictions of traditional stereoscopic 3D and can provide an important boost for 3D television (3DTV). Then again, such displays require scene depth information in order to reduce the amount of necessary input data. Acquiring this information is quite complex and challenging, thus restricting content creators and limiting the amount of available 3D video content. Nonetheless, without broad and innovative 3D television programs, even next-generation 3DTV will lack customer appeal. Therefore simplified 3D video content generation is essential for the medium's success. This dissertation surveys the advantages and limitations of contemporary 3D video acquisition. Based on these findings, a combination of dedicated depth sensors, so-called Time-of-Flight (ToF) cameras, and video cameras, is investigated with the aim of simplifying 3D video content generation. The concept of Time-of-Flight sensor fusion is analyzed in order to identify suitable courses of action for high quality 3D video acquisition. In order to overcome the main drawback of current Time-of-Flight technology, namely the high sensor noise and low spatial resolution, a weighted optimization approach for Time-of-Flight super-resolution is proposed. This approach incorporates video texture, measurement noise and temporal information for high quality 3D video acquisition from a single video plus Time-of-Flight camera combination. Objective evaluations show benefits with respect to state-of-the-art depth upsampling solutions. Subjective visual quality assessment confirms the objective results, with a significant increase in viewer preference by a factor of four. Furthermore, the presented super-resolution approach can be applied to other applications, such as depth video compression, providing bit rate savings of approximately 10 percent compared to competing depth upsampling solutions. The work presented in this dissertation has been published in two scientific journals and five peer-reviewed conference proceedings.  In conclusion, Time-of-Flight sensor fusion can help to simplify 3D video content generation, consequently supporting a larger variety of available content. Thus, this dissertation provides important inputs towards broad and innovative 3D video content, hopefully contributing to the future success of next-generation 3DTV.
189

Modèles multi-échelles pour l'analyse d'images : application à la turbulence

Zille, Pascal 07 November 2014 (has links)
Cette étude a pour cadre l’analyse d’images dans un contexte multi-échelles, une attention particulière étant portée sur les images fluides dans un contexte turbulent. Nous traitons en premier lieu le problème de l’estimation de mouvement. Dans un contexte multi-échelles, on néglige bien souvent dans un premier temps la contribution des fines échelles du problème. Nous proposons, pour pallier ce problème, plusieurs termes d’attache aux données dérivant de l’OFCE. Ceux-ci permettent, à chaque niveau d’échelle, la prise en compte de ces composantes fines échelles. Les performances de ces termes sont expérimentalement démontrées sur des images générales et fluides. Nous abordons en second lieu le problème de super-résolution d’images de scalaires passifs : nous souhaitons reconstruire, de manière explicite, certains détails manquants au sein d’images basse résolution données. Pour cela, nous utilisons plusieurs modèles issus de la simulation des grandes échelles ainsi que des méthodes d’assimilation de données permettant d’assurer une certaine cohérence temporelle de la solution. Les approches présentées sont expérimentalement étudiées sur différentes séquences d’images. Enfin, nous proposons une méthode d’estimation multi-résolution permettant de combiner de manière simultanée les informations issues des différents niveaux de résolution. / This thesis is concerned with image analysis within a multi-scale framework. Specific attention is given to fluid images in the presence of turbulence. In a first part, we adress the problem of multi-scale motion estimation from image sequences. Starting from OFCE equation, we derive several image data terms allowing to take into account, while estimating the solution coarse scales, the contribution of the finer scales components usually neglected in classic approaches. The performances of the resulting estimators is demonstrated on both general and fluid images. The second step of this study is concerned with the problem of passive scalar images super- resolution : starting from low resolution input images, we aim at recovering some of the missing high frequencies. We proposed several methods inspired by the LES framework, as well as data assimilation techniques, in order to ensure the solution consistency over time. Such approaches are experimented and compared over various image sequences. Finally, we propose a multi-resolution estimation method simultaneously combining informations from different grid levels.
190

Single particle imaging in the cell nucleus : a quantitative approach / Une approche quantitative de la microscopie en molécule unique dans le noyau des cellules

Récamier, Vincent 20 November 2013 (has links)
Le noyau cellulaire est le siège de réactions chimiques dont le but est l’expression de gènes, la duplication du génome et du maintien et l’intégrité de l’information génétique. Ces réactions sont régulées au cours du cycle cellulaire ou en réponse à un stress. Parmi elles, la transcription permet qu’une séquence d’ADN soit reproduite sous forme d’ARN messager. La transcription est un exemple frappant de processus fondamental pour la cellule impliquant parfois un nombre très faible de molécules. En effet, il n’y a souvent dans un même génome que quelques copies d’un même gène. Le but de cette thèse est d’imager les processus nucléaires dans des cellules humaines à l’échelle de la molécule unique et d’en extraire les grandeurs caractéristiques. Depuis les années 90, des inventeurs de génie ont développé des méthodes simples à partir de microscopes inversés ordinaires pour observer des molécules individuelles jusque dans le noyau des cellules. Nous avons utilisé ces méthodes pour suivre des facteurs de transcription qui régulent la transcription d’un gène. Nos mesures montrent que, bien que hiératique, l’exploration du noyau par les facteurs de transcriptions est régulée par leurs propriétés chimiques. L’agencement des composants du noyau guide les facteurs de transcription dans la recherche d’un gène. Comme exemple de cet agencement, nous nous sommes ensuite intéressés à l’organisation de l’ADN dans le noyau pour montrer qu’elle présentait les caractéristiques d’une structure auto-organisée, une structure fractale. Cette structure change en réponse aux aléas de la vie de la cellule. Dans une dernière étude, nous avons suivi un locus dans le noyau d’une levure. La structure du noyau, qui est révélée par notre méthode, contraint la diffusion du locus à un régime de reptation. Tous ces résultats montrent combien la structure du noyau et les réactions chimiques qui y ont lieu sont interdépendantes. Cette thèse a également permis le développement de méthodes de quantification précises des réactions cellulaires à l’échelle de la molécule unique. / The cell nucleus is a chemical reactor. Nuclear components interact with each other to express genes, duplicate the chromosomes for cell division, and protect DNA from alteration. These reactions are regulated along the cell cycle and in response to stress. One of the fundamental nuclear processes, transcription, enables the production of a messenger RNA from a template DNA sequence. While mandatory for the cell, transcription nevertheless may involve a very small number of molecules. Indeed, a single gene would have only few copies in the genome. During my PhD, I studied nuclear processes in human cells nuclei at the single molecule level with novel imaging techniques. I developed new statistical tools to quantify nuclear components movement that revealed a dynamic nuclear architecture. Since the 90s, simple methods have been developed for the observation of single molecules in the cell. These experiments can be conducted in an ordinary inverted microscope. We used these methods to monitor nuclear molecules called transcription factors (TF) that regulate transcription. From TF dynamics, we concluded that nuclear exploration by transcription factors is regulated by their chemical interactions with partners. The organization of the components of the nucleus guide transcription factors in their search of a gene. As an example of this organization, we then studied chromatin, the de-condensed form of nuclear DNA, proving that it displays the characteristics of a self-organized fractal structure. This structure changes in response to cellular fate and stress. In yeast, we showed that the interminglement of chromatin constrained DNA locus movement in a reptation regime. All these results show the interdependence of the structure of the nucleus and of its chemical reactions. With combination of realistic modeling and high resolution microscopy, we have enlightened the specificity of the nucleus as a chemical reactor. This thesis has also enabled the development of accurate methods for the statistical analysis of single molecule data.

Page generated in 0.0593 seconds