Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
111 |
STED-fluorescence correlation spectroscopy for dynamic observations in cell biology : from theoretical to practical approaches / STED-spectroscopie de corrélation de fluorescence pour des observations dynamiques en biologie cellulaire : de l'approche théorique à l'approche pratiqueWang, Ruixing 06 June 2018 (has links)
Les techniques de super-résolution offrent un nouvel aperçu de la description de l'organisation moléculaire dynamique de la membrane plasmique. Parmi ces techniques, la microscopie par déplétion d'émission stimulée (stimulated emission depletion, STED) dépasse la limite de diffraction optique et atteint une résolution de quelques dizaines de nanomètres. Il est une technique polyvalente qui peut être combinée avec d'autres techniques telles que la spectroscopie par corrélation de fluorescence (fluorescence correlation spectroscopy, FCS), fournissant des résolutions spatiales et temporelles élevées pour explorer les processus dynamiques qui se produisent dans les cellules vivantes. Ce projet de doctorat vise à mettre en œuvre un microscope STED, puis à combiner ce module STED avec la technique FCS pour les applications biologiques. Des études théoriques du STED et de la technique combinant STED et FCS ont permis dans les aspects spatio-temporels. Une solution analytique pour la fonction d'autocorrélation FCS a été dérivée dans l'état de déplétion STED incomplet. et un nouveau modèle d'ajustement FCS a été proposé. La méthode de variation du volume d’observation FCS (spot variation FCS, svFCS) a démontré sa capacité à identifier la présence de nanodomaines limitant la diffusion latérale des molécules dans la membrane plasmique. L’approche STED-FCS permet d’étendre l’application de la svFCS à l'échelle nanométrique afin d’évaluer la persistance plus ou moins importante de tels nanodomaines. Dans ce contexte, des simulations préliminaires de Monte Carlo ont été réalisées figurant des molécules diffusant en présence d'auto-assemblage/désassemblage dynamique des nanodomaines. / Super-resolution techniques offer new insight into the description of the dynamic molecular organization at the plasma membrane. Among these techniques, the stimulated emission depletion (STED) microscopy breaks the optical diffraction limit and reaches the resolution of tens of nanometer. It is a versatile setup that can be combined with other techniques such as fluorescence correlation spectroscopy (FCS), providing both high spatial and temporal resolutions to explore dynamic processes occurring in live cells. This PhD project aims at implementing a STED microscope, and then at combining this STED module with FCS technique for biological applications. Detailed theoretical studies on STED and the combined STED-FCS technique in spatio-temporal aspects were performed. An analytical solution for FCS autocorrelation function was derived in the condition of incomplete STED depletion and a new FCS fitting model was proposed to overcome this problem. The spot variation FCS (svFCS) method has demonstrated its capability to identify the presence of nanodomains constraining the lateral diffusion of molecules at the plasma membrane. The STED-FCS can extend the svFCS approach to the nanoscale evaluating the long-lasting existence of such nanodomains. Within this frame, preliminary Monte Carlo simulations were conducted mimicking molecules diffusing in the presence of dynamic self-assembling/disassembling nanodomains.
|
112 |
Adaptation de la viticulture au changement climatique : vers des stratégies à haute résolution / Adaptation of viticulture to climate change : towards high resolutions strategiesNeethling, Etienne 14 December 2016 (has links)
L'adaptation au changement climatique est un défi majeur pour la viticulture. Dans un cadre temporel et spatial approprié, l'objectif de cette thèse était d'améliorer la conception de l’adaptation de la viticulture au changement climatique, dans le but de construire des stratégies à haute résolution. Le cadre méthodologique utilisé dans cette étude est constitué de plusieurs étapes. Par l’utilisation d’un modèle climatique régional, la première étape a été d'évaluer les impacts potentiels des changements climatiques futurs sur viticulture dans la sous-région d’Anjou-Saumur. Le réchauffement attendu de +1.1°C à +3.8°C à l’horizon 2071-2100 devrait entrainer une avancée significative de la phénologie de la vigne. Dans un deuxième temps, deux sites d’études contrastées en Anjou-Saumur ont fait l’objet de mesures climatiques et agronomiques à l’échelle fine des vignobles. Pendant trois années consécutives, la variabilité locale du climat et du comportement de la vigne a été étudiée. Les résultats ont montré une forte variabilité spatiale des conditions climatiques locales, qui s'est traduite par des différences de phénologie de la vigne et de composition des raisins. La connaissance de cette variabilité apparait ainsi comme un outil d’adaptation permettant aux viticulteurs de compenser les effets du changement climatique. Enfin, à l’aide d'entretiens semi-directifs individuels, les perceptions, la vulnérabilité et les processus d'adaptation des viticulteurs à la variabilité climatique et au changement climatique ont été évalués. Dans le contexte du changement climatique et des enjeux concernant l'adaptation, cette thèse a mis en évidence l'importance de la connaissance de l'environnement local et de la compréhension contextuelle dans l'élaboration des stratégies d'adaptation à différentes échelles temporelles et spatiales. / Adaptation to climate change is a major challenge facing the viticulture sector. Within an appropriate temporal and spatial framework, the aim of this thesis was to enhance the conception of climate change adaptation in viticulture, all towards constructing high resolution strategies. The methodological framework used in this study consisted of several steps. Using a regional climate model, the first step was to evaluate the potential impacts of future climate changes on grape growing in the Anjou-Saumur wine growing sub-region. With warming predicted to continue by +1.1°C to +3.8°C in the far future, grapevine phenology is expected to advance significantly. Secondly, two contrasting study areas in Anjou-Saumur were equipped with climatic and agronomic measurements at vineyard-level scales. For three consecutive growing seasons, local variability in climate- and grapevine-related variables were studied. Results have shown a strong spatial variability in local climate conditions, which were reflected on grape phenology and grape composition. This spatial heterogeneity in local conditions should represent an important buffer in response to future climate changes, allowing winegrowers to manage the expected climate change impacts. And finally, wine growers’ perceptions, vulnerability and adaptive processes to climate variability and change were assessed through individual semi-structured interviews. Within the context of climate change and the key issues surrounding adaptation, this thesis have highlighted the importance of local environmental knowledge and contextual understanding in framing adaptation strategies across different temporal and spatial scales.
|
113 |
Neurogenèse adulte hippocampique : Rôle fonctionnel dans la mémoire épisodique et recrutement des nouveaux neurones lors de la mémorisation / Adult hippocampal neurogenesis : Functional role in episodic memory and recruitment of newborn neurons during memoryGros, Alexandra 28 September 2015 (has links)
La neurogenèse adulte du gyrus denté de l’hippocampe joue un rôle essentiel dans les processus mnésiques dépendants de l’hippocampe, mais son rôle dans des formes complexes de mémoire comme la mémoire épisodique n’a jamais été exploré. Le travail de cette thèse porte sur l’étude de l’implication des nouveaux neurones de l’hippocampe dans la mise en mémoire d’un souvenir épisodique à long terme. Nous avons développé une nouvelle tâche de mémoire épisodique reposant sur la présentation occasionnelle d’épisodes permettant d’encoder des informations de type « Quoi – Où – Dans quel contexte ». Nous montrons pour la première fois que les rats sont capables de se souvenir à très long terme de brefs épisodes de vie et d’utiliser cette mémoire d’une manière flexible. La caractérisation des profils de rétention permet d’accéder aux capacités individuelles de recollection des différents éléments du souvenir et montre que le rappel fiable de la mémoire épisodique nécessite l’intégrité de l’hippocampe et met en jeu un vaste réseau hippocampo-cortical dont l’activation est corrélée au rappel. Les performances de rats soumis à une irradiation focale de l’hippocampe montrent que la neurogenèse adulte hippocampique contribue de façon significative à la consolidation et au rappel fiable du souvenir épisodique. Ces résultats sont discutés dans le cadre d’une implication de la neurogenèse adulte dans la résolution de la mise en mémoire d’événements occasionnels dans le but de discriminer deux épisodes de vie proches, en lien avec les fonctions de séparation et de complétion de patterns de l’hippocampe. Par ailleurs, les mécanismes moléculaires qui sous-tendent le recrutement des nouveaux neurones lors d’un apprentissage restent inconnus. Nous avons analysé le rôle du gène immédiat précoce Zif268, acteur moléculaire essentiel dans les processus mnésiques, et montrons que ce gène joue un rôle crucial dans la sélection et le recrutement des nouveaux neurones lors de la mémorisation au cours de leur période critique d’intégration dans les réseaux neuronaux de l’hippocampe. Ce travail apporte des éléments nouveaux sur la participation des nouveaux neurones hippocampiques dans les processus mnésiques dans une situation à forte demande cognitive basée sur l’encodage d’une représentation intégrée et résolue d’événements occasionnels complexes, ainsi que sur les mécanismes qui sous-tendent leur recrutement. / Adult hippocampal neurogenesis plays a critical role in hippocampal-dependent memory, however its role in complex forms of memory such as episodic memory has not as yet been explored. The work presented in this thesis focuses on the issue of the involvement of newborn hippocampal neurons in long term episodic memory. We developed a new episodic memory task based on the presentation of occasional episodes allowing rats to encode “What – Where – In which context” information. We show for the first time that rats are able to remember on the long term brief past episodes of life and to use their episodic memory in a flexible manner. The characterization of retention profiles allows us to identify individual abilities in the recollection of the various elements of the memory and shows that episodic memory recall requires the integrity of the hippocampus and involves a hippocampo-cortical network, the activation of which correlates with recall performance. Performance of rats subjected to focal irradiation of the hippocampus shows that adult hippocampal neurogenesis contributes significantly to the consolidation and faithful recall of episodic memory. These results are discussed in the context of the implication of hippocampal newborn neurons in the resolution of memories of occasional events in order to discriminate different, but closely related episodes of life in relation to pattern separation and pattern completion functions of the hippocampus. Furthermore, the molecular mechanisms underlying the recruitment of newborn hippocampal neurons by learning remain to date unknown. We investigated the role of Zif268, an immediate early gene known to play an essential role in memory processes, and show that this gene plays a crucial role in the selection and recruitment of newborn hippocampal neurons by learning during their critical period of integration in hippocampal neural networks. Overall, this work brings new knowledge on the contribution of newborn hippocampal neurons to memory processes in a highly demanding cognitive situation based on the encoding of an integrated and high-resolution representation of complex occasional events, and on the mechanisms underlying their recruitment.
|
114 |
Mise au point et définition du positionnement de nouveaux capteurs EEG compatibles et repérables en IRM : application à la localisation de source / Development and spatial positioning of new EEG sensors compatible and localizable in MRI : application to source localizationKoessler, Laurent 19 November 2007 (has links)
La méthode de localisation de source qui permet d’identifier anatomiquement les générateurs de l’activité électrique cérébrale reste encore actuelle difficile à mettre en place et à utiliser en routine clinique. Une des étapes de cette méthode consiste à repérer spatialement les électrodes EEG positionnées sur le cuir chevelu. Ce travail de Doctorat a consisté à mettre au point de nouveaux capteurs EEG compatibles et repérables en IRM et à automatiser ce processus pour le rendre plus fiable et plus facile d’utilisation. Pour ce faire, nous avons développé et breveté de nouveaux capteurs de signaux électrophysiologiques et nous avons implémenté un algorithme informatique de détection et de labellisation automatique en IRM. Ces dispositifs ont été testés cliniquement chez des sujets sains et des patients épileptiques en comparaison avec la numérisation électromagnétique qui est la technique de référence. Nous avons montré dans un premier temps, l’efficacité de notre méthode du point de vue de la précision, de la reproductibilité et des performances. Nous avons montré ensuite que notre méthode n’engendrait pas d’erreurs de localisation anatomique des générateurs électroneurophysiologiques (PES, PEV, EPIC). Ces études cliniques ont été validées par des enregistrements d’IRM fonctionnelle et par une comparaison avec les données de la littérature. Enfin, nous avons développé un outil de projection de la position des capteurs de surface sur le cortex de façon à identifier les structures anatomiques et aires de Brodmann associées aux capteurs EEG du système international 10/10. Notre méthode de détection et de labellisation automatique des capteurs EEG grâce à l’IRM (ALLES) permet donc de limiter l’intervention humaine et de simplifier la méthode de localisation de source puisque seuls les examens d’EEG et d’IRM deviennent nécessaires. / Spatial localization of scalp EEG electrodes is a major step in dipole source localization and it must be accurate, reproducible and practical. Several methods have been proposed in the last fifteen years. The most widely used method is currently electromagnetic digitization. In this work, we introduce a new automatic method for localizing and labeling EEG sensors using MRI (ALLES). First, we designed a new scalp EEG sensor which is MR compatible and localizable. Secondly, we validated this new technique on a head phantom and then in a clinical environment with normal volunteers and epileptic patients. To do this, we compare the reproducibility, accuracy and performances of our method with electromagnetic digitization. We also demonstrate that our method provides better reproducibility with a significant difference (p < 0.01). Concerning accuracy, both methods are equally accurate with no statistical differences. We have tested our method both on normal volunteers (SEP and VEP studies) and epileptic patients (Spikes studies). Source localizations were not influenced by ALLES and we observe results consistent with the literature. Finally, we develop a method which projects the surface positions of the sensors (10-10 system) onto the cortex. This tool is helpful for visual inspection of high resolution EEG traces and for electroclinical diagnostic. To conclude, automation makes our method (ALLES) very reproducible and easy to handle in a routine clinical environment. It offers the possibility of using MRI volume for both source localization and spatial localization of EEG sensors.
|
115 |
Mechanisms of chromosome segregation in the C. elegans oocyte / Mécanismes de ségrégation des chromosomes dans l'ovocyte de C. elegansLaband, Kimberley 16 November 2017 (has links)
Les gamètes femelles appelés ovocytes sont produits par un type spécifique de division cellulaire appelée méiose. Afin de produire des gamètes haploïdes, et contrairement aux divisions mitotiques des cellules somatiques, la méiose implique une seule étape de réplication du génome suivie de deux étapes de ségrégation des chromosomes. La fidélité de la ségrégation des chromosomes pendant la méiose est cruciale pour éviter l’aneuploïdie embryonnaire qui entraînerait des défauts de développement ou un avortement spontané. Dans la plupart des types cellulaires, la ségrégation des chromosomes repose sur un fuseau composé de microtubules. En parallèle à l'assemblage du fuseau, des complexes multi-protéiques appelés kinétochores s’assemblent sur le côté des chromosomes et leur permettent d’interagir avec les microtubules dynamiques du fuseau. Étonnamment, la ségrégation des chromosomes dans l'ovocyte de C. elegans se déroule d'une manière atypique indépendante des kinétochores. Le mécanisme alternatif utilisé dans ces oocytes pour la ségrégation des chromosomes est cependant inconnu. Au cours de mon doctorat, j'ai utilisé une combinaison d'imagerie photonique à haute résolution temporelle, corrélée à de la microscopie électronique à haute résolution spatiale. J’ai également utilisé de la photoablation par laser des microtubules et réalisé l'inhibition ciblée de protéines clés pour disséquer le mécanisme atypique de ségrégation des chromosomes dans l'ovocyte de C. elegans. Mes résultats montrent que la ségrégation des chromosomes est produite par une force dépendante des microtubules qui pousse les chromosomes. Par une analyse détaillée de l’organisation des microtubules dans des fuseaux en anaphase partiellement reconstruits par microscopie électronique en tomographie, je propose un modèle impliquant la génération de force par l'allongement d’un réseau de courts microtubules formant le fuseau central. De plus, je démontre que l'activité de l'orthologue de CLASP chez C. elegans (CLS-2) est essentielle pour l'assemblage du fuseau en anaphase. Ce travail est actuellement sous presse dans le journal Nature Communications. Parallèlement, j'ai disséqué le rôle de CLS-2 dans l'assemblage du fuseau d'ovocytes et la ségrégation chromosomique. J'ai perturbé de manière systématique les domaines individuels et les résidus conservés de manière évolutive dans CLS-2 pour déterminer leur contribution à la fonction et à la localisation de cette protéine pendant la première méiose femelle. Dans l'ensemble, mes résultats montrent que la ségrégation chromosomique dans l'ovocyte de C. elegans consiste en un mécanisme de poussée chromosomique atypique et dépendant de CLS-2. / Female gametes called oocytes are produced through a specific type of celldivision termed meiosis. In order to produce haploid gametes, and unlike mitoticdivisions of somatic cells, meiosis involves a single round of genome replication followed by two rounds of chromosome segregation. Accuracy of chromosome segregation during meiosis is crucial to avoiding embryonic aneuploidy that wouldlead to developmental defects or spontaneous abortion. In most cell types,chromosome segregation relies on a microtubule-based spindle. Concomitant tospindle assembly, multi-protein complexes termed kinetochores assemble on the side of chromosomes and couple microtubule dynamics to chromosomal movements. Strikingly, in the C. elegans oocyte chromosome segregation occurs in an atypical kinetochore-independent manner. The alternative mechanism used in these oocytes for chromosome segregation is however unknown. During my PhD, I used a combination of high spatial and temporal resolution live imaging, correlated light and electron tomography, laser-mediated photoablation of microtubules, and targeted inhibition of key proteins to dissect this a typical mechanism of chromosome segregation in the C. elegans oocyte. Myresults show that chromosome segregation is driven by a microtubule-dependent force that pushes the segregating chromosomes apart during anaphase. Aftercareful analysis of partially reconstructed anaphase spindles by electrontomography for microtubule quantity, length, orientation, and overlaps, I proposea model involving the elongation and/or sliding of tiled microtubules in the central spindle as the candidate structure responsible for this force generation. Additionally, I demonstrate that the activity of the C. elegans CLASP ortholog CLS-2 is essential for proper anaphase spindle assembly. This work is currently in press at Nature Communications.In parallel, I have more closely examined the role of the C. elegans CLS-2 in oocyte spindle assembly and chromosome segregation. I have thoroughly and systematically perturbed the individual domains and evolutionarily conserved residues in CLS-2 to determine their contribution to the function and localization ofthis protein during the first female meiosis. Overall my results show that chromosome segregation in the C. elegans
|
116 |
Resolution of singularities in foliated spaces / Résolution des singularités dans un espace feuilletéBelotto Da Silva, André Ricardo 28 June 2013 (has links)
Considérons une variété régulière analytique M sur le corps réel ou complexe, un faisceau d'idéaux J défini sur M, un diviseur à croisement normaux simples E et une distribution singulière involutive Θ tangent à E.L'objectif principal de ce travail est d'obtenir une résolution des singularités du faisceau d'idéaux J qui préserve certaines ``bonnes" propriétés de la distribution singulière Θ. Plus précisément, la propriété de R-monomialité : l'existence d'intégrales premières monomiales. Ce problème est naturel dans le contexte où on doit étudier l'interaction d'une variété et d'un feuilletage et, donc, est aussi reliée au problème de la monomilisation des applications et de résolution ``quasi-lisse" des familles d'idéaux.- Le premier résultat donne une résolution globale si le faisceau d'idéaux J est invariant par la distribution singulière;- Le deuxième résultat donne une résolution globale si la distribution singulière Θ est de dimension 1 ;- Le troisième résultat donne une uniformisation locale si la distribution singulière Θ est de dimension 2.On présente aussi deux utilisations des résultats précédents. La première application concerne la résolution des singularités en famille analytique, soit pour une famille d'idéaux, soit pour une famille de champs de vecteurs. Pour la deuxième, on applique les résultats à un problème de système dynamique, motivé par une question de Mattei. / Let M be an analytic manifold over the real or complex field, J be a coherent and everywhere non-zero ideal sheaf over M, E be a reduced SNC divisor and Θ an involutive singular distribution everywhere tangent to E. The main objective of this work is to obtain a resolution of singularities for the ideal sheaf J that preserves some ``good" properties of the singular distribution Θ. More precisely, the R-monomial property : the existence of local monomial first integrals. This problem arises naturally when we study the ``interaction" between a variety and a foliation and, thus, is also related with the problem of monomialization of maps and of ``quasi-smooth" resolution of families of ideal sheaves.- The first result is a global resolution if the ideal sheaf J is invariant by the singular distribution Θ;- The second result is a global resolution if the the singular distribution Θ has leaf dimension 1;- The third result is a local uniformization if the the singular distribution Θ has leaf dimension 2;We also present two applications of the previous results. The first application concerns the resolution of singularities in families, either of ideal sheaves or vector fields. For the second application, we apply the results to a dynamical system problem motivated by a question of Mattei.
|
117 |
L'apport d'un logiciel de simulation d'algorithmes dans le processus enseignement-apprentissage de l'algorithmique chez des apprenants débutants : cas de l'ENSET de Libreville / The contribution of an algorithm simulation software in the algorithmic teaching-learning process for novice learners : case of the Libreville ENSETOvono, Médard-Sylvain 04 October 2018 (has links)
Cette thèse a pour objet l’étude de l'apport de l’introduction des technologies de l'information et de la communication pour l'enseignement (TICE) dans le processus enseignement-apprentissage de l'algorithmique chez les apprenants débutants, en particulier une application de simulation d'algorithmes (AlgoBox). L'utilisation de cet artefact computationnel a pour objectif de proposer une contribution afin de juguler le problème du fort taux d'échec constaté par les responsables administratifs et pédagogiques depuis plusieurs années dans l'enseignement de l'algorithmique et de la programmation à l'Ecole Normale Supérieure de l’Enseignement Technique (ENSET) de Libreville. Ainsi, la mise en place d'un dispositif expérimental conformément aux hypothèses émises et faisant suite à une première expérimentation d'identification et d'analyse de certains indicateurs, a permis de faire l'étude de l'apport du logiciel de simulation d'algorithme. Au terme de cette recherche, il est établi une légère augmentation des performances des apprenants vraisemblablement due non seulement à l’apport de l’artefact, mais aussi à la réactivation des connaissances liées aux savoirs implicites portées par la tâche prescrite. Il convient donc de préconiser d’accompagner l’usage de cette application par la mise en œuvre d’une nouvelle approche afin de permettre la construction d’une pédagogie adaptée (Ginestié, 2008). / This thesis has for object to study of the contribution of the introduction of the TICE's in the teaching-learning process of the algorithmics to the novice learners, in particular an application of simulation of algorithmics (AlgoBox). The use of this computational artifact aims at proposing a contribution in order to solvat the problem of the high rate of failure noticed by the administratives and pedagogicals responsibles for several years in the teaching of the algorithmics and programmations at Ecole Normale Supérieure de l'Enseignement Technique (ENSET) of Libreville.Thereby the implementation of an experimental device according to the emitted hypotheses and following upon a first experiment of identification and analysis of certain indicators, has allowed making the study of the contribution of the simulation software of algorithm. At the end of this research, it is therefore note a slight increase in the performances of the learners most probably due not only to the contribution of the artifact, but also to the reactivation of implicit knowledge carried out by the prescribed task. It is thus advisable to foresee to accompany the use of this application by the implementation a new approach so as to allow the construction of an adapted pedagogy (Ginestie, 2008).
|
118 |
New approaches in super-resolution microscopy / Nouvelles approches microscope de super-résolutionYang, Bin 13 April 2015 (has links)
La première méthode vise à améliorer la vitesse d’imagerie de la microscopie super-résolue àtempérature ambiante pour des applications biologiques. En tant qu’une technique de scan, lamicroscopie STED a besoins d’être parallélisé pour faire de l’imagerie rapide en champ large. Nousavons obtenu une parallélisation massive de la microscopie STED en utilisant les réseaux d’optiqueavec une excitation en en champ large et une caméra rapide pour détection. Les images super-résoluesd’un champ de 3 μm par 3 μm sont acquises en scannant une maille élémentaire du réseau optique, quipeut être aussi petite que 290 nm * 290 nm. La microscopie Lattice-STED est démontrée avec unerésolution allant jusqu'à 70 nm à une cadence de 12,5 images par seconde.La deuxième méthode étend la microscopie super-résolue à la température de l’hélium liquide pourdes applications aux technologies quantiques. Des résolutions optiques à l'échelle nanométrique desémetteurs quantique est une étape cruciale vers le contrôle des états délocalisés formés par lesinteractions fortes et cohérentes entre des émetteurs. Dans ce contexte, nous avons développé unetechnique de microscopie à des températures cryogéniques, dénommée la microscopie Essat. Cettetechnique est basée sur la saturation optique de l'état excité des molécules fluorescentes uniques parl’excitation d’un faisceau en forme d’anneau. Une résolution moins de 10 nm est obtenue avec debasses intensités d'excitation, plus de millions de fois plus faibles que celles utilisées dans lamicroscopie STED à la température ambiante. Par rapport aux approches basées sur la superlocalisation,notre technique offre une occasion unique de résoudre sous la limite de diffraction lesmolécules uniques ayant des fréquences de résonance optiques qui se chevauchent. Ceci ouvre la voieà l'étude des interactions cohérentes entre émetteurs uniques et à la manipulation de leur degréd'intrication. / The first technique aims at improving the imaging speed of super-resolution microscopy at roomtemperature for biological applications. As a scanning technique, STED (Stimulated EmissionDepletion) microscopy needs parallelization for fast wide-field imaging. Using well-designed opticallattices for depletion together with wide-field excitation and a fast camera for detection, we achievelarge parallelization of STED microscopy. Wide field of view super-resolved images are acquired byscanning over a single unit cell of the optical lattice, which can be as small as 290 nm * 290 nm.Lattice-STED imaging is demonstrated with a resolution down to 70 nm at 12.5 frames per second.The second one extends super-resolution microscopy to liquid helium temperature for applications inquantum technologies. Optical resolution of solid-state single quantum emitters at the nanometer scaleis a challenging step towards the control of delocalized states formed by strongly and coherentlyinteracting emitters. ESSat (Excited State Saturation) microscopy operating at cryogenic temperaturesis based on optical saturation of the excited state of single fluorescent molecules with a doughnutshapedbeam. Sub-10 nm resolution is achieved with extremely low excitation intensities, more thanmillion times lower than those used in room temperature STED microscopy. Compared to superlocalisationapproaches, our technique offers a unique opportunity to super-resolve single moleculeshaving overlapping optical resonance frequencies, paving the way to the study of coherent interactionsbetween single emitters and to the manipulation of their degree of entanglement.
|
119 |
Dynamic rerouting in multimodal transportation networks / Reroutage dynamique des passagers dans les réseaux de transport multimodauxDib, Omar 06 November 2017 (has links)
La mobilité humaine s'organise de nos jours dans un contexte multimodal avec des systèmes de transport particulièrement complexes. Le nombre d'usagers va croissant et de nouveaux modes de transport émergent jour après jour en même temps que de nouveaux comportements de mobilité. En conséquence, les utilisateurs se trouvent généralement confrontés à la nécessité de choisir entre plusieurs possibilités pour se rendre d'un point d'origine à leur lieu de destination. Dans le but de les aider à naviguer facilement à travers ces réseaux complexes, un système efficace d'information voyageurs doit être construit. Grâce à ce système, les opérateurs de transport cherchent non seulement à fournir des itinéraires optimaux, mais aussi des solutions efficaces et fiables en cas de perturbations. En réalité, les passagers ne cherchent pas seulement à minimiser le temps de trajet. Ils ont aussi tendance à considérer d'autres critères tels que le confort et l'effort qu'il s'agit alors d'optimiser. Un système de routage efficace devrait donc tenir compte des préférences de chaque passager. En outre, les modes de transport sont souvent enclins à des retards. La prise en considération de l'incertitude est donc un aspect très important pour un calculateur d'itinéraires. Les itinéraires multimodaux proposés doivent non seulement être réalisables dans un cas statique, mais également suffisamment robustes face à des aléas. En outre, tout en intégrant des contraintes essentielles telles que la capacité limitée des véhicules, une attention particulière devrait aussi être accordée à la complexité temporelle des algorithmes de routage développés. L'objectif principal de cette thèse est d'élaborer une formulation qui permet de représenter adéquatement un réseau de transport multimodal. En nous basant sur cette formulation, nous proposons plusieurs algorithmes de routage. Nous nous concentrons en particulier sur la résolution de problèmes de plus courts chemins dans un contexte mono/multicritère dans un réseau de transport dynamique et stochastique. Des métaheuristiques telles que les Algorithmes Génétiques (GA), la méthode de Recherche à Voisinage Variable (VNS) et les Algorithmes Mémétiques (MA) ont été utilisés pour fournir des résultats en temps réel. La performance de calcul a été évaluée en résolvant des requêtes de routage à l'échelle du réseau de transport de la Région française Île-de-France. Les résultats indiquent que les nombreuses instances traitées ont été résolues dans un laps de temps raisonnable et que nos algorithmes de routage sont suffisamment performants pour être intégrés dans un calculateur d'itinéraire multimodal opérationnel. / The human mobility is nowadays organized in a multimodal context with more and more complex transport networks. The number of passengers is increasing and new transport modes enter the system day after day simultaneously with new mobility behaviors. As a result, users usually find themselves more confused when choosing between several possibilities to go from one place to their destination. For the sake of helping them to efficiently navigate through this intricate transportation scheme, an efficient Travelers Information System (TIS) has to be built. Thanks to such a system, the transport operators seek not only to provide passengers with optimal itineraries, but also with efficient and reliable solutions in case of disruptions. In fact, commuters do not only seek short time travels, but they usually consider several other criteria such as comfort and effort. An efficient routing system should therefore take into account the various needs and preferences of each passenger. Besides, transport modes are often prone to delays. Thus, handling uncertainty is also a very important aspect of practical journey planning systems. Moreover, the proposed multimodal routes should not only be feasible in a static case, but also robust against the dynamic and stochastic variations of the transport system. Furthermore, crucial constraints should be taken into account such as the capacity limitation of vehicles and the time complexity of the developed routing algorithms. The main objective of this thesis is to propose a formulation that adequately allows representing a multimodal network. Based on our formulation, we elaborate several efficient routing algorithms. In particular, we focus on solving the Earliest Arrival Problem in a single/multiple criteria context, both in dynamic and stochastic environments. To deal with the real time complexity issue, metaheuristics such as Genetic Algorithms (GA), Variable Neighborhood Search (VNS) and Memetic Algorithms (MA) have been used. The computational performance of this work has been assessed by developing a real world route planning system, and solving real life itinerary planning problems defined on the transport network of the French Region Île-de-France that includes the city of Paris and its suburbs. The emerging computational results indicate that the numerous basic and complex instances were solved within a reasonable amount of time and the integration of the proposed routing framework as a module of an operational TIS is relevant.
|
120 |
Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TVAbboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
|
Page generated in 0.0847 seconds