• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 192
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 963
  • 354
  • 284
  • 190
  • 150
  • 103
  • 94
  • 91
  • 89
  • 89
  • 87
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

L'exigence de coopération dans les contrats internationaux de franchise

Ben Salem, Afif 05 1900 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal. / Le devoir de coopération s'affirme comme un nouveau concept destiné à faciliter le bon usage des accords contractuels. En élargissant les principes de bonne foi ou d'intérêt commun, il jouxte la notion d'affectio societatis du droit des sociétés. Ce concept s'est particulièrement développé pour appuyer la mondialisation des échanges économiques aussi bien comme guide des parties contractantes dans la bonne administration de leurs relations que comme mode d'interprétation ou de règlement des différends. Le devoir de coopération est un souffle nouveau destiné à rendre implicite une attitude coopérative et non plus antagoniste des parties. Le domaine de.la franchise internationale est une , bonne illustration de ce nouveau concept: les parties au contrat de franchise internationale doivent s'adapter au marché local par exemple, ce qui nécessite à l'évidence une attitude entrepreneuriale coopérative. Le devoir de coopération peut être conçu comme une notion clef de la bonne exécution contractuelle. Il est en tout cas déjà consacré comme tel en droit contractuel international où il agit comme source de droit supplétive lorsque la lettre du contrat s'avère insuffisante. / The duty to cooperate is emerging as a new legal concept intended to facilitate the performance of contractual agreements. By broadening the principles of good faith or common interest, the notion of cooperation could be seen as analogical to the notion of affectio societatis in the right of societies? This notion has developed in particular to support the globalization of economic exchanges, not only as a guide for contracting parties in the proper administration of their relationship, but also as a mode of interpretation or for dispute resolution. The duty to cooperate is an innovative notion designed to create an implicit cooperative, no longer antagonistic , attitude among the parties. This is could be best demonstrated by examining its development in the field of international franchising : for example, the parties to an international franchising agreement must adjust their business plan to the local market and culture, which obviously necessitates a cooperative entrepreneurial attitude. The dut y to cooperate should be understood as a key element in the proper performance of contractual agreements. It has already been acknowledged as such normative compone nt in international contractual law where it serves as a suppletive law in those cases where the letter of the contract is insufficient.
652

La résolution du contrat de vente en droit OHADA : d’une réforme à l’autre

Ebata, Rodrigue N. 08 1900 (has links)
La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part. / The Treaty on Harmonisation of Business Law in Africa signed on October 17th, 1993 created the Organisation for Harmonisation of Business law in Africa (OHBLA).OHBLA organises common rules on resolution of sales contracts. The Book VIII of the Uniform act on General Commercial Law adopted on December 15th, 2010 replaces the previous act of April 17th, 1997. According to article 281 of this uniform act, contract resolution only occurs when there is a partial or total non execution of one party’s obligation. The present study is going to examine one of the difficulties that exist in the resolution of sales contracts in African business law. Our study will consist in evaluating the consequences of substitution of the substantial privation criteria by the seriousness of the debtor’s behaviour in OHBLA sales law. This substitution justifies a unilateral contract termination. This new OHBLA law position somehow distinguish itself from material uniform law and joins a new position socioeconomically more adapted to regional and even international business. Moreover, the prejudiced party will have to determine the gravity of the debtor’s behaviour risking to be punished for lack of motives and according damages to the other party. In fact, in order to save the contract by all means according to the favor contractus principle, how will the judge subsequently determine if the debtor’s behaviour gravity is enough to breach the contract? This new criterion of the gravity of a contracting party’s behaviour comes in replacement of the substantial privation criteria and enhances the cohabitation of the traditional judiciary termination and the unilateral cancellation which is still uncertainly defined. Cases related to contract resolution caused by non-execution of mandatory or accessory obligations in OHBLA law will be carefully examined as well as their effects on contracting parties. In a comparative approach with the Vienna Convention and private codifications such as UNIDROIT principles or European contract law, we will wonder about the use and the consequences of resolution of sales contract in OHBLA law caused by non-execution a mandatory obligation on one part and the gravity of one party’s behaviour on the other part.
653

Analysis of the esophagogastric junction using the 3D high resolution manometry

Nicodème, Frédéric 10 1900 (has links)
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO. / Background & Aims: Conventional water-perfused manometry and high resolution manometry permitted the development of a variety of manometric methodologies and metrics to understand the motility of the esophagus and to quantify esophagogastric junction (EGJ) characteristics. However, the anatomy in the area of the EGJ is complex and intraluminal manometry recordings detect pressure signals referable both to intrinsic esophageal structures and to adjacent extrinsic structures impinging on the esophagus. Both have distinct sphincteric mechanisms within the EGJ. The dominant pressure signals detected near the EGJ are attributable to the lower esophageal sphincter (LES) and the crural diaphragm (CD). However, neither of these technologies were able to distinguish between the different components of the EGJ. When analyzing EGJ characteristics as a reflection of its competence against reflux, the more widely used manometric parameters are the EGJ length and the respiratory inversion point (RIP), defined as the location at which inspiratory pressure deflections change from positive (abdomen) to negative (chest). However, the significance of these metrics has not gained wide acceptance in the gastroenterology community as evident in a recent American Gastroenterology Association Institute (AGAI) Position Statement (1) concluding that ‘The current role of manometry in gastroesophageal reflux disease (GERD) is to exclude motor disorders as a cause of the continued symptoms’. During deglutition, the objective quantitative measurement of EGJ relaxation, the integrative relaxation pressure (IRP), permits one to distinguish between normal and abnormal EGJ relaxation. However, comparison between spatial pressure variation plots and relaxation pressures derived from circumferentially averaged pressures suggest a persistent high pressure at the hiatal center during a period that flow is known to be occurring whereas this was not seen using nadir radial pressure data. Recently, a 3D-high resolution manometry (3D-HRM) assembly (Given Imaging, Duluth, GA) has been developed with the potential to simplify the assessment of EGJ pressure morphology and physiology. The 3D segment of the array permits high resolution recording both axially and radially while maintaining a stationary sensor position. Consequently, 3D-HRM should allow for the measurement of important EGJ parameters such as length and RIP. Data extracted from the 3D-HRM recording may also allow differentiating pressure signals within the EGJ attributable to the intrinsic sphincter and to the surrounding elements. Moreover, 3D-HRM preserves the individual pressure values of each radially dispersed sensor within the array, permitting one to overcome the apparent persistent high pressure during the deglutitive relaxation. Thus, the aims of this work were 1) to describe the EGJ pressure morphology at rest, comparing measures made with real time 3D-HRM to simulations of a conventional pull-through protocol and to define the pressure signatures attributable to the diaphragmatic and LES pressure components within the 3D-HRM recording; 2) to assess deglutitive EGJ relaxation by testing the hypothesis that the 3D-HRM array using an analysis paradigm based on finding the minimal radial pressure at each axial level (3D-eSleeve) should provide a representation of the luminal pressure gradient across the EGJ that is more relevant to predicting periods of trans-sphincteric flow using barium transit on fluoroscopy as the comparator. We also sought to adapt the IRP metric to the 3D-HRM array using the 3D-eSleeve principle (3D-IRP) and compare normative values obtained with this new paradigm to standard IRP calculations. Methods: Patients were studied with a 3D-HRM assembly. The 3D-HRM assembly incorporated a 9 cm 3D-HRM segment into an otherwise standard HRM assembly; the 3D segment was comprised of 12 rings of 8 radially dispersed independent pressure sensors, spaced 7.5mm apart. At rest, 9 volunteers were studied and recordings were done during a station pull-through of the 3D-HRM segment withdrawing it across the EGJ at 5 mm increments with each position held for 30s (sufficient to capture several respiratory cycles). Conventional measures of ‘LES length’ were made using 4 radially dispersed sensors within the 3D-HRM array, defining the margins of the sphincter by a 2 mmHg pressure increase relative to gastric or esophageal pressure. In the 3D-HRM, the proximal and distal limits of the EGJ were defined as the axial locations first detecting a 360° circumferential pressure increase of 2 mmHg relative to the stomach. RIP was determined, A) in the tracing mode: using the pull-through of 4 single sensors spaced 7.5 mm apart [RIP is the average value of 4 radially dispersed sensors] and B) in a stationary position using the software pressure inversion point (PIP) tool. In the esophageal pressure topography (EPT) mode, the tracing changed progressively from a thoracic pattern to an abdominal pattern, and the RIP was localized within the inversion zone with the PIP tool tracing. For the study of the EGJ deglutitive relaxation, 25 volunteers underwent 3 consecutive 10-swallows protocols of 5 ml of water in the supine position with both the standard (once) and 3D-HRM (twice) devices in random sequence. During the 3D-HRM studies, the EGJ was measured once with the 3D-sleeve segment and once with a proximal (non-3D sleeve portion) of the device incorporating standard HRM sensors. For each subject, the IRP was calculated in four ways: 1) conventional method with the standard HRM device, 2) conventional method with a standard HRM segment of the 3D-HRM device, 3) conventional method using the 3D-HRM sleeve segment, and 4) a novel 3D-HRM eSleeve paradigm (3D-IRP) localizing the radial pressure minimum at each locus along the eSleeve. Fourteen additional subjects then underwent synchronized simultaneous videofluoroscopy and 3D-HRM (including two 5-ml barium swallows). Pressure data were exported to MATLAB™ and four pressures were measured simultaneously: 1) esophageal body pressure 2cm above EGJ, 2) intragastric pressure, 3) radially average eSleeve pressure and 4) 3D-eSleeve pressure. Data were plotted to determine the flow permissive time (FPT) characterized as periods during which a pressure gradient through the EGJ is present (esophageal pressure > EGJ relaxation pressure (radial average or 3D-eSleeve paradigm) > gastric pressure). FPT was calculated during a 10s time window after upper sphincter relaxation. The presence or absence of bolus transit or FPT was coded with dichotomous values for each 0.1 s. We calculated the corresponding sensitivity and specificity for both radial average and 3D-eSleeve analyses of FPT with bolus transit evident on fluoroscopy being the reference. Results: 3D-HRM recordings suggested that sphincter length assessed by a pull-through method greatly exaggerated the estimate of LES length by failing to discriminate among circumferential contractile pressure and asymmetric extrinsic pressure signals attributable to diaphragmatic and vascular structures. Real-time 3D EGJ recordings found that the dominant constituents of EGJ pressure at rest were attributable to the diaphragm. The 3D-IRP was significantly less than all other calculations of IRP with the upper limit of normal being 12 mmHg vs. 17 mmHg for the standard IRP. The sensitivity (0.78) and the specificity (0.88) of the 3D-eSleeve were also better than the standard eSleeve (0.55 and 0.85, respectively) for predicting flow permissive time verified fluoroscopically. Discussion & Conclusion: Our observations suggest that the 3D-HRM permits real-time recording of EGJ pressure morphology facilitating analysis of the EGJ constituents responsible for its function as a reflux barrier at rest. The axial and radial spatial resolution of the 9 cm 3D-HRM segment may permit further studies to differentiate pressure signals within the EGJ attributable to the LES and to extrinsic structures (diaphragm and vascular artifacts). These attributes of the 3D-HRM device suggest it to be a promising new tool in the study of GERD pathophysiology. During deglutition, we evaluated the feasibility of improving the measurement of IRP utilizing a novel 3D-HRM assembly and a novel 3D-eSleeve concept based on finding the axial maximum of the radial minimum pressures at each sensor ring along the sleeve segment. Our findings suggest that this approach is more accurate than standard HRM and other methods that utilize a radially averaged pressure within the EGJ. Although we can only speculate on how much this will improve clinical management, 3D-HRM will certainly improve the accuracy of EGJ relaxation measurements and this will certainly impact research endeavors focused on modeling EGJ function during swallowing and reflux.
654

Analyse par spectrométrie de masse des antibiotiques vétérinaires liés à l’élevage porcin

Solliec, Morgan 08 1900 (has links)
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées. / Swine production is a major source of antibiotic release into the environment via manure spreading on agricultural fields. It has been shown that these biologically active compounds may have a toxic impact on ecosystems. Moreover, they are also suspected to cause health problems and contribute to bacterial resistance that could lead to difficult-to-treat infections in humans. Therefore, control of these substances in the environment is necessary. Several analytical methods are proposed in the scientific literature to identify these compounds in various matrices. However, few of these methods allowed the analysis of these contaminants in matrices derived from intensive livestock farming. Furthermore, the analytical methods available are often subject to false positives, given the complexity samples and the equipment used and do not take into account the metabolites and degradation products. Finally, concentration levels reached with these methods are sometimes outdated since the evolution of analytical chemistry and mass spectrometry. In this context, new analytical methods have been developed to investigate and quantify the antibiotics derived from swine husbandry to propose alternative, sensible, selective and robust approaches to quantify these molecules. A first analytical method has been proposed based on an alternative sample introduction technique using the laser diode thermal desorption interface with an atmospheric pressure chemical ionization source coupled to tandem mass spectrometry. The objective was to provide a simpler and faster analysis while reaching levels suitable for the studied matrix. This alternative sample introduction method coupled with an efficient sample processing allowed the analysis of several classes of veterinary antibiotics in swine manure in a short analysis time. Detection limits ranged between 2.5 and 8.3 µg kg-1 and are comparable with those obtained with liquid chromatography in a similar matrix. In order to simultaneously analyze a series of tetracyclines, a second analytical method using liquid chromatography coupled to high-resolution mass spectrometry (HRMS) was proposed. The use of HRMS was motivated by the fact that this mass spectrometer is less sensitive to false positive that the traditional triple quadrupole given the complexity of the studied matrix. Detection limits between 1.5 and 3.6 µg kg-1 have been achieved in swine manure using a fragmentation analysis mode to avoid false positives. Targeted screening methods are interesting approaches when contaminants are suspected to be present in a sample. However, a non-included contaminant in this targeted analysis method could not been detected even at a high concentration. In this context, a non-target compound screening method focused on veterinary pharmaceutical compounds in swine manure was developed using liquid chromatography coupled to high-resolution mass spectrometry. A polymeric SPE cartridge was used to collect polar compounds including pharmaceuticals prior analysis. This method allowed the identification of antibiotics and pharmaceuticals of commonly used in swine farming. Most of the analytical methods available in the literature focus on parent compounds, regardless degradation products. The approach used in the second method of analysis was applied and extended to other classes of antibiotics to measure concentrations of several antibiotic residues in soils and drainage waters of an experimental agricultural field. Field soil contained a mixture of antibiotics and their related degradation products with concentrations measured up to 1020 µg kg-1. Some of these compounds have migrated through the field via drainage waters wherein concentrations up to 3200 ng L-1 were observed.
655

Métrologie des pressions partielles de gaz (CO2 et CH4) à l'équilibre avec les eaux de formation des marnes de Bure (Meuse - Hte Marne, France) et Mont Terri (St Ursanne, Suisse) : interprétation des mécanismes de transfert de gaz après forage / Metrology of gas partial pressures (CO2 and CH4) at equilibrium with formation porewatersof Bure marls (Meuse Hte Marne, France) and Mt Terri (St Ursanne, Switzerland) : interpretation of the migration mechanisms of gases after drilling

Cailteau, Christelle 04 July 2008 (has links)
Pour mieux appréhender les mécanismes de transfert des gaz (CO2 et CH4) dissous dans l’eau porale des formations des marnes du site de Bure et des argiles à Opalinus (AOP) du Mt Terri dans leur état initial, un capteur infrarouge (IRTF) et un banc optique Raman innovant ont été développés et installés en laboratoire souterrain. Ces capteurs sont intégrés au dispositif de l’expérimentation « d’équilibration de gaz » développée par l’Andra (PAC) qui vise à suivre l’évolution d’une phase gazeuse initialement neutre au contact de la formation et de son eau porale grâce à un forage effectué et maintenu dans des conditions anaérobiques. Ces capteurs permettent un suivi quantitatif in situ et en ligne des gaz libérés par la formation à basse pression totale (<1,3 bar). Les modèles quantitatifs développés pour la mesure infrarouge ont une erreur relative moyenne de 1,66 % pour la pCO2 (mbar.m) et de 1,37 % pour la pCH4 (mbar.m). L’instrumentation IR d’un forage sur le site du Mt Terri et de deux forages sur le site de Bure (faciès C2b1 et C2d) a permis d’obtenir les courbes de transfert des deux gaz. Les courbes de transfert du CH4 ont été modélisées par un modèle de diffusion-advection qui ont permis l’évaluation de la concentration locale en CH4 dissous dans l’eau porale : elles sont comprises entre 3,06 et 14,23 mg.L-1 pour les AOP, et entre 0,36 et 1,28 mg.L-1 pour le faciès C2d et entre 0,56 et 1,55 mg.L-1 pour le faciès C2b1 des argilites de Bure. On montre que les équilibres eau/gaz/roche gouvernent la pCO2 après forage alors que la diffusion/advection explique son évolution sur le long terme. Une origine intraformationnelle des alcanes dissous est envisagée / An infrared sensor (IRTF) and an innovative Raman optical bench were implemented and developed in underground laboratories to improve our knowledge about migration mechanisms of dissolved gases (CO2 and CH4). This study is focussed on the characterisation of the initial state of the porewater of Callovo-Oxfordian marl (Bure) and Opalinus Clay (Mt Terri Middle Jurassic). These sensors are integrated into experimental devices of gas-equilibration test developed by Andra (PAC) to follow the gaseous phase behaviour in contact with the rock formation through a borehole drilled and maintained in anaerobic conditions, and initially filled with pure argon. These in situ sensors allow, on line quantitative analysis of gases released by the rock formation at low bulk pressure (<1.3 bar). Quantitative models were developed to transform peak intensities in partial pressures of gas. They give mean absolute relative errors about 1.66 % for pCO2 (mbar.m) and 1.37 % for pCH4 (mbar.m). Three years of IR monitoring of one borehole on the site of Mt Terri and two boreholes on the site of Bure (facies C2b1 and C2d) have been led. CH4 transfer curves were modelled by diffusion-advection. CH4 concentration in porewater from non-perturbed rock formation is estimated from all the experiments: concentrations between 3.06 and 14.23 mg.L-1 was obtained for Opalinus Clay, between 0.36 and 1.28 mg.L-1 for C2d facies and between 0.56 and 1.55 mg.L-1 for C2b1 facies in Callovo-Oxfordian marls of Bure. Gas/rock/water balance governs pCO2 after drilling, whereas diffusion/advection laws explain CO2 long-term profiles. An intra-formational origin of the organic gases can be proposed
656

Convergence entre Web Social et Web Sémantique. Application à l'innovation à l'aide du Web / Convergence between the Social and the Semantic Web. Application to Innovation on the Web

Stankovic, Milan 07 December 2012 (has links)
Cette thèse s’inscrit dans le cadre de travaux relatifs au Web Social Sémantique, dans la perspective de la complémentarité et de la coévolution de deux aspects du Web, l’aspect social et sémantique. Le développement du Web au cours de ces dernières années a fait émerger un énorme graphe de données structurées, sémantiques résultant en partie de l’activité des utilisateurs, le LOD. Nous nous intéressons à l’utilisation de ce graphe afin de faciliter l’accès à l’information présente sur le Web, et ce de manière utile, informative et enrichissante pour l’utilisateur. Cette problématique est notamment étudiée dans les scénarios de l’innovation sur le Web – pratiques visant à utiliser des technologies du Web pour contribuer à l’émergence de l’innovation. Une spécificité de ce contexte, assez peu abordé dans la littérature existante, est sans doute le besoin d’inciter les découvertes inattendues et fortuites. Au delà de la simple pertinence sollicitée dans toute situation de recherche et de recommandation sur le Web, le contexte d’innovation impose une certaine ouverture d’esprit pour permettre à l’utilisateur d’accéder aux informations inattendues mais néanmoins pertinentes, et permet par la même occasion de s’inspirer et de transposer des idées d’un domaine à l’autre. Les travaux présentés dans cette thèse ont donc pour objectif d’aider, de manière directe ou indirecte, les acteurs de l’innovation en ligne (e.g., les entreprises qui cherchent à innover, les experts et les porteurs d’idées) de faire des découvertes. Cet objectif ce décline particulièrement par les travaux de construction d’un système de recherche d’experts, un système de recommandation de mots-clés pertinents pour un problème et un système de recommandation de collaborateurs pour aider à un expert d’affronter des problèmes pluridisciplinaires. / This thesis builds upon the work on the Social Semantic Web, a research perspective on the complementarity and coevolution of two aspects of the Web, the social and semantic one. Web development in recent years has given rise to a huge graph of semantically structured data, partly resulting from user activity. We are particularly interested in the use of this graph in order to facilitate access to information found on the Web, in a useful, informative manner. This problem is particularly studied in scenarios related to innovation on the Web - practices to use Web technologies to contribute to the emergence of innovation. A notable specificity of this context, so far little discussed in literature, is the need to encourage serendipity and discovery. Beyond the simple relevance sought in any search and recommendation situation on the Web, the context of innovation requires a certain openness to allow the user to access information relevant yet unexpected, and should also open opportunities to learn and translate ideas from one domain to another.The work presented in this thesis therefore aims to assist, directly or indirectly, the innovators online (eg, companies seeking to innovate, experts and carriers of ideas) to make discoveries. We address each of these challenges in different parts of the thesis. This vision is principally implemented through the construction of an expert search system, Hy.SemEx, a system for keyword recommendation allowing to discover unknown relevant keywords, HyProximity, and an approach for recommending collaborators to experts in order to help them face multidisciplinary problems.
657

Les accords politiques dans la résolution des conflits armés internes en Afrique / Political agreements in the resolution of internal armed conflicts in Africa

Ehueni Manzan, Innocent 07 December 2011 (has links)
L’Afrique est, depuis quelques décennies, « la zone stratégique la plus déstabilisée de la planète ». La question des conflits armés constitue un véritable « casse-tête africain » aussi bien pour les acteurs locaux qu’internationaux qui s’y intéressent en ce que son caractère interne contraste avec les conséquences transnationales qui en résultent.Comment sortir de cette insécurité chronique et de la guerre civile qui guette en permanence derrière le rideau et parvenir à une stabilité et un développement durables afin de limiter au mieux les nombreuses violations des droits de l’homme occasionnées à cet effet?Des approches de solution n’ont pas manqué, allant de la solution militaire, peu respectueuse des vies humaines, à la solution négociée qui appelle au génie créatif de l’homme et de son intelligence, soucieuse de préserver le genre humain en « imaginant » ou en « inventant » des compromis inscrits dans des accords, essentiellement, politiques. C’est donc, à juste titre, que l’objet de notre étude porte sur cette question africaine traduite par un intitulé très actuel : « Les accords politiques dans la résolution des conflits armés internes en Afrique ». L’analyse envisagée dans la présente étude expose la conclusion des accords politiques en insistant distinctement sur l’environnement politique de leur formation ainsi que le cadre juridique qui les caractérise, d’une part. D’autre part, il paraît indiqué d’examiner l’application de ces accords en décortiquant la feuille de route dans laquelle ils évoluent en vue d’en dresser un bilan scientifiquement objectif afin de mesurer l’effectivité de leur mise en œuvre et leur efficacité en matière de protection des droits de l’homme. / Since some decades, Africa is «the most destabilized strategic area of the plane. » the issue of armed conflicts represent a real «African puzzle» as well for local actors as international ones who are involve in, with its internal characteristic contrast with the transnational consequences which result from.How to get out of this chronically in security and the civil war which permanently watch out behind curtain in order to reach sustainable development and stability in order to better limit numerous violations of human rights done in that fact?Some approaches of solution are numerous, going from military solution less respecting human lives, to the negociated solutions which call for the human genius and his intelligent, anxious to preserve human gender by «imaging» or by « inventing» Compromises signed in agreements, essentially political. Its then, precisely that African issue translated by an updated heading: agreements in the resolution of internal armed conflits in Africa. »The analysis considered in the present study will expose the conclusion of political agreements by insisting distinctly on political environment, their formation as well on the legal framework which characterizes them, on one hand. On the other hand, it seems important to examine the application of those agreements by analyzing in details the agenda in which they evoluate in order to draw up scientifically the balance sheet of the objective in order to assess the affectivity of their implementation and their effectiveness in domain of human rights protection.
658

Télédétection et épidémiologie en zone urbaine : de l'extraction de bâtiments à partir d'images satellite à très haute résolution à l'estimation de taux d'incidence / Remote sensing and epidemiology in urban zone : from extraction of buildings from very high resolution satellite images to the estimation of incidence rates

Upegui Cardona, Erika 08 October 2012 (has links)
En épidémiologie, une connaissance précise des populations à risque constitue un pré requis aucalcul d'indicateurs de l’état de santé d’une communauté (taux d'incidence). Néanmoins, les effectifsde population peuvent être indisponibles, ou peu fiables, ou insuffisamment détaillés pour un usageépidémiologique.L'objectif principal de ce travail est d'obtenir des taux d'incidence en l'absence de donnéesdémographiques, à une échelle spatiale infra-communale. Les objectifs secondaires sont d'estimerles populations humaines par l'intermédiaire de données satellitaires à très haute résolution spatiale(THRS), d'évaluer l'apport de ces données THRS par rapport aux données à haute résolution spatiale(Landsat) dans un même cadre urbain (Besançon), et de mettre au point une méthodologie simple etrobuste, pour garantir son exportabilité à d'autres zones.Nous proposons une approche en trois étapes, fondée sur la corrélation existant entre la densité depopulation et la morphologie urbaine. La première étape consiste à extraire des bâtiments à partirdes données télédétection THRS. Ces bâtiments sont utilisés dans la deuxième étape pour modéliserla population. A leur tour, ces populations servent de dénominateur, lors de la dernière étape, pourcalculer des taux d’incidence (cancers). Des données de référence sont utilisées à chaque étape pourévaluer les performances de notre méthodologie.Les résultats obtenus soulignent le potentiel de la télédétection pour mesurer l'état de santé d'unecommunauté (sous la forme de taux bruts d’incidence) à une échelle géographique fine. Ces tauxd'incidence estimés peuvent alors constituer des éléments de décision pour mieux adapter l'offre desoins aux besoin de santé, même en l'absence de données démographiques / In epidemiology, a precise knowledge of populations at risk is a prerequisite for calculating state ofhealth indicators of a community (incidence rates). The population data, however, may beunavailable, unreliable, or insufficiently detailed for epidemiological use.The main objective of this research is to estimate incidence rates, in cases of absence of demographicdata, at an infra-communal scale. The secondary objectives are to estimate the human populationthrough satellite data at very high spatial resolution (VHSR), to assess the contribution of this data(VHSR) compared with high spatial resolution data (Landsat) in a same urban framework (Besançon),and to develop a simple and robust methodology to ensure its exportability to other areas.We proposed a three-step approach based on the correlation between population density and urbanmorphology. The first step is to extract buildings from VHSR imagery data. These buildings are thenused in the second step to model the population data. Finally, this population data is used as thedenominator to calculate incidence rates (cancers). Reference data are used at each step to assessthe performance of our methodology.The results obtained highlight the potential of remote sensing to measure the state of health of acommunity (in the form of crude incidence rates) at a fine geographical scale. These estimatedincidence rates can be utilized as elements of decision to adapt better customized healthcare withrespect to the health needs of a given community, even in the absence of demographic data
659

Memory and performance issues in parallel multifrontal factorizations and triangular solutions with sparse right-hand sides / Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l’utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d’entrées de l’inverse d’une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d’abord plusieurs schémas de stockage qui permettent de réduire significativement l’espace mémoire utilisé lors de la résolution, dans le cadre d’exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d’accès aux facteurs, qui sont stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d’opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d’abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les technique de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d’algorithmes de répartition et d’ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l’utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d’inconnues) et sur des machines massivement parallèles (jusqu’à quelques milliers de coeurs). Elles ont permis d’améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur). / We consider the solution of very large sparse systems of linear equations on parallel architectures. In this context, memory is often a bottleneck that prevents or limits the use of direct solvers, especially those based on the multifrontal method. This work focuses on memory and performance issues of the two memory and computationally intensive phases of direct methods, that is, the numerical factorization and the solution phase. In the first part we consider the solution phase with sparse right-hand sides, and in the second part we consider the memory scalability of the multifrontal factorization. In the first part, we focus on the triangular solution phase with multiple sparse right-hand sides, that appear in numerous applications. We especially emphasize the computation of entries of the inverse, where both the right-hand sides and the solution are sparse. We first present several storage schemes that enable a significant compression of the solution space, both in a sequential and a parallel context. We then show that the way the right-hand sides are partitioned into blocks strongly influences the performance and we consider two different settings: the out-of-core case, where the aim is to reduce the number of accesses to the factors, that are stored on disk, and the in-core case, where the aim is to reduce the computational cost. Finally, we show how to enhance the parallel efficiency. In the second part, we consider the parallel multifrontal factorization. We show that controlling the active memory specific to the multifrontal method is critical, and that commonly used mapping techniques usually fail to do so: they cannot achieve a high memory scalability, i.e. they dramatically increase the amount of memory needed by the factorization when the number of processors increases. We propose a class of "memory-aware" mapping and scheduling algorithms that aim at maximizing performance while enforcing a user-given memory constraint and provide robust memory estimates before the factorization. These techniques have raised performance issues in the parallel dense kernels used at each step of the factorization, and we have proposed some algorithmic improvements. The ideas presented throughout this study have been implemented within the MUMPS (MUltifrontal Massively Parallel Solver) solver and experimented on large matrices (up to a few tens of millions unknowns) and massively parallel architectures (up to a few thousand cores). They have demonstrated to improve the performance and the robustness of the code, and will be available in a future release. Some of the ideas presented in the first part have also been implemented within the PDSLin (Parallel Domain decomposition Schur complement based Linear solver) solver.
660

Méthodes de reconstruction et de quantification pour la microscopie de super-résolution par localisation de molécules individuelles / Reconstruction and quantification methods for single-molecule based super-resolution microscopy

Kechkar, Mohamed Adel 20 December 2013 (has links)
Le domaine de la microscopie de fluorescence a connu une réelle révolution ces dernières années, permettant d'atteindre des résolutions nanométriques, bien en dessous de la limite de diffraction prédite par Abbe il y a plus d’un siècle. Les techniques basées sur la localisation de molécules individuelles telles que le PALM (Photo-Activation Light Microscopy) ou le (d)STORM (direct Stochastic Optical Reconstruction Microscopy) permettent la reconstruction d’images d’échantillons biologiques en 2 et 3 dimensions, avec des résolutions quasi-moléculaires. Néanmoins, même si ces techniques nécessitent une instrumentation relativement simple, elles requièrent des traitements informatiques conséquents, limitant leur utilisation en routine. En effet, plusieurs dizaines de milliers d’images brutes contenant plus d’un million de molécules doivent être acquises et analysées pour reconstruire une seule image. La plupart des outils disponibles nécessitent une analyse post-acquisition, alourdissant considérablement le processus d’acquisition. Par ailleurs la quantification de l’organisation, de la dynamique mais aussi de la stœchiométrie des complexes moléculaires à des échelles nanométriques peut constituer une clé déterminante pour élucider l’origine de certaines maladies. Ces nouvelles techniques offrent de telles capacités, mais les méthodes d’analyse pour y parvenir restent à développer. Afin d’accompagner cette nouvelle vague de microscopie de localisation et de la rendre utilisable en routine par des expérimentateurs non experts, il est primordial de développer des méthodes de localisation et d’analyse efficaces, simples d’emploi et quantitatives. Dans le cadre de ce travail de thèse, nous avons développé dans un premier temps une nouvelle technique de localisation et reconstruction en temps réel basée sur la décomposition en ondelettes et l‘utilisation des cartes GPU pour la microscopie de super-résolution en 2 et 3 dimensions. Dans un second temps, nous avons mis au point une méthode quantitative basée sur la visualisation et la photophysique des fluorophores organiques pour la mesure de la stœchiométrie des récepteurs AMPA dans les synapses à l’échelle nanométrique. / The field of fluorescence microscopy has witnessed a real revolution these last few years, allowing nanometric spatial resolutions, well below the diffraction limit predicted by Abe more than a century ago. Single molecule-based super-resolution techniques such as PALM (Photo-Activation Light Microscopy) or (d)STORM (direct Stochastic Optical Reconstruction Microscopy) allow the image reconstruction of biological samples in 2 and 3 dimensions, with close to molecular resolution. However, while they require a quite straightforward instrumentation, they need heavy computation, limiting their use in routine. In practice, few tens of thousands of raw images with more than one million molecules must be acquired and analyzed to reconstruct a single super-resolution image. Most of the available tools require post-acquisition processing, making the acquisition protocol much heavier. In addition, the quantification of the organization, dynamics but also the stoichiometry of biomolecular complexes at nanometer scales can be a key determinant to elucidate the origin of certain diseases. Novel localization microscopy techniques offer such capabilities, but dedicated analysis methods still have to be developed. In order to democratize this new generation of localization microscopy techniques and make them usable in routine by non-experts, it is essential to develop simple and easy to use localization and quantitative analysis methods. During this PhD thesis, we first developed a new technique for real-time localization and reconstruction based on wavelet decomposition and the use of GPU cards for super-resolution microscopy in 2 and 3 dimensions. Second, we have proposed a quantitative method based on the visualization and the photophysics of organic fluorophores for measuring the stoichiometry of AMPA receptors in synapses at the molecular scale.

Page generated in 0.0792 seconds