• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 35
  • 6
  • Tagged with
  • 116
  • 50
  • 29
  • 20
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Tree-Representation of Set Families in Graph Decompositions and Efficient Algorithms

Bui-Xuan, Binh-Minh 09 September 2008 (has links) (PDF)
Ce manuscrit de thèse développe certains aspects autour de trois thèmes généraux, sur la représentation arborescente des familles d'ensembles, les décompositions de graphes, et les algorithmes de graphes. Les thèmes abordés vont de la combinatoire théorique à l'algorithmique en bio-informatique, en passant par plusieurs décompositions de graphes et aussi par l'optimisation combinatoire.<br /><br />La première moitié du manuscrit développe deux études. D'abord, afin d'estimer le nombre de familles d'ensembles satisfaisant certains axiomes de clôture, de nouveaux outils et techniques pour obtenir des représentations arborescentes de celles-ci ont été développés. Puis, l'étude se poursuit avec une des applications des propriétés ci-dessus : celle concernant les décompositions de graphes.<br /><br />La deuxième moitié du manuscrit est consacrée aux applications des décompositions de graphes dans l'algorithmique de graphes. Trois problèmes algorithmiques seront à l'étude.<br />Dans chacun des trois, il est montré pourquoi et comment on peut appliquer l'idée de la décomposition de graphes pour résoudre le problème posé de manière efficace.<br />Il est également montré comment appliquer les trois solutions proposées pour résoudre trois autres problèmes d'algorithmique de graphes.
62

Méthodes acoustiques auto-calibrées en émission - réception pour l'étude et le suivi des propriétés non linéaires des matériaux et l'imagerie / Self-calibrated acoustic methods in emission and reception for the study and the monitoring of the property of the medium and imaging

Robin, Guillaume 31 May 2011 (has links)
Utilisés dans de nombreux domaines d'applications, les ultrasons se révèlent être sensibles aux propriétés visco-élastiques des milieux traversés. L'investigation spatiale et temporelle des propriétés visco-élastiques des matériaux par méthodes ultrasonores permet notamment le contrôle de l'intégrité de structures ainsi que le suivi de processus. Un dispositif auto-calibrée en émission-réception, basé sur l'application du principe de réciprocité, a été développé pour la mesure du paramètre non linéaire B/A. Cette mesure repose sur une étude harmonique des signaux ultrasonores se propageant dans le milieu. L’instrumentation ultrasonore mise en œuvre a été choisie pour assurer une mesure rapide en émission-réception du paramètre B/A imposant un choix technologique spécifique. L'évolution au cours du temps des paramètres acoustiques dans les matériaux de type sol-gel fait apparaitre un temps caractéristique lié à la structuration du matériau (gélification). Les temps de gélification extraits des mesures permettant de retrouver la loi d'Arrhenius cohérente avec celle obtenue par des méthodes rhéologiques conventionnelles. Une image du paramètre non linéaire a été réalisée sur un fantôme contenant deux fluides non miscibles (eau et huile de silicone). A travers ces deux applications, nous montrons l'efficacité du système de mesure du paramètre non linéaire dans le cadre du suivi d'un matériau en évolution ainsi qu'en imagerie. / Used in many application areas, ultrasound proved to be sensitive to determine viscoelastic properties. The spatial and temporal investigation of viscoelastic properties of materials by ultrasonic methods can be used to monitor structure integrity and processes. A self-calibrated method, based on reciprocity principle has been developed for measuring the nonlinear parameter B/A. Instrumentation has been development to ensure the rapid determination of the parameter B/A imposing a specific technology. The time evolution of the acoustic parameters of sol-gel materials shows a characteristic time related to the structuration of the material (Arrhnius law). A picture of the nonlinear parameter was performed on a phantom containing two immiscible fluids (water and silicone oil). Through these two examples, the effectiveness of the nonlinear parameter measurements has shown in the follow-up of a material changes as well as imaging.
63

Impact des changements environnementaux sur l’histoire de vie, la démographie et la dynamique de population chez les salmonidés / Impact of environmental changes on life history, demography and population dynamics in salmonids

Montorio, Lucie 14 December 2017 (has links)
Cette thèse étudie l’influence de la diversité des tactiques d’histoire de vie sur la dynamique des populations de deux salmonidés à migration partielle: le saumon Atlantique, Salmo salar et la truite commune, Salmo trutta. Ces deux espèces ont de fortes valeurs écologique et économique, mais les rôles respectifs des individus résidents et migrateurs sur la dynamique et la résilience des populations à des changements environnementaux demeurent méconnus. Nous avons abordé ces questions par des approches démographiques, génétiques et de modélisation. Nous avons démontré que la détermination de la tactique d’histoire de vie est en partie plastique et permet aux individus juvéniles de migrer en réponse à un changement de l’environnement. De plus, cette thèse démontre que la diversité des tactiques permet aux populations à migration partielle de bénéficier d’un changement favorable de l’environnement et de réduire l’effet d’un changement défavorable sur la dynamique de populationCes deux processus pourraient expliquer la plus forte résilience des populations à migration partielle face aux variations environnementales par rapport aux populations strictement résidentes ou migratrices. Toutefois, étant donné les différences de stratégies chez le saumon Atlantique et la truite commune, nos résultats suggèrent que la truite a une meilleure capacité de réponse aux changements environnementaux et un niveau de résilience plus élevé que le saumon Atlantique / This thesis investigates the influence of the tactic diversity on population dynamics in two partially migratory salmonids: Atlantic salmon, Salmo salar and brown trout, Salmo trutta. These two species have high ecological and economic values but the role of migrant and resident individuals on population dynamics and resilience to environmental changes is currently largely unknown. I undertook a multidisciplinary approach combining demographic, genetic, and modeling tools to address these issues in populations from France. I found that tactic determination is partly plastic as juveniles can respond to environmental variations by migrating. In addition, this thesis showed that tactics diversity in partially migratory populations enables a better use of favorable environmental conditions and buffer the effects of unfavorable conditions on their dynamics.These two processes might promote a higher resilience of partially migratory populations to environmental change, including anthropogenic effects, than in solely migratory or resident populations. Nonetheless, given the different strategies in Atlantic salmon and brown trout, my results suggested that brown trout should have better abilities to response to environmental changes and a higher level of resilience than Atlantic salmon.
64

Modélisation de signaux longs multicomposantes modulés non linéairement en fréquence et en amplitude : suivi de ces composantes dans le plan temps-fréquence / Modeling of long-time multicomponent signals with nonlinear frequency and amplitude modulations : component tracking in the time-frequency plane

Li, Zhongyang 09 July 2013 (has links)
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulations d’amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulations. L’originalité de l’approche réside dans la définition d’une matrice de convergence totale intégrant simultanément les valeurs d’amplitude et de fréquence et utilisé pour l’association d’un pic à une composante selon un critère d’acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulations par l'enchaînement des étapes de segmentation, modélisation et fusion. Les fonctions de modulations estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l’estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l’adaptabilité de la méthode proposée. / In this thesis, a novel method is proposed for modeling the non-linear amplitude and frequency modulations of non-stationary multi-component signals of long duration. The method relies on the decomposition of the signal into short time segments to carry out local modelings on these segments. In order to initialize the modeling, a first step is designed which can be considered as an independent estimator of the modulations over the entire duration of the signal. The originality of this approach lies in the definition of the total divergence matrix integrating simultaneously the amplitude and frequency values, which are employed for the association of a peak to a component according to a stochastic acceptation criteria. Following the initialization, the proposed method estimates the modulations by the step sequence of segmentation, modeling and fusion. The locally obtained modulation functions estimated by maximum likelihood are finally connected in the fusion step which suppresses their discontinuity and yields the global estimation over the entire signal duration. All these steps are defined in order to be able to model multicomponent signals with births and deaths, making one of its original features compared to existing techniques. The results on real and simulated signals have shown the good performance and adaptability of the proposed method.
65

Reconstruction de sollicitations dynamiques par méthodes inverses / Identification of a dynamic sollicitation by an inverse approach

Tran, Duc Toan 29 August 2014 (has links)
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée / In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
66

Renormalization and Coarse-graining of Loop Quantum Gravity / Renormalisation et coarse-graining de la gravitation quantique à boucle

Charles, Christoph 25 November 2016 (has links)
Le problème de la limite continue de la gravitation quantique à boucle est encore ouvert. En effet, la dynamique précise n’est pas connue et nous ne disposons pas des outils nécessaires à l’étude de cette limite le cas échéant. Dans cette thèse, nous étudions quelques méthodes de coarse-graining (étude à gros grains) qui devraient contribuer à cette entreprise. Nous nous concentrons sur deux aspects du flot: la détermination d’observables naturelles à grandes échelles d’un côté et la manière de s’abstraire du problème de la dynamique à graphe variable en la projetant sur des graphes fixes de l'autre.Pour déterminer les observables aux grandes distances, nous étudions le cas des tétraèdres hyperboliques et leur description naturelle dans un langage proche de celui de la gravitation quantique à boucle. Les holonomies de surface en particulier jouent un rôle important. Cela dégage la structure des double spin networks constitués d'un graphe et de son dual, structure qui semble aussi apparaître dans les travaux de Freidel et al. Pour résoudre le problème des graphes variables, nous considérons et définissons les loopy spin networks. Ils encodent par des boucles la courbure locale d'un vertex effectif et permettent ainsi de décrire différents graphes en les masquant via le processus de coarse-graining. De plus, leur définition donne un procédé naturel systématique de coarse-graining pour passer d'une échelle à une autre.Ensemble, ces deux principaux résultats posent le fondement d'un programme de coarse-graining pour les théories invariantes sous difféomorphismes. / The continuum limit of loop quantum gravity is still an open problem. Indeed, no proper dynamics in known to start with and we still lack the mathematical tools to study its would-be continuum limit. In the present PhD dissertation, we will investigate some coarse-graining methods that should become helpful in this enterprise. We concentrate on two aspects of the theory's coarse-graining: finding natural large scale observables on one hand and studying how the dynamics of varying graphs could be cast onto fixed graphs on the other hand.To determine large scale observables, we study the case of hyperbolic tetrahedra and their natural description in a language close to loop quantum gravity. The surface holonomies in particular play an important role. This highlights the structure of double spin networks, which consist in a graph and its dual, which seems to also appear in works from Freidel et al. To solve the problem of varying graphs, we consider and define loopy spin networks. They encode the local curvature with loops around an effective vertex and allow to describe different graphs by hidding them in a coarse-graining process. Moreover, their definition gives a natural procedure for coarse-graining allowing to relate different scales.Together, these two results constitute the foundation of a coarse-graining programme for diffeomorphism invariant theories.
67

Exploration des liens formels entre les méthodes statistiques et neuronales en classification

Gueye, Ndiouga January 2019 (has links) (PDF)
No description available.
68

Impact de l'utilisation du Fibroscan dans la prise en charge des tumeurs du foie / Impact of Fibroscan in the management of liver tumors

Rajakannu, Muthukumarassamy 15 November 2017 (has links)
Contexte: Les limites du traitement chirurgical des tumeurs du foie sont définies par la réserve hépatique fonctionnelle qui est déterminée par le volume et la qualité du foie non tumoral restant. L’hépatopathie sous-jacente détermine non seulement la place de la chirurgie mais aussi le risque de récidive pour les tumeurs hépatiques primitives. Dans les cas des métastases hépatiques, la chimiothérapie précède très souvent la chirurgie et l’hépatotoxicité de cette chimiothérapie est un risque important des complications post opératoires. Dans le contexte particulier de la transplantation hépatique (TH) pour le carcinome hépatocellulaire (CHC), l’hypertension portale est un risque de progression tumorale pendant la période d’attente et la sortie de la liste. Le foie non tumoral est donc est un facteur important dans la prise en charge des patients avec des tumeurs du foie. FibroScan® qui mesure l'élasticité du foie pourrait être utilisé pour évaluer le foie et prédire les suites post opératoires et la risque de progression de CHC dans la liste de TH. Méthodes: Les patients consécutifs qui ont été programmés pour subir une hépatectomie ou une transplantation ont été inclus dans l'étude après un consentement éclairé. L'élastométrie (LS) et le paramètre d'atténuation contrôlée (CAP) du foie non tumorale ont été estimés en pré opératoire par l’élastographie transitoire avec le dispositif FibroScan® 502 Touch en utilisant des sondes M ou XL. Résultats: Les nomogrammes basés sur LS qui ont été développés et validés dans cette étude ont pu hépatectomie pour les maladies hépatobiliaires. Chez les patients atteints de CHC, LS a joué un rôle plus important car il prédit non seulement les résultats de 90 jours, mais aussi la décompensation hépatique persistante au-delà de la période post-opératoire. En plus, LS ≥30 kPa et CAP <240 dB/m ont été associés à un mauvais pronostic oncologique après l’hépatectomie et peuvent ainsi être un marqueur de substitution pour la nature agressive du CHC. La performance de LS pour diagnostiquer la fibrose hépatique avancée (AUROC: 0.95) et la cirrhose (AUROC: 0.97) a été validée dans cette recherche et CAP a eu une performance satisfaisante pour détecter la stéatose hépatique significatif (AUROC: 0.70). Un modèle à base de LS appelé score HVPG10 a été développé et validé pour diagnostiquer une hypertension portale significative chez les patients atteints d'une maladie chronique du foie. Avec un seuil de 15, le score HVPG10 était précis pour exclure une hypertension portale importante dans >95% des patients et éviter des investigations supplémentaires et inutiles. Conclusion: L'exploration des patients prévus pour l'hépatectomie permet d'prévoir des complications sévères et la mortalité après l’hépatectomie. LS ≥30 kPa élevé est un facteur de risque important la récidive après la résection et de progression de CHC en attente de TH. Par conséquent, TH devrait être le traitement en première intention avec les patients avec LS ≥30 kPa. / Background: The major determinant of the results of surgical resection for liver tumors is the volume and quality of the future liver remnant. The hepatopathy of the non-tumoral liver not only limits the type of surgery but also the risk of recurrence in primary liver tumors. With respect to liver metastasis, pre-operative chemotherapy is the usual treatment strategy and the hepatotoxicity of prolonged chemotherapy is an important risk factor for post-operative morbi-mortality. In patients with hepatocellular carcinoma (HCC) waiting for liver transplantation (LT), clinically significant portal hypertension (CSPH) is a risk for tumor progression and dropout of the waiting list for LT. Overall, degree of liver fibrosis and portal hypertension in the non-tumoral liver are important factors in the management of patients with liver tumors as they determine the prognosis of patients after hepatectomy. FibroScan®, which estimate the degree of liver fibrosis and steatosis, could utilized to evaluate the non-tumoral liver and predict the post-operative outcomes and the risk of dropout from the list of LT in HCC patients waiting for LT. Methods: Consecutive patients programmed to undergo hepatectomy or LT were included in the present study prospectively after an informed consent. Liver stiffness (LS) and controlled attenuation parameter (CAP) were measured pre-operatively by transient elastography using FibroScan® 502 Touch Standard device with M or XL probes. Results: LS-based nomograms that were developed and valided in this study were accurate to predict 90-day severe morbidity and 90-day mortality after hepatectomy for various hepatobiliary diseases. In patients with HCC undergoing hepatectomy, elevated LS ≥22 kPa was a risk factor for persistent hepatic decompensation beyond the 90-day post-operative period. Moreover, LS ≥30 kPa and CAP <240 dB/m were associated with poor oncological outcomes after resection and thus could be a surrogate biomarker of more aggressive HCC. The discriminatory ability of LS to diagnose advanced liver fibrosis (AUROC: 0.95) and cirrhosis (AUROC: 0.97) was validated in the present study. Further, CAP had a satisfactory performance to screen significant hepatic steatosis (S≥2) with AUROC of 0.70. A new LS-based model called HVPG10 score was developed and validated to diagnose CSPH. With a cut-off of 15, it was capable of accurately ruling out CSPH in >95% of the patients with chronic liver disease and would avoid further unnecessary investigations. Conclusion: Pre-operative evaluation of patients with transient elastography would enable surgeons to predict major complications and mortality after hepatectomy with LS-based nomograms. In patients with HCC, LS ≥30 kPa was an important risk factor of incomplete surgical resection, early recurrence after hepatectomy and for tumor progression and dropout while waiting for LT. Therefore, LT must be the primary treatment in HCC patients with LS ≥30 kPa.
69

Parameter-efficient modeling and robust automatic evaluation of image captioning

Ahmadi, Saba 10 1900 (has links)
Le sous-titrage d’images est la tâche de l’intelligence artificielle (IA) qui consiste à décrire des images en langage naturel. Cette tâche d’IA a plusieurs applications sociétales utiles, telles que l’accessibilité pour les malvoyants, la génération automatisée de contenu, l’interaction humain-robot et l’analyse d’imagerie médicale. Au cours des huit dernières années, la recherche sur le sous-titrage d'images a connu d'énormes progrès dans la création de modèles solides, la collecte d'ensembles de données à grande échelle ainsi que le développement de mesures d'évaluation automatique. Malgré ces progrès remarquables, la recherche sur le sous-titrage d'images est confrontée à deux défis majeurs: 1) Comment construire des modèles efficaces en termes de paramètres, et 2) Comment construire des métriques d'évaluation automatique robustes. Dans cette thèse, nous apportons notre contribution à la résolution de chacun de ces défis. Premièrement, nous proposons une méthode efficace en termes de paramètres (MAPL \cite{mapl}) qui adapte des modèles pré-entraînés unimodaux de vision uniquement et de langage uniquement pour la tâche multimodale de sous-titrage d'images. MAPL apprend un mappage léger entre les espaces de représentation des modèles unimodaux. Ainsi, MAPL peut exploiter les fortes capacités de généralisation des modèles unimodaux pré-entraînés pour des tâches multimodales telles que le sous-titrage d'images. Deuxièmement, nous présentons une étude systématique de la robustesse des mesures d’évaluation des sous-titres d’images récemment proposées. Même si ces métriques correspondent bien aux jugements humains, nous avons constaté qu'elles ne sont pas robustes pour identifier les erreurs fines dans les légendes générées par le modèle. Il faut donc faire preuve de prudence lors de l'utilisation de ces métriques pour l'évaluation des sous-titres d'images. Nous espérons que nos résultats guideront de nouvelles améliorations dans l’évaluation automatique du sous-titrage d’images. / Image captioning is the artificial intelligence (AI) task of describing images in natural language. This AI task has several useful societal applications, such as accessibility for the visually impaired, automated content generation, human-robot interaction, and medical imaging analysis. Over the last eight years, image captioning research has seen tremendous progress in building strong models, collecting large scale datasets as well as developing automatic evaluation metrics. Despite such remarkable progress, image captioning research faces two major challenges: 1) How to build parameter-efficient models, and 2) How to build robust automatic evaluation metrics. In this thesis, we make contributions towards tackling each of these challenges. First, we propose a parameter efficient method (MAPL \cite{mapl}) that adapts pre-trained unimodal vision-only and language-only models for the multimodal task of image captioning. MAPL learns a lightweight mapping between the representation spaces of the unimodal models. Thus, MAPL can leverage the strong generalization capabilities of the pre-trained unimodal models for multimodal tasks such as image captioning. Second, we present a systematic study of the robustness of recently proposed image captioning evaluation metrics. Even though these metrics correlate well with human judgments, we found that these metrics are not robust in identifying fine-grained errors in model generated captions, and thus, caution needs to be exercised when using these metrics for image captioning evaluation. We hope our findings will guide further improvements in the automatic evaluation of image captioning.
70

Vers des assemblages de complexes métalliques oligonucléaires, servant d’antenne solaire au niveau moléculaire

Chartrand, Daniel 12 1900 (has links)
Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk / Ce projet de recherche vise l’élaboration de systèmes métallosupramoléculaires artificiels imitant le processus naturel de la photosynthèse. Idéalement, ces systèmes seraient capables de fournir l’énergie et la séparation de charge nécessaire pour catalyser des réactions à transfert multiélectroniques, tel que l’hydrolyse de l’eau ou la réduction du gaz carbonique. La réalisation d’un tel système catalytique créerait une source d’énergie renouvelable, sous forme d’énergie chimique, crée directement à partir de l’énergie solaire. Le système envisagé, schématisé sous la forme d’une antenne, possède trois parties distinctes. Tout d’abord, des chromophores forment un état excité en captant l’énergie de la lumière visible du soleil. Vient ensuite un centre de liaison qui lie tous les chromophores et qui collecte l’énergie de cet état excité à travers un transfert d’électron. Cet électron est de nouveau transféré vers la dernière partie, un centre réactionnel catalytique. Cet assemblage permet de créer une séparation de charge entre le chromophore et le centre réactionnel qui sont séparés par le centre de liaison, évitant ainsi la recombinaison de charge. Le projet se focalise sur la synthèse, la caractérisation et l’application en photocatalyse d’assemblages chromophore–centre de liaison–catalyseur. Tout d’abord, une étude de chromophores à base de fluorène et de rhénium a été effectuée dans le but d’évaluer le transfert électronique entre ces deux composants. Ensuite, des centres de liaisons à base de dimère de rhodium tétraamidinate ont été créés et étudiés afin d’établir leurs caractéristiques photophysiques et électrochimiques. Puis un d’entre eux a été assemblé avec des chromophores de rhénium, créant ainsi des espèces moléculaires discrètes contenant d’un à quatre chromophores. Et pour finir, ces assemblages ont été combinés avec un catalyseur à base de cobalt, puis ont été testés dans des expériences de photoproduction d’hydrogène. Cette dernière partie a requis l’élaboration d’un photoréacteur qui est aussi décrite en détail dans cet ouvrage. / This research project involves synthetic metallosupramolecular systems developed to mimic the natural process of photosynthesis. Ideally, these systems would be able to provide the energy and the charge separation needed to catalyze multielectron-transfer reactions, such as water-splitting or carbon dioxide reduction. The realization of such a catalytic system would create a renewable energy source, in the form of chemical energy, created directly from solar energy. The system envisioned has three distinct parts in the form of an antenna. First of all, chromophores go into an excited state, while capturing the visible light energy of the Sun. Then comes a hub which binds all the chromophores and collects this excited state energy through an electron transfer. This electron is then transferred again to the last part, a catalytic reaction center. This assembly creates a charge separation between the chromophore and the reaction center which are separated by the hub, thus avoiding the recombination of charge. The project focuses on the synthesis, characterization and application in photocatalysis of chromophore-hub-catalyst assemblies. First of all, a study of fluorene and rhenium based chromophores was made to assess the electronic transfer between these two components. Then, tetraamidinate rhodium dimer based hubs have been created and studied in order to establish their photophysical and electrochemical characteristics. Then one of these assemblies was formed with chromophores of rhenium, thus creating discrete molecular species containing one to four chromophores. And finally, these assemblies were combined with a cobalt-based catalyst and were tested for hydrogen photoproduction. The latter required the development of a photoreactor which is also described in detail in this thesis.

Page generated in 0.0477 seconds