• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 11
  • 3
  • Tagged with
  • 40
  • 13
  • 11
  • 9
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Développement de méthodes quantitatives en imagerie simultanée TEP-IRM / Development of quantitative methods in simultaneous PET-MR imaging

Petibon, Yoann 19 June 2015 (has links)
Le mouvement des organes durant l’acquisition et la réponse impulsionnelle (RI) du système dégradent les images obtenues par Tomographie par Emission de Positons (TEP). Récemment, les scanners simultanés TEP-Imagerie par Résonance Magnétique (IRM) ont été introduits, offrant une solution au problème du mouvement qui peut être estimé grâce à l’IRM pour corriger les images TEP. Néanmoins, pour profiter pleinement de ces nouvelles possibilités, il est également important de corriger les images des effets de la RI. L’objectif de ce travail est de proposer des méthodes TEP-IRM permettant d’améliorer la qualité des images TEP. Pour ce faire, nous avons développé des techniques d’acquisitions/traitement de données IRM permettant de mesurer le mouvement des organes. Nous avons modélisé la RI non-stationnaire du système grâce à des mesures de sources ponctuelles. Nous avons ensuite intégré l’information de mouvement IRM -au niveau des cartes d’émission et d’atténuation- et le modèle de la RI dans un algorithme de reconstruction TEP permettant d’obtenir des images corrigées des effets du mouvement et de la RI. Ces méthodes ont été évaluées pour des applications oncologiques et cardiaques sur des acquisitions de fantômes, d’animaux et de patients, qui ont montré une amélioration de la caractérisation des tumeurs abdominales et des lésions du myocarde. De plus, nous avons développé des méthodes permettant d’améliorer l’imagerie TEP de plaques athéromateuses fragiles dans les coronaires et les avons évaluées avec des simulations réalistes TEP-IRM. Les résultats obtenus montrent que les techniques proposées améliorent la qualité des images TEP par rapport aux méthodes conventionnelles. / The physiologic motion of organs during the data acquisition and the finite system’s Point Spread Function (PSF) both limit the image quality of Positron Emission Tomography (PET). Recently, whole-body (WB) simultaneous PET-Magnetic Resonance (MR) scanners have become available. This modality offers an elegant solution to the motion problem since MR-based motion information can be used to correct the PET images for motion. Nevertheless, to fully benefit from the new capabilities offered by PET-MR, it is essential to also compensate the images for PSF-related degradations. The goal of this thesis was to develop methods allowing to improve PET image quality using PET-MR. In that perspective, we have developed MRI acquisition/processing techniques to measure organs’ motion. We have modeled the spatially-varying PSF using point source measurements. We have then incorporated MR-based motion information (of both emission and attenuation maps) and PSF modeling into fully-3D iterative PET reconstruction, yielding images virtually free of motion artifacts while reducing PSF-related effects. These methods were evaluated for two key applications of WB PET-MR, oncology and cardiology, using phantom, animal and patient studies, demonstrating improved image quality and assessment of tumors and myocardial defects. In addition, we have developed methods allowing to improve PET imaging of small coronary atherosclerotic plaques, a promising pre-clinical application of PET-MR, which were evaluated using a realistic PET-MR simulation study. Overall, the results obtained demonstrate that the developed methodology can substantially improve PET image quality as compared to standard methods.
32

Une approche générique pour l'analyse croisant contenu et usage des sites Web par des méthodes de bipartitionnement / A generic approach to combining web content and usage analysis using biclustering algorithms

Charrad, Malika 22 March 2010 (has links)
Dans cette thèse, nous proposons une nouvelle approche WCUM (Web Content and Usage Mining based approach) permettant de relier l'analyse du contenu à l'analyse de l'usage d'un site Web afin de mieux comprendre le comportement général des visiteurs du site. Ce travail repose sur l'utilisation de l'algorithme CROKI2 de classification croisée implémenté selon deux stratégies d'optimisation différentes que nous comparons à travers des expérimentations sur des données générées artificiellement. Afin de pallier le problème de détermination du nombre de classes sur les lignes et les colonnes, nous proposons de généraliser certains indices proposés initialement pour évaluer les partitions obtenues par des algorithmes de classification simple, aux algorithmes de classification simultanée. Pour évaluer la performance de ces indices nous proposons un algorithme de génération de biclasses artificielles pour effectuer des simulations et valider les résultats. Des expérimentations sur des données artificielles ainsi qu'une application sur des données réelles ont été réalisées pour évaluer l'efficacité de l'approche proposée. / In this thesis, we propose a new approach WCUM (Web Content and Usage Mining based approach) for linking content analysis to usage analysis of a website to better understand the general behavior of the web site visitors. This work is based on the use of the block clustering algorithm CROKI2 implemented by two different strategies of optimization that we compared through experiments on artificially generated data. To mitigate the problem of determination of the number of clusters on rows and columns, we suggest to generalize the use of some indices originally proposed to evaluate the partitions obtained by clustering algorithms to evaluate bipartitions obtained by simultaneous clustering algorithms. To evaluate the performance of these indices on data with biclusters structure, we proposed an algorithm for generating artificial data to perform simulations and validate the results. Experiments on artificial data as well as on real data were realized to estimate the efficiency of the proposed approach.
33

Le respect de la propriété intellectuelle d'autrui dans la vente internationale de marchandises : une approche de la Convention de Vienne coordonnée avec le droit de la propriété intellectuelle / The interference of third parties' intellectual property in the International Sale of Goods : a new approach of the Vienna Convention coordinated with intellectual property law

Verville, Sophie 29 May 2012 (has links)
L'article 42 de la Convention de Vienne impose au vendeur de livrer la marchandise libre de tout droit ou prétention de tiers fondé sur la propriété intellectuelle. Ses conditions d'entrée en jeu requièrent l'analyse de ce que chaque contractant connaissait ou ne pouvait ignorer au sujet de la propriété intellectuelle du tiers. Ce passage de la Convention connaît des interprétations variées. Afin de contribuer à une interprétation uniforme et plus prévisible de l'article, le projet s'attache à le replacer sur la trame plus générale du commerce international, où le droit de la propriété intellectuelle pose des obstacles aux mouvements transfrontaliers des marchandises. Il est d'abord comparé avec la théorie de l'épuisement des droits, puis mis en parallèle avec les moyens qui sont accessibles aux opérateurs commerciaux pour prévenir le problème d'interférence avec les droits intellectuels. À la lumière des modes limités de publicité des droits intellectuels et de la complexité des régimes conçus pour protéger les créations, il apparaît que ce domaine ne permet pas de prévenir efficacement les risques pouvant contrecarrer la vente. La solution proposée par la Convention de Vienne est enfin confrontée aux principes généraux dont elle s'inspire. Ceux-ci disposent de présomptions d'égalité et de compétence à l'égard des opérateurs. Elles ne peuvent être repoussées que par une démonstration de déséquilibre substantiel, ce qui provoque l'intensification des obligations d'information et de coopération sur les épaules du contractant qualifié au service de l'autre. Il ressort de la démarche que l'équilibre contractuel qui sous-tend l'article 42 se fonde sur une répartition particulière de la prévention. La spécificité des droits intellectuels le requiert. / Article 42 of the Vienna Sales Convention requires that the seller delivers goods which are free from any right or claim of a third party based on intellectual property. Its trigger mechanism, however, requires the analysis of what each party knew of said intellectual property or what they each could not have been unaware of. This passage has been the object of various interpretations. With the intention to contribute to a more uniform and predictable interpretation of article 42, the project seeks to replace the provision in the general context of international trade, where intellectual property law sets obstacles to cross-border movement of goods. Article 42 is first compared with the theory of exhaustion of rights and placed in parallel with the resources available to prevent the problem of interference with intellectual property rights. In light of the limited modes of publicity of intellectual rights and the complexity of the protections they involve, it appears that intellectual property law does not allow effective means of prevention.The solution proposed by the Vienna Convention is finally confronted with the general principles on which it is based. Those principles set forth presumptions of professional quality and equality between parties, which cannot be refuted unless a substantial imbalance can be established. In such cases, the balance can be restored by increased disclosure and cooperation obligations on the shoulders of the qualified party. The project concludes that article 42 is based on a particular distribution of expectations pertaining to the prevention of intellectual property problems. The specificity of intellectual property rights requires such stability.
34

Échographie compressée : Une nouvelle stratégie d’acquisition et de formation pour une imagerie ultrarapide / Compressed echography : A novel strategy for image acquisition and reconstruction

Bujoreanu, Denis 26 November 2018 (has links)
Il ne fait aucun doute que le coût relativement faible des échographes, la procédure rapide et la capacité d’imager des tissus biologiques mous ont permis à l’échographie de devenir l’un des outils de diagnostic médical les plus courants. Malheureusement, l’imagerie ultrasonore présente encore des inconvénients par rapport à d’autres techniques d’imagerie médicale, principalement en termes de qualité d’image et de détails fournis. Dans le souci d’améliorer la qualité d’image, le prix à payer est généralement la baisse de la cadence d’acquisition. Ce compromis profondément enraciné entre la qualité d'image fournie et le temps d'acquisition est peut-être l'un des plus difficiles verrous de la recherche dans le domaine de l’échographie et son dépassement pourrait mener à des meilleures performances des applications existantes et même à des nouvelles utilisations de l’échographie. Ce travail de thèse porte sur l’amélioration du compromis précédemment indiqué entre la qualité d’image et la cadence d’acquisition. En combinant des concepts tels que l’imagerie par ondes planes, les systèmes à entrées multiples / sorties multiples et les problèmes inverses, ce travail vise à acquérir simultanément des images ultrasonores du tissu insonifié, ce qui permet d’augmenter la cadence d’acquisition sans réduire la qualité de l’image fournie. À travers cette étude, nous avons mis au point un modèle mathématique permettant de modéliser la propagation des ondes ultrasonores dans les tissus mous. Ce modèle a été utilisé pour passer en revue un grand nombre de schémas d’acquisition en échographie déjà existants et pour exposer leurs avantages et leurs inconvénients. Nous avons proposé de surmonter le compromis qualité / cadence d’acquisition d'images en utilisant des ondes ultrasonores codées temporellement émises simultanément, et le modèle direct généré a permis l'utilisation des différentes approches de problèmes inverses afin de reconstruire la réponse impulsionnelle pulse / écho du milieu insonifié et donc de son image. De plus, nous avons encore amélioré le modèle direct, ce qui nous a permis de relier directement les échos rétrodiffusés à la position / magnitude des diffuseurs à l'intérieur du milieu imagé. Les résultats fournies par les approches de problèmes inverses basées sur ce modèle amélioré nous ont mis devant une méthode de pointe qui non seulement améliorent d’un facteur conséquent la qualité de l'image en termes de résolution et de cohérence du speckle, mais permettent également d'améliorer la cadence d'acquisition d’images. / It is beyond doubt that the relative low cost of ultrasound scanners, the quick procedure and the ability to image soft biological tissues helped ultrasound imaging to become one of the most common medical diagnostic tools. Unfortunately, ultrasound still has some drawbacks when compared to other medical imaging techniques mainly in terms of the provided image quality and details. In the quest for an improved image quality, usually, the price to pay is the drop in the frame acquisition rate. This deep rooted trade-off between the provided image quality and the acquisition time is perhaps one of the most challenging in today’s ultrasound research and its overcoming could lead to diagnostic improvements in the already existing ultrasound applications and even pave the way towards novel uses of echography. This study addresses the previously stated trade-off. Through a mix of such concepts as plane wave imaging, multiple-input /multiple-output systems and inverse problems, this work aims at acquiring ultrasound images of the insonified tissue simultaneously, thus providing an increased frame rate while not degrading the image quality. Through this study we came up with a mathematical model that allows modelling the ultrasound wave propagation inside soft tissues. This model was used to review a great number of existing ultrasound acquisition schemes and to expose their advantages and drawbacks. We proposed to overcome the image quality / frame rate trade-off by using temporally encoded ultrasound waves emitted simultaneously, and the generated direct model enabled the use of different inverse problem approaches in order to reconstruct the pulse-echo impulse response of the insonified medium and thus its image. Moreover, we further improved the direct model, which allowed us to directly link the backscattered echoes to the position / magnitude of the scatterers inside the imaged medium. The results yielded by the inverse problem approaches based on the former model put us face to face with state of the art method that not only increase the image quality several times in terms resolution and speckle coherence but also provide a boost in frame acquisition rate.
35

Démarche d'éco-conception en entreprise. Un enjeu : construire la cohérence entre outils et processus

Janin, Marc 28 April 2000 (has links) (PDF)
L'éco-conception est, depuis peu, une nouvelle problématique, que l'entreprise pourrait bien prendre en compte pour en tirer, à terme, un avantage concurrentiel. C'est concevoir des produits en ayant considéré, dès leur phase de conception, tous les impacts environnementaux qu'ils pourront engendrer sur l'ensemble de leur cycle de vie. Les équipes projet ont besoin de s'organiser pour s'approprier le paramètre environnement nécessitant de nouvelles connaissances liées à de nombreuses incertitudes. <br />L'objectif principal de ces travaux était donc d'aider à construire la cohérence entre un processus de<br />conception et des outils à disposition des équipes. Il s'est agi de : comprendre les diverses acceptions<br />possibles de cette nouvelle forme de conception, identifier les principaux enjeux qu'elle représente pour une entreprise, observer les modes d'organisation au sein de sociétés pionnières dans ce domaine et<br />rechercher les outils disponibles. Après proposition d'un modèle de processus d'éco-conception où il importe d'insérer les questions d'environnement dans une démarche de conception "classique", nous nous sommes attelés à la classification, la description et la critique de divers outils du panel actuellement à disposition des équipes. Nous avons ainsi identifié deux grandes catégories : certains, dits d'évaluation environnementale(qualitative ou quantitative), et d'autres, dits d'amélioration, permettant aux équipes d'avancer dans la recherche de nouvelles solutions d'éco-conception. D'autres outils encore existent en matière de sensibilisation, de communication et de choix de stratégies. Chacun d'eux devra être employé par un utilisateur approprié, disposant des connaissances requises, des moyens d'exploiter les résultats obtenus, et ce, durant certaines phases pertinentes du processus de conception. Une étude de terrain chez Philips a permis de constater que la mise à l'épreuve d'un outil d'évaluation environnementale est compromise si les enjeux demeurent incompris et les résultats inexploitables par l'équipe projet. A partir d'un engagement fort de la direction, les équipes ont besoin d'apprendre progressivement pour s'approprier une nouvelle démarche ; au cours de celle-ci, elles pourront utiliser des outils simples, pragmatiques, qu'elles sauront exploiter pour progresser et s'améliorer.
36

New Analytical Methods for the Analysis and Optimization of Energy-Efficient Cellular Networks by Using Stochastic Geometry / Nouvelles méthodes d'analyse et d'optimisation des réseaux cellulaires à haute efficacité énergétique en utilisant la géométrie stochastique

Tu, Lam Thanh 18 June 2018 (has links)
L'analyse et l'optimisation au niveau de système sont indispensables pour la progression de performance des réseaux de communication. Ils sont nécessaires afin de faire fonctionner de façon optimale des réseaux actuels et de planifier des réseaux futurs. La modélisation et l'analyse au niveau de système des réseaux cellulaires ont été facilitées grâce à la maîtrise de l'outil mathématique de la géométrie stochastique et, plus précisément, la théorie des processus ponctuels spatiaux. Du point de vue de système, il a été empiriquement validé que les emplacements des stations cellulaires de base peuvent être considérés comme des points d'un processus ponctuel de Poisson homogène dont l'intensité coïncide avec le nombre moyen de stations par unité de surface. Dans ce contexte, des contributions de ce travail se trouvent dans le développement de nouvelles méthodologies analytiques pour l'analyse et l'optimisation des déploiements de réseaux cellulaires émergents.La première contribution consiste à introduire une approche pour évaluer la faisabilité de réseaux cellulaires multi-antennes, dans lesquels les dispositifs mobiles à faible énergie décodent les données et récupèrent l'énergie à partir d’un même signal reçu. Des outils de géométrie stochastique sont utilisés pour quantifier le taux d'information par rapport au compromis de puissance captée. Les conclusions montrent que les réseaux d'antennes à grande échelle et les déploiements ultra-denses de stations base sont tous les deux nécessaires pour capter une quantité d'énergie suffisamment élevée et fiable. En outre, la faisabilité de la diversité des récepteurs pour l'application aux réseaux cellulaires descendants est également étudiée. Diverses options basées sur la combinaison de sélection et la combinaison de taux maximal sont donc comparées. Notre analyse montre qu'aucun système n’est plus performant que les autres pour chaque configuration de système : les dispositifs à basse énergie doivent fonctionner de manière adaptative, en choisissant le schéma de diversité des récepteurs en fonction des exigences imposées.La deuxième contribution consiste à introduire une nouvelle approche pour la modélisation et l'optimisation de l'efficacité énergétique des réseaux cellulaires.Contrairement aux approches analytiques actuellement disponibles qui fournissent des expressions analytiques trop simples ou trop complexes de la probabilité de couverture et de l'efficacité spectrale des réseaux cellulaires, l'approche proposée est formulée par une solution de forme fermée qui se révèle en même temps simple et significative. Une nouvelle expression de l'efficacité énergétique du réseau cellulaire descendant est proposée à partir d’une nouvelle formule de l'efficacité spectrale. Cette expression est utilisée pour l’optimisation de la puissance d'émission et la densité des stations cellulaires de base. Il est prouvé mathématiquement que l'efficacité énergétique est une fonction uni-modale et strictement pseudo-concave de la puissance d'émission en fixant la densité des stations de base, et de la densité des stations de base en fixant la puissance d'émission. La puissance d'émission optimale et la densité des stations de base s'avèrent donc être la solution des équations non linéaires simples.La troisième contribution consiste à introduire une nouvelle approche pour analyser les performances des réseaux cellulaires hétérogènes équipés des sources d'énergie renouvelables, telles que les panneaux solaires. L'approche proposée permet de tenir compte de la distribution spatiale des stations de base en utilisant la théorie des processus ponctuels, ainsi que l'apparition aléatoire et la disponibilité de l'énergie en utilisant la théorie des chaînes de Markov. En utilisant l'approche proposée, l'efficacité énergétique des réseaux cellulaires peut être quantifiée et l'interaction entre la densité des stations de base et le taux d'énergie d'apparition peut être quantifiée et optimisée. / In communication networks, system-level analysis and optimization are useful when one is interested in optimizing the system performance across the entire network. System-level analysis and optimization, therefore, are relevant for optimally operating current networks, and for deploying and planning future networks. In the last few years, the system-level modeling and analysis of cellular networks have been facilitated by capitalizing on the mathematical tool of stochastic geometry and, more precisely, on the theory of spatial point processes. It has been empirically validated that, from the system-level standpoint, the locations of cellular base stations can be abstracted as points of a homogeneous Poisson point process whose intensity coincides with the average number of based stations per unit area.In this context, the contribution of the present Ph.D. thesis lies in developing new analytical methodologies for analyzing and optimizing emerging cellular network deployments. The present Ph.D. thesis, in particular, provides three main contributions to the analysis and optimization of energy-efficient cellular networks.The first contribution consists of introducing a tractable approach for assessing the feasibility of multiple-antenna cellular networks, where low-energy mobile devices decode data and harvest power from the same received signal. Tools from stochastic geometry are used to quantify the information rate vs. harvested power tradeoff. Our study unveils that large-scale antenna arrays and ultra-dense deployments of base stations are both necessary to harvest, with high reliability, a sufficiently high amount of power. Furthermore, the feasibility of receiver diversity for application to downlink cellular networks is investigated. Several options that are based on selection combining and maximum ratio combining are compared against each other. Our analysis shows that no scheme outperforms the others for every system setup. It suggests, on the other hand, that the low-energy devices need to operate in an adaptive fashion, by choosing the receiver diversity scheme as a function of the imposed requirements.The second contribution consists of introducing a new tractable approach for modeling and optimizing the energy efficiency of cellular networks. Unlike currently available analytical approaches that provide either simple but meaningless or meaningful but complex analytical expressions of the coverage probability and spectral efficiency of cellular networks, the proposed approach is conveniently formulated in a closed-form expression that is proved to be simple and meaningful at the same time. By relying on the new proposed formulation of the spectral efficiency, a new tractable closed-form expression of the energy efficiency of downlink cellular network is proposed, which is used for optimizing the transmit power and the density of cellular base stations. It is mathematically proved, in particular, that the energy efficiency is a unimodal and strictly pseudo-concave function in the transmit power, given the density of the base stations, and in the density of the base stations, given the transmit power. The optimal transmit power and density of base stations are proved to be the solution of simple non-linear equations.The third contribution consists of introducing a new tractable approach for analyzing the performance of multi-tier cellular networks equipped with renewable energy sources, such as solar panels. The proposed approach allows one to account for the spatial distribution of the base stations by using the theory of point processes, as well as for the random arrival and availability of energy by using Markov chain theory. By using the proposed approach, the energy efficiency of cellular networks can be quantified and the interplay between the density of base stations and energy arrival rate can be quantified and optimized.
37

Géométrie des nombres adélique et formes linéaires de logarithmes dans un groupe algébrique commutatif

Gaudron, Éric 01 December 2009 (has links) (PDF)
Voir le texte.
38

Interactions simultanées de plusieurs utilisateurs avec une table interactive / Multiple Users Simultaneous Interactions on an Interactive Multi-Touch Tabletop Display

Chaboissier, Jonathan 20 December 2011 (has links)
Les travaux de cette thèse en informatique s’inscrivent dans le domaine de l’interaction homme-machine (IHM). Le sujet de ce mémoire concerne l’utilisation d’une nouvelle forme d’ordinateur appelée table interactive. Il s’agit d’une table dont le plateau est à la fois un écran et une surface de détection multi-tactile. Les tables interactives ouvrent de nouveaux usages de l’informatique en permettant des applications multi-utilisateurs en coprésence. Les utilisateurs d’une même table interactive ont naturellement envie d’interagir simultanément sur la surface partagée. Cette simultanéité est toutefois difficile à observer dans un contexte collaboratif et non artificiel. Les études existantes n’ont pas suffisamment analysé les problèmes rencontrés ni cherché comment le système peut aider à gérer les accès simultanés.Notre approche a consisté à étudier les interactions simultanées en nous orientant vers des situations originales où la couche applicative du système exerce une forte pression sur le rythme d’utilisation. Nous justifions ainsi l’utilisation d’un jeu vidéo comme outil d’exploration et d’expérimentation. Ce mémoire retrace la conception et le développement de RealTimeChess, un jeu pour 2 à 4 joueurs, adapté aux caractéristiques des tables interactives, et inspiré des échecs dans une version s’affranchissant du tour par tour. Nous rapportons les résultats d’expériences menées sur des groupes de 2 à 4 participants en situations de coopération et de compétition, qui ont permis de mettre en évidence des problèmes de gênes physiques et d’accessibilité aux objets distants ; de perception des informations importantes en contexte dynamique ; et de contrôle du rythme de l’interaction.Ce mémoire expose en outre les leçons apprises au niveau de l’interaction simultanée de plusieurs utilisateurs, des aspects de territorialité, des comportements collaboratifs et enfin en proposant des recommandations de Game Design pour tables interactives. / This thesis presents our work in computer science in human-computer interaction (HCI). The subject concerns the use of a new kind of computer called the interactive tabletop display. It is a table whose top is both a screen and a multi-touch detection device. Interactive tabletops open up new uses of computer applications by allowing several co-located users to work or play together on the same system. Tabletop’s users naturally want to interact simultaneously on the shared surface. This simultaneity is difficult to observe in a collaborative and not artificial environment. Existing studies have not sufficiently analyzed the problems nor sought how the system can help manage concurrency.Our approach was to exploring simultaneous interactions by studying original situations where the system puts pressure on users. We explain how we used a video game as an exploration and experimentation tool. This thesis traces the design and development of RealTimeChess, a game for 2-4 players, a real-time version of Chess adapted to tabletops. We report the results of experiments on groups of 2 to 4 participants in situations of cooperation and competition, which helped to highlight problems and physical discomfort of access to remote objects, awareness in dynamic context, and control the pace of interaction.This thesis also presents lessons learned on simultaneous interactions of multiple users, territoriality aspects, collaborative behavior, and finally gives tabletop Game Design guidelines.
39

Etude expérimentale et numérique d'une thermofrigopompe de petite à moyenne puissance à équilibrage sur air

Byrne, Paul 23 November 2009 (has links) (PDF)
Les nouveaux bâtiments sont sujets à un renforcement de l'isolation thermique, à une augmentation des surfaces vitrées et à un accroissement des apports internes dus à des appareils électriques de plus en plus nombreux (ordinateurs, électroménager...). Cette tendance conduit à une diminution des demandes de chauffage mais peut engendrer des demandes de rafraîchissement en mi-saison et en période estivale. Les besoins en chauffage et en rafraîchissement deviennent plus équilibrés sur une journée et sur l'année en général. De plus, l'eau chaude sanitaire (ECS) occupe une place de moins en moins négligeable dans les besoins énergétiques totaux, ce qui provoque une simultanéité partielle des besoins en chaud et en froid dès que des demandes de rafraîchissement apparaissent. Une thermofrigopompe (TFP), machine frigorifique produisant de l'énergie calorifique et frigorifique de manière simultanée, associée à un stockage tampon d'énergie devient alors une solution intéressante. La TFP de petite à moyenne puissance est un système de production d'eau chaude et d'eau froide utilisant l'air comme source gratuite, destiné au chauffage, au rafraîchissement et à la production d'ECS pour des bâtiments du secteur résidentiel et du petit tertiaire. Elle présente plusieurs spécificités techniques dans la conception du circuit frigorifique, dans la gestion des modes de fonctionnement et des séquences de dégivrage. L'ajustement des productions de chaud et de froid aux charges du bâtiment s'effectue grâce à l'utilisation d'un échangeur d'équilibrage sur air extérieur fonctionnant soit en condenseur, soit en évaporateur. En période de chauffage, cette TFP offre également la possibilité de stocker une certaine quantité d'énergie sur la boucle d'eau froide à l'aide d'un sousrefroidisseur. Cette énergie stockée est utilisée en temps différé à l'évaporateur à eau afin d'améliorer les performances par un relèvement de la température d'évaporation et éventuellement de dégivrer l'évaporateur à air sans arrêter la production de chaleur. L'énergie de dégivrage est apportée par un thermosiphon diphasique formé entre les deux évaporateurs à des températures différentes. La présence d'un sous-refroidisseur impose le contrôle de la haute pression pour assurer une condensation totale du réfrigérant dans le condenseur utile. Le système de contrôle de pression est constitué d'une bouteille contenant du réfrigérant à l'équilibre liquide / vapeur connectée en partie basse à la ligne liquide et en partie haute au refoulement du compresseur et à un point en basse pression du circuit. Une injection de gaz provenant du refoulement du compresseur entraîne une augmentation de la haute pression. Une chasse vers la basse pression provoque une diminution de la haute pression du système. Une étude expérimentale a été menée sur une machine prototype de TFP au R407C pour des conditions variables de fonctionnement en températures d'air et d'eau et pour les différents modes possibles (chauffage, rafraîchissement et production simultanée). Les performances obtenues expérimentalement sont en accord avec celles annoncées par le logiciel de sélection développé par le constructeur du compresseur. L'étude expérimentale a également permis d'observer le dégivrage par thermosiphon, de vérifier le bon fonctionnement du système de gestion de la pression de condensation et des séquences alternées en période hivernale (1 : mode chauffage avec stockage de chaleur sur la boucle d'eau froide par sous-refroidissement. 2 : mode équilibré utilisant une évaporation par l'énergie stockée sur la boucle d'eau froide, plus performant, avec dégivrage éventuel). Le fonctionnement de la TFP a été modélisé avec deux réfrigérants : le HFC R407C et le CO2. Dans le contexte actuel animé par d'éventuelles décisions politiques concernant l'impact des gaz à effet de serre sur le réchauffement climatique, le dioxyde de carbone est un fluide intéressant d'abord pour son faible impact environnemental (ODP nul et GWP100ans = 1) et pour les caractéristiques particulières du cycle thermodynamique utilisé (cycle transcritique). En effet, une grande quantité d'énergie est récupérable par sous-refroidissement du fluide frigorigène et de l'ECS à haute température peut être produite de manière performante. Dans des simulations annuelles, les TFP au R407C et au CO2 sont comparées à des pompes à chaleur réversibles sur les critères de performance, d'économie d'énergie et d'impact environnemental. Le concept de cette TFP offre clairement une amélioration des performances par rapport à une pompe à chaleur réversible classique et l'utilisation du dioxyde de carbone présente de bonnes perspectives de développement.
40

Caractérisations chimiques et biologiques d’extraits de plantes aromatiques et médicinales oubliées ou sous-utilisées de Midi-Pyrénées (France) et de Chongqing (Chine) / Chemical and biological characterisation of extracts from forgotten or underutilised medicinal and aromatic plants from Midi-Pyrénées (France) and Chongqing (China) regions

Zhao, Tianming 12 May 2014 (has links)
Les régions de Midi-Pyrénées (France) et de Chongqing (Chine) sont riches en plantes aromatiques et médicinales dites oubliées (ou médiévales). Afin de valoriser pleinement les différentes bio-molécules extractibles de ces plantes, le concept de MAP-raffinerie a été créé et appliqué à une sélection de plantes issues de ces deux régions. Plusieurs technologies d’extraction utilisant l’eau comme solvant vert (hydrodistillation, distillation à la vapeur et extraction par eau sub-critique) ont ainsi été employées et leur impact tant sur la composition des huiles essentielles que sur la récupération des molécules anti-oxydantes a été évalué. Dans un premier temps, une liste de plantes aromatiques et médicinales oubliées, voire sous-utilisées dans les deux régions a été établie selon des règles de sélection prédéfinies. Six plantes modèles de la région de Midi-Pyrénées (Tussilago farfara L., Calendula arvensis L., Robinia pseudoacacia L., Geranium robertianum L., Cytisus scoparius L. et Spartium junceum L.) et trois plantes de la région de Chongqing (Tussilago farfara L., Citrus aurantium L. et Saussurea costus) ont finalement été retenues. Puis, le concept de MAP-raffinerie a été appliqué à ces plantes afin d’étudier leur possible valorisation globale. L’étude des compositions chimiques des extraits volatils des racines de Tussilago farfara L. et de Calendula arvensis L., ainsi que des boutons de fleurs de Spartium junceum L. a été réalisée par GC et GC-MS pour la première fois. Les principaux composés chimiques dans l’extrait volatil de racines de Tussilago farfara L. étaient des hydrocarbures sesquiterpéniques et des composés aliphatiques tandis que les principaux composés chimiques dans l’extrait volatil de racines de Calendula arvensis L. étaient des sesquiterpènes oxygénés, des monoterpènes oxygénés et des diterpènes oxygénés. L’extrait volatil de boutons de fleurs de Spartium junceum L. était principalement composé de composés aliphatiques. Par ailleurs, les résultats de l’évaluation des capacités anti-oxydantes des extraits (par les tests DPPH, ABTS, FRAP, ORAC et Folin-Ciocalteu) ont montrés que plusieurs plantes comme Cytisus scoparius L., Tussilago farfara L., Citrus aurantium L. ou Robinia pseudoacacia L. pourraient être des sources potentielles d’anti-oxydants naturels. D’un point de vue technologique, les comparaisons de l’utilisation de l’hydrodistillation (HD), de la distillation à la vapeur (SD) et de l’extraction par eau sub-critique (SWE) ont montrées que si la HD et la SD ont des effets limités sur la composition des huiles essentielles, la HD semble être une méthode plus efficace pour la récupération des composés anti-oxydants à partir des résidus de distillation que la SD tandis que la SWE s’avère être une technologie prometteuse pour l’extraction directe de ces molécules à partir des plantes. Si la composition minérale de l’eau lors de l’hydrodistillation n’a que des effets très limités sur les rendements d’extraction, les teneurs en ions calcium et bicarbonate des eaux ont par contre des effets décroissants significatifs sur la capacité anti-oxydante et sur la teneur phénolique totale des extraits aqueux et méthanoliques. Au vue de ces résultats, un concept amélioré de MAP-raffinerie a été développé en intégrant une extraction à l’eau sub-critique pour l’extraction des composés anti-oxydants des résidus d’extraction primaire. Selon ce nouveau concept, cinq extraits peuvent être obtenus à partir des matières végétales: un extrait volatil, un extrait aqueux, un extrait méthanolique, un extrait à l’eau sub-critique et in fine un résidu solide. Les premiers résultats ont montrés que la "MAP-raffinerie améliorée" augmente de manière significative la récupération des antioxydants par rapport à la MAP-raffinerie originale et permet d’envisager une valorisation plus facile du résidu solide en agro-matériaux du fait de sa faible teneur en eau résiduelle. / In both Midi-Pyrénées region (France) and Chongqing region (China), there are rich and underutilized medicinal and aromatic plants (MAP). Aiming at fully exploiting different molecules in these plants, the concept of MAP-refinery was developed and applied to several underutilized medicinal and aromatic plants in these two regions. Several water-based green extraction technologies of natural products (e.g. hydrodistillation, steam distillation and subcritical water extraction) were also investigated to look at their effects on essential oil composition and antioxidants recovery from selected plants. Firstly, lists of forgotten or underutilized medicinal and aromatic plants in both regions were established according to the rules of selection. From the lists, six plants in the Midi-Pyrénées region (Tussilago farfara L., Calendula arvensis L., Robinia pseudoacacia L., Geranium robertianum L., Cytisus scoparius L. and Spartium junceum L.) and three plants in the Chongqing region (Tussilago farfara L., Citrum aurantium L. and Saussurea costus) were finally selected for investigations. Then the MAP-refinery was applied to the selected plants in two regions in order to realise their global valorisation. Volatile extracts composition in the roots of Tussilago farfara L. and Calendula arvensis L., as well as flower buds of Spartium junceum L. were firstly investigated. The main chemical compounds in volatile extract from Tussilago farfara L. roots were sesquiterpene hydrocarbons and aliphatic compounds while main chemical compounds in volatile extract from Calendula arvensis L. roots were oxygenated sesquiterpenes, oxygenated monoterpenes and oxygenated diterpenes. The volatile extract from flower buds of Spartium junceum L. was mainly composed of aliphatic compounds. Antioxidant capacity evaluation results (by DPPH, ABTS, FRAC, ORAC and Folin-Ciocalteu tests) showed that several plant samples like Cytisus scoparius L., Tussilago farfara L., Citrum aurantium L. and Robinia pseudoacacia L. could be potential sources of natural antioxidants. Comparisons of hydrodistillation (HD), steam distillation (SD) and subcritical water extraction (SWE) showed that HD and SD had limited effects on essential oil composition but HD, SD and SWE had significant impacts on the recovery of antioxidants. Hydrodistillation seemed to be a better method for recovery of antioxidant compounds from residues of distillation than steam distillation. However, SWE appeared to be a more efficient method for direct extraction of antioxidant molecules (or phenolic compounds) from plants. In the hydrodistillation process, mineral contents in water were found to have very limited effects on yields of extracts but calcium and bicarbonate ions, had significant decreasing effects on antioxidant capacity and total phenolic content of both aqueous and methanolic extracts. Finally, an improved MAP-refinery was developed. Subcritical water was used for further extraction of antioxidant compounds from residues in original MAP-refinery. In this way, five parts could be obtained from plant materials: volatile extract, aqueous extract, methanolic extract, subcritical water extract and the final residue. The results showed that the improved MAP-refinery significantly increased the recovery of antioxidants compared with original MAP-refinery. This promising process will also allow a better valorisation of the final solid residue due to the lower content of residual water.

Page generated in 0.0682 seconds