• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1544
  • 436
  • 147
  • 17
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2192
  • 1173
  • 445
  • 383
  • 300
  • 256
  • 252
  • 238
  • 218
  • 209
  • 154
  • 147
  • 147
  • 147
  • 138
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Biologie, caractérisation chimique et activités antioxydantes du champignon comestible et médicinal Agaricus subrufescens / Biology, chemical characterization and antioxidant activities of the culinary medicinal mushroom Agaricus subrufescens

Llarena Hernandez, Régulo Carlos 05 July 2013 (has links)
Récemment, Agaricus subrufescens est devenu un champignon d’intérêt de par ses propriétés médicinales. Sa production commerciale s’est développée dans des pays tropicaux à partir de matériaux locaux. Cependant, les données disponibles dans la littérature ne concernent que des cultivars qui sont génétiquement similaires. Notre étude sur un ensemble de cultivars et de souches sauvages a conduit à une meilleure connaissance de la biologie de l’espèce. Contrairement aux cultivars, les souches sauvages présentent un haut niveau de polymorphisme génétique. Une variabilité phénotypique élevée a été mise en évidence pour l’accroissement mycélien, la productivité et la morphologie. Des analyses chimiques par RMN du solide et l’estimation des activités anti-oxydantes ont montré que les souches sauvages comme les cultivars sont une source à exploiter comme aliment fonctionnel pour prévenir les maladies cardio-vasculaire, les cancers et le diabète. L’adaptation des conditions culturales à partir du substrat utilisé pour la culture d’A. bisporus a permis d’obtenir des fructifications d’A. subrufescens, puis d’augmenter le rendement et d’optimiser des caractères agronomiques d’intérêt. Du matériel sauvage avec une activité antioxydante et un rendement élevés a été identifié. L’évaluation d’hybrides intercontinentaux a montré la possibilité de transférer des caractères d’intérêt à une descendance. Agaricus subrufescens pourrait être proposé aux champignonnistes français comme alternative à Agaricus bisporus pendant la saison estivale. / Agaricus subrufescens is becoming a mushroom of interest because of its medicinal properties. Commercial production had developed in tropical countries using local materials. However, data available in the literature referred to cultivars that are genetically similar. Our study of a set of cultivars and wild strains led to a better understanding of the biology of the species. Contrary to cultivars, wild strains exhibited a high level of genetic polymorphism. High phenotypic variability was identified in mycelial growth, productivity and morphology. Chemical analyses by solid-state 13C NMR and antioxidant activities showed that the wild strains as well as the cultivars proved a valuable source of functional food to prevent cardiovascular diseases, cancers and diabetes. Using cultivation substrate produced for A. bisporus and modifying cultivation conditions allowed fruiting of A. subrufescens, then increase in strain yield and optimization of agronomic traits of interest. Wild material with good antioxidant activity and high productivity was identified. The evaluation of intercontinental hybrids showed the possibility to transfer traits of interest to offspring. A. subrufescens could be proposed to French mushroom growers as an alternative to Agaricus bisporus during the summer season.
102

Etat qualitatif des eaux de la nappe du val d'Orléans : impact du changement climatique et gestion durable de la ressource / Quality of groundwater in the Val of Orléans : impact of climate change and sustainable management of groundwater resource

Joigneaux, Emmanuelle 01 December 2011 (has links)
Cette thèse vise à évaluer l’impact du changement climatique sur la qualité des eaux du système karstique dans le Val d’Orléans. En 1er lieu, un bilan de la qualité géochimique de la Loire et de la Source du Bouillon a été réalisé : les isotopes stables et éléments majeurs ont révélé un mélange des eaux de Loire avec des eaux déjà présentes dans le karst ; la formation de calcite et d’hydroxydes de fer joue un rôle majeur sur le comportement des éléments traces dans le karst. Le bilan réalisé ensuite pour les produits phytosanitaires et pharmaceutiques montre que leur occurrence et comportement dans le karst varie suivant la molécule considérée, selon : son pouvoir d’adsorption au sol/sédiment, son taux de dégradation dans les stations d’épuration (pour les pharmaceutiques) et dans les eaux naturelles, les saisons et conditions climatiques, le mélange avec des eaux résiduelles karstiques plus ou moins chargées en produits que la Loire. Ces bilans géochimiques ont permis de fixer la qualité de l’eau souterraine pendant la durée de prélèvement. Le risque d’inversion de courant au niveau de rivières locales pouvant entraîner une dégradation de cette qualité, l’occurrence future de ces inversions de courant a été calculée : en reliant les inversions de courant et les résultats d’une désagrégation d’échelle d’un modèle climatique, il apparaît que le risque d’inversion de courant dans le Val d’Orléans diminuerait dans le futur. La qualité des eaux souterraines resterait alors semblable à celle exposée pendant cette thèse, sans mélanges avec l’eau de surface provenant des inversions, et par conséquent sans dégradation manifeste de la ressource en eau du Val d’Orléans. / The aim of this study is the impact of climate change on groundwater quality in the Val of Orléans (France). First, geochemical studies made on Loire River and related spring with isotopic composition and major elements revealed a mixing between Loire river water and older karst water in the aquifer. Calcite precipitation and Fe-Hydroxydes formation in the karst play a major role on the behaviour and fate of trace elements. Then, geochemical studies on contaminants like pesticids and pharmaceuticals showed that their occurrence and behaviour vary for each component, according to : the capacity of adsorption on soil/sediment, the degradation rate in waste water treatment plant (for pharmaceuticals) and in natural waters, seasons and climatic conditions, mixing of Loire river water with residual waters in the karst. These chemical investigations allowed us to fix the groundwater quality during our samplings. The threat of local river backflow in the karst system can lead to a degradation of its quality, so the future occurrence of backflow events in the Val was calculated : using a link between backflow events and results of a climatic model downscaling, we found that these events would decrease in frequency in the future. Thus groundwater quality would remain stable, without mixing with contaminated local freshwaters.
103

Contributions de la géostatistique à l'amélioration de l'estimation de la qualité de l'air / Contributions of Geostatistics to improve the estimation in Air Quality

Beauchamp, Maxime 10 December 2018 (has links)
Les méthodes géostatistiques sont couramment utilisées pour la cartographie de la qualité de l'air. En France, le système PREV'AIR diffuse depuis 2003 des prévisions quotidiennes à trois jours ainsi que des cartographies de qualité de l'air à l'échelle nationale et européenne. Ces cartographies sont construites par krigeage des observations en utilisant les sorties du modèle déterministe de chimie-transport CHIMERE en dérive externe. Dans ce domaine, de nombreuses questions et développements restent en suspens.La première partie de la thèse vise à améliorer les cartographies locales, nationales et européennes des principaux polluants réglementaires. En mode analyse (réalisation de cartographies à partir des observations passées, et donc connues), on revient sur l'utilisation des variables explicatives dans le krigeage : il s'agit de voir comment ces variables peuvent être intégrées à l'estimation pour la modélisation des non stationnarités et l’élaboration de cartographies de plus haute résolution spatiale que les simulations du modèle de chimie-transport. La réflexion porte sur la modélisation de la composante déterministe du processus stochastique, mais aussi sur la covariance du résidu. Une attention particulière est portée au réseau de mesures. L'utilisation des observations PM10 pour cartographier les PM2.5, dont le réseau de mesures est moins dense, est explorée. L'estimation dans les zones peu informées est également examinée. Enfin, une réflexion est menée sur l'extension de ces méthodes au mode prévision, afin d'améliorer le système PREV'AIR, qui dissocie les composantes temporelles et spatiales de la prévision. Après une revue des méthodes spatio-temporelles d'estimation, différentes méthodes sont évaluées.Dans la deuxième partie sont présentées des approximations pragmatiques permettant d'exploiter au mieux les cartographies produites quotidiennement ou ponctuellement afin de satisfaire aux exigencesréglementaires. A l'échelle nationale, l'exploitation des sorties des cartes analysées (horaires, journalières) de PREV'AIR permet de déduire des cartes de probabilités de dépassement des seuils réglementaires. Ces travaux amènent à reconsidérer la question de la représentativité spatiale des stations de mesures. Enfin, on insiste sur la nécessité d'utiliser des méthodes d’estimation appropriées pour le calcul des surfaces en dépassement de valeurs réglementaires. / Geostatistical methods are commonly used in air quality mapping. In France, since 2003, the PREV'AIR system has been broadcasting daily three-days forecasts as well as national and European air quality maps. They are built by a kriging of the observations using the deterministic chemistry-transport model CHIMERE outputs as an external drift. However, many issues or developments remain unresolved.The first part of the thesis aims at improving the local, national and european maps of the main regulated pollutants. Regarding the analysis (mapping of the past observations), we get back to the question of the use of explanatory variables in kriging. What are the best options for a covariate-based modelling of the underlying non stationarity, that also enables downscaling the model outputs? The statistical modelling for the deterministic component of the stochastic process is investigated, as well as the modelling for the covariance of the residual. A focus is also made on the spatial sampling of the monitoring network. The use of PM10 observations to map PM2.5, whose monitoring network is less dense, is studied and a thought is also given to the estimation in far-off extrapolation. Last, we discuss how to extend these methods to the prediction problem (mapping of the future, where no observations are available). Therefore, we could improve the PREV'AIR system which currently dissociates the time and the spatial components of the underlying process. A review of spatio-temporal methods is carried out, and some of them are evaluated.In a second part, some pragmatic though justified approximations are presented to deal with regulatory requirements. At both local and national levels, how the analyses can be used to deduce probability maps of exceedances of the regulatory thresholds? Along this line, we also come back to the question of the spatial representativeness of the monitoring stations. Last, the pragmatic approximations are confronted to non-linear estimations, theoretically more convenient to deal with non-linear functions of the concentrations. We engage a discussion to show the need of considering the appropriate estimation method to compute the surface exceeding the limit value.
104

Gestion de la qualité de contexte pour l'intelligence ambiante / Management of the quality of context for ambient intelligence

Abid, Zied 21 December 2012 (has links)
L'informatique sensible au contexte vise à réduire la quantité d'informations explicites qu'un utilisateur doit fournir pour que le système accomplisse la tâche souhaitée. Ceci est particulièrement vrai dans le domaine récent de l'intelligence ambiante où les objets de la vie courante deviennent capables de déclencher une action ou un échange spontané d'informations, sans interaction avec l'utilisateur. Les progrès techniques en matière de réseaux de communication sans fil, d'équipements mobiles individuels, de capteurs et de logiciels embarqués, rendent aujourd'hui possibles des services aux usagers dépendants du contexte, mais les applications concrètes demeurent encore très limitées. Les travaux existants dans la littérature décomposent la gestion de contexte en quatre fonctionnalités: la collecte, l'interprétation, la détection de situations et l'utilisation pour l'adaptation. L'élément discriminant des solutions existantes est la qualité des informations abstraites obtenues par inférence et devant caractériser les situations de l'utilisateur. Les limites de ces solutions sont le manque de composition aisée des informations de contexte, le passage à l'échelle, tant en termes de quantité d'informations de contexte que de nombre d'applications clientes, l'absence de garantie sur la cohérence et la qualité des informations de contexte, et le manque de solutions intergicielles permettant de libérer le concepteur d'applications des aspects liés à la gestion de contexte. Nous nous intéressons dans cette thèse à la gestion de la qualité de contexte (QoC) dans un environnement ambiant. Les problématiques de gestion de la qualité de contexte sont multiples: choisir la méthode adéquate pour la gestion du contexte, extraire la qualité associée au contexte, interpréter et analyser la qualité de contexte pour les applications sensibles au contexte. Nous proposons de répondre à ces problématiques en intégrant la qualité de contexte au sein de la plateforme de gestion de contexte COSMOS (http://picoforge.lntevrv.fr/proiects/svn/cosmos) de l'équipe MARGE (http://www-inf.itsudparis.eu/MARGE) de Télécom SudParis. Afin d'effectuer cette intégration, nous avons conçu des éléments spécifiques à la qualité de contexte et avons mis en place une gestion fine et efficiente de cette qualité en limitant le surcoût associé. Nous proposons également un processus de conception basé sur l'ingénierie dirigée par les modèles afin de générer les éléments requis à la gestion de la qualité de contexte. Nous avons validé nos contributions à l'aide de deux applications fonctionnant sur téléphone mobile : une application de "vente flash" dans un centre commercial et une application de détection de localisation sur un campus. Les tests de performances que nous avons effectués permettent de comparer les résultats avec et sans la prise en compte de la QoC et montrent le faible coût de la gestion de la qualité par rapport aux améliorations apportées aux applications sensibles au contexte / Context-aware computing aims to reduce the amount of explicit information required from a user for a system to perform a task. This is particularly true in the recent domain of ambient intelligence where everyday life objects are able to trigger an action or a spontaneous information exchange, without any interaction with the user. Technical advances in wireless communication, personal mobile devices, sensors and embedded software make context-aware services possible, but concrete applications are still very limited. The solutions proposed in the literature decompose context management into four functions: acquisition, interpretation, situation detection and application adaptation. The differentiating element in these proposals is the quality of the high-level context information obtained by inference and characterising the situation of the user. The limits of these solutions are the difficulty for composing context information scalability in terms of the quantity of context information and of the number of client applications, the absence of guarantee on the consistency of context information and the lack of middleware solutions able to free the designer of context-aware applications from the management of context data. In this thesis, we are interested in the management of the quality of context information (QoC) in an ambient environment. There are several key issues in QoC management: choosing the adequate method for context management, extracting the quality associated to the context, analysing and interpreting the quality of the context with regard to the requirements of context-aware applications. We propose to answer these questions by integrating QoC management into the COSMOS context management framework (http://picoforge.int-evry.fr/projects/svn/cosmos) developed by the MARGE team (http://www-inf.itsudparis.eu/MARGE) of Télécom SudParis.For this purpose, we have designed the necessary components dedicated to QoC management and we have implemented the mechanisms allowing a fine-grain manipulation of the QoC together with a limitation of the associated overhead. We also propose a design process based on model-driven engineering in order to automatically generate the elements responsible of QoC management. We validate our contributions through the development of two prototype applications running on mobile phones: a Flash sale offer application to be used in malls and a location detection application proposed to the students of a campus. The performance tests we have conducted allow to compare the results obtained with and without taking into account the QoC and show the low overhead associated to QoC manaqement with regard to the benefits brought to context-aware applications and services
105

Contributions on detection and classification of internet traffic anomalies

Farraposo, Silvia 17 June 2009 (has links) (PDF)
Il est évident aujourd'hui que le trafic Internet est bien plus complexe et irrégulier qu'escompté, ce qui nuit grandement à un fonctionnement efficace des réseaux, ainsi qu'à la garantie de niveaux de performances et de qualité de service (QdS) satisfaisants. En particulier, le comportement du réseau est surtout mis à mal lorsque le trafic contient des anomalies importantes. Différentes raisons peuvent être à la source de ces anomalies, comme les attaques de déni de service (DoS), les foules subites ou les opérations de maintenance ou de gestion des réseaux. De fait, la détection des anomalies dans les réseaux et leurs trafics est devenue un des sujets de recherche les plus chauds du moment. L'objectif de cette thèse a donc été de développer de nouvelles méthodes originales pour détecter, classifier et identifier les anomalies du trafic. La méthode proposée repose notamment sur la recherche de déviations significatives dans les statistiques du trafic par rapport à un trafic normal. La thèse a ainsi conduit à la conception et au développement de l'algorithme NADA : Network Anomaly Detection Algorithm. L'originalité de NADA - et qui garantit son efficacité - repose sur l'analyse du trafic selon 3 axes conjointement : une analyse multi-critères (octets, paquets, flux, ...), multi-échelles et selon plusieurs niveaux d'agrégations. A la suite, la classification repose sur la définition de signatures pour les anomalies de trafic. L'utilisation des 3 axes d'analyse permettent de détecter les anomalies indépendamment des paramètres de trafic affectés (analyse multi-critères), leurs durées (analyse multi-échelles), et leurs intensités (analyse multi-niveaux d'agrégation). Les mécanismes de détection et de classification d'anomalies proposés dans cette thèse peuvent ainsi être utilisés dans différents domaines de l'ingénierie et des opérations réseaux comme la sécurité des réseaux, l'ingénierie du trafic ou des réseaux superposés, pour citer quelques exemples. Une contribu tion importante de la thèse a trait à la méthode de validation et d'évaluation utilisée pour NADA. NADA a ainsi été validé sur une base de trace de trafic contenant des anomalies documentées, puis évalué sur les principales traces de trafic disponibles. Les résultats obtenus sont de très bonne facture, notamment lorsqu'ils sont comparés avec ceux obtenus par d'autres outils de détection d'anomalies. De plus, la qualité des résultats est indépendante du type de trafic analysé et du type d'anomalie. Il a été en particulier montré que NADA était capable de détecter et classifier efficacement les anomalies de faible intensité, qui sont apparues comme des composantes essentielles des attaques DOS. NADA apporte donc une contribution intéressante en matière de sécurité réseau.
106

CORRELATION ENTRE LES PERFORMANCES PHYSIQUES MESUREES DES<br />DETECTEURS ET LA QUALITE DIAGNOSTIQUE DE L'IMAGE EN<br />MAMMOGRAPHIE NUMERIQUE.

Perez-Ponce, Hector 19 May 2009 (has links) (PDF)
En mammographie numérique, il existe deux approches pour évaluer la qualité de l'image. Dans la première approche, une méthode visuelle basée sur un observateur humain permet la détectabilité des lésions en radiographie mammographique. Malheureusement, cette approche de qualité nécessite d'importantes ressources humaines et du temps lors de son implémentation, et elle est affectée par la variabilité inter‐évaluateurs. Dans une deuxième approche, des paramètres objectifs et indépendants de l'observateur humain, présentant une relation avec la résolution et le contraste de l'image, sont utilisés pour une évaluation de la performance des détecteurs. Cependant, il n'existe pas de relation directe entre ces paramètres et la détectabilité des lésions. Une méthode permettant d'avoir une approche de la qualité de l'image, à la fois indépendante de facteurs humains et présentant une relation directe avec la détectabilité des lésions, permettrait d'utiliser l'équipement mammographique de manière optimale. Ce travail de thèse présente le développement d'une telle méthode, consistant à générer par ordinateur des images virtuelles à partir d'un modèle « Source à rayons X/Détecteur numérique », qui prend en compte les valeurs mesurées de la MTF et du NPS des équipements mammographiques en conditions cliniques d'utilisation. De par les résultats obtenus dans notre travail, nous avons contribué à établir le lien entre les caractéristiques physiques des détecteurs et la qualité clinique de l'image dans les conditions habituelles d'exposition. De plus, nous suggérons que notre modèle de création d'images virtuelles puisse être utilisé pour déterminer rapidement les conditions optimales en mammographie. Il s'agit, en effet, d'un aspect essentiel à considérer pour la radioprotection des patientes, particulièrement dans le cadre du dépistage de masse organisé, et qui est habituellement un processus expérimental long et fastidieux à mettre en oeuvre.
107

Corrélation entre les performances physiques mesurées des détecteurs et la qualité diagnostique de l'image en mammographie numérique

Perez-Ponce, Hector 19 May 2009 (has links) (PDF)
En mammographie numérique, il existe deux approches pour évaluer la qualité de l'image. Dans la première approche, une méthode visuelle basée sur un observateur humain permet la détectabilité des lésions en radiographie mammographique. Malheureusement, cette approche de qualité nécessite d'importantes ressources humaines et du temps lors de son implémentation, et elle est affectée par la variabilité inter-évaluateurs. Dans une deuxième approche, des paramètres objectifs et indépendants de l'observateur humain, présentant une relation avec la résolution et le contraste de l'image (MTF et NPS), sont utilisés pour une évaluation de la performance des détecteurs. Cependant, il n'existe pas de relation directe entre ces paramètres et la détectabilité des lésions. Une méthode permettant d'avoir une approche de la qualité de l'image, à la fois indépendante de facteurs humains et présentant une relation directe avec la détectabilité des lésions, permettrait d'utiliser l'équipement mammographique de manière optimale. Ce travail de thèse présente le développement d'une telle méthode, consistant à générer par ordinateur des images virtuelles à partir d'un modèle « Source à rayons X/Détecteur numérique », qui prend en compte les valeurs mesurées de la MTF et du NPS des équipements mammographiques en conditions cliniques d'utilisation. De par les résultats obtenus dans notre travail, nous avons contribué à établir le lien entre les caractéristiques physiques des détecteurs et la qualité clinique de l'image dans les conditions habituelles d'exposition. De plus, nous suggérons que notre modèle de création d'images virtuelles puisse être utilisé pour déterminer rapidement les conditions optimales en mammographie. Il s'agit, en effet, d'un aspect essentiel à considérer pour la radioprotection des patientes, particulièrement dans le cadre du dépistage de masse organisé, et qui est habituellement un processus expérimental long et fastidieux à mettre en oeuvre.
108

CARACTERISATION DES PARTICULES EN GARES SOUTERRAINES

Fortain, Aude 12 June 2008 (has links) (PDF)
La qualité de l'air dans les gares souterraines est un sujet émergeant en lien direct avec l'exposition des personnes à la pollution de l'air intérieure et extérieure. Ainsi, le travail réalisé lors de cette thèse consistait à mieux caractériser les particules présentes dans ces enceintes ferroviaires. <br />La première partie de ce travail présente un état de l'art des connaissances de la pollution particulaire dans les gares souterraines. Les particularités chimiques et des concentrations par rapport à l'air extérieur sont mises en avant, ainsi que l'intérêt d'étudier les concentrations en nombre.<br />La deuxième partie est consacrée à la caractérisation des particules durant une dizaine de jours d'exploitation ainsi qu'à l'étude de la faisabilité de mesures Lidar dans une enceinte ferroviaire. Cette étude a permis de mettre en évidence des particularités chimiques et des concentrations suivant différentes périodes ainsi que l'intérêt du Lidar pour étudier le transport des particules dans un tel volume.<br />La troisième partie a permis d'étudier trois sources spécifiques à une gare, la ventilation, les voyageurs et les trains en s'intéressant plus particulièrement aux concentrations en nombre de chaque source. En fonction des scenarii d'étude, nous avons pu mettre en évidence un apport particulier de chaque source. <br />Enfin une quatrième partie a permis d'étudier l'application d'un modèle global pour calculer les évolutions des concentrations en gare et de mettre en évidence les difficultés rencontrées pour déterminer certaines données d'entrée.<br />Les perspectives quant à la connaissance de sources, à la surveillance de la qualité de l'air et la modélisation sont présentées en conclusion.
109

Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des Contrôles qualité par la Maitrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI)

Gerard, Karine 07 November 2008 (has links) (PDF)
La Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) est aujourd'hui reconnue comme une technique de référence permettant d'augmenter le contrôle local de la tumeur tout en réduisant la dose reçue par les organes à risques avoisinants. Cependant, son développement est freiné par l'étape de préparation du traitement du patient qui nécessite une charge de travail considérable. Dans le but d'augmenter l'efficience de la mise en œuvre d'un traitement, deux axes de travail ont été déterminés.<br />Le premier axe concernait l'optimisation automatique des incidences des faisceaux. Nous avons pour cela mis en œuvre un algorithme (le simplexe) qui a été intégré dans le système de planification de traitement. Il permet, à partir des objectifs dosimétriques fixés par l'utilisateur, de déterminer automatiquement les incidences de faisceaux optimales : irradiant suffisamment le volume cible tout en épargnant les organes à risques avoisinants. En plus d'un gain en temps, les résultats du simplexe ont montré – sur trois patients atteints d'un cancer de l'oropharynx – un gain en qualité par rapport à une sélection manuelle des faisceaux. En effet, pour une couverture du volume cible équivalente voire meilleure, il permet de réduire la dose reçue par les organes à risques.<br />Le second axe concernait l'optimisation des contrôles pré-traitement. Nous avons pour cela utilisé une méthode industrielle : la Maîtrise Statistique des Processus (MSP) afin d'analyser rétrospectivement les résultats des contrôles de la dose absolue effectués avec la chambre d'ionisation au Centre Alexis Vautrin (CAV). Cette étude a montré l'intérêt de la MSP pour renforcer la sécurité des traitements grâce à la mise en place de cartes de contrôle. Elle a également montré que notre processus de délivrance de la dose était stable et statistiquement capable pour les traitements de la prostate, ce qui implique qu'une réduction du nombre de contrôles peut être envisagée pour ce type de traitement au CAV.
110

Allocation de ressources distribuée dans les réseaux OFDMA multi-cellulaires

Pischella, Mylène 23 March 2009 (has links) (PDF)
La thèse étudie des méthodes d'allocation de ressources, distribuées par station de base (BS) dans les réseaux OFDMA multi-cellulaires. L'objectif est de fournir la Qualité de Service (QdS) requise par chaque utilisateur, quelle que soit sa localisation dans la cellule. Les travaux portent d'abord sur la coordination causale de réseaux. Deux BSs forment un lien MIMO virtuel pour les utilisateurs localisés en bordure de cellule. Ces utilisateurs bénéficient d'un gain de diversité et d'une diminution de l'interférence inter-cellulaire. L'efficacité de la méthode d'allocation de ressources associée dépend de l'équité du contrôle de puissance. En conséquence, la coordination de réseaux est utilisée pour les utilisateurs à Débit Contraint (DC), mais pas pour les utilisateurs Best Effort (BE), dans un algorithme permettant de gérer conjointement les deux objectifs de QdS. La thèse étudie ensuite les réseaux totalement distribués. Pour les utilisateurs DC, une méthode d'allocation de ressources incluant une allocation de puissance itérative est déterminée pour résoudre le problème Margin Adaptive. Cette méthode est étendue aux utilisateurs DC en MIMO, lorsque le transmetteur connaît tout l'information de canal, ou uniquement ses caractéristiques statistiques. Pour les utilisateurs BE, enfin, l'objectif est de maximiser la somme des débits pondérés, le poids de chaque utilisateur étant proportionnel à la longueur de sa file d'attente. Une méthode d'allocation de sous-porteuses, déduite d'un graphe d'interférence, et une méthode de contrôle de puissance distribuée sont proposées pour résoudre ce problème d'optimisation.

Page generated in 0.0499 seconds