• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 22
  • 7
  • 1
  • Tagged with
  • 80
  • 25
  • 23
  • 15
  • 15
  • 15
  • 12
  • 11
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Calcul parallèle et méthodes numériques pour la simulation de plasmas de bords / Parallel computing and numerical methods for boundary plasma simulations

Kuhn, Matthieu 29 September 2014 (has links)
L'amélioration du code Emedge3D (code de bord électromagnétique) est abordée sous plusieurs axes. Premier axe, des innovations sur les méthodes numériques ont été mises en oeuvre. L'avantage des méthodes de type semi-implicite est décrit, leur stabilité inconditionnelle permet l'augmentation du pas de temps, et donc la diminution du nombre d'itérations temporelles requises pour une simulation. Les avantages de la montée en ordre en espace et en temps sont détaillés. Deuxième axe, des réponses sont proposées pour la parallélisation du code. Le cadre de cette étude est proche du problème général d'advection-diffusion non linéaire. Les parties coûteuses ont tout d'abord été optimisées séquentiellement puis fait l'objet d'une parallélisation OpenMP. Pour la partie du code la plus sensible aux contraintes de bande passante mémoire, une solution parallèle MPI sur machine à mémoire distribuée est décrite et analysée. Une bonne extensibilité est observée jusque 384 cœurs. Cette thèse s'inscrit dans le projet interdisciplinaire ANR E2T2 (CEA/IRFM, Université Aix-Marseille/PIIM, Université Strasbourg/Icube). / The main goal of this work is to significantly reduce the computational cost of the scientific application Emedge3D, simulating the edge of tokamaks. Improvements to this code are made on two axes. First, innovations on numerical methods have been implemented. The advantage of semi-implicit time schemes are described. Their inconditional stability allows to consider larger timestep values, and hence to lower the number of temporal iteration required for a simulation. The benefits of a high order (time and space) are also presented. Second, solutions to the parallelization of the code are proposed. This study addresses the more general non linear advection-diffusion problem. The hot spots of the application have been sequentially optimized and parallelized with OpenMP. Then, a hybrid MPI OpenMP parallel algorithm for the memory bound part of the code is described and analyzed. Good scalings are observed up to 384 cores. This Ph. D. thesis is part of the interdisciplinary project ANR E2T2 (CEA/IRFM, University of Aix-Marseille/PIIM, University of Strasbourg/ICube).
62

Capsules hybrides à libération provoquée. / Hybrid capsules for an induced release

Baillot, Marion 16 December 2016 (has links)
L’encapsulation est une technique employée couramment par le milieu industriel, notamment dans le domaine du médical, de la parfumerie ou de la cosmétique. Afin de répondre aux attentes et de proposer des capsules modulables pour tous types d’applications, des capsules de type coeur-écorce ont été élaborées au cours de cette thèse. Elles sont obtenues à partir d’émulsion dont le coeur huileux est enrobé par une coque de silice, via la minéralisation de l’interface eau-huile. Les émulsions de Pickering, stabilisées par des particules colloïdales, sont particulièrement stables et intéressantes pour cette étude. Le but de cette thèse est de comprendre, dans un premier temps, les mécanismes fondamentaux impliqués dans le processus de fabrication. Cela a permis d’élaborer, par la suite, des matériaux hybrides complexes à différentes échelles, du micrométrique au nanométrique,mais également d’établir les mécanismes de libération par un stimulus externe. Enfin, une encapsulation maîtrisée permet d’allier stabilité au stockage et destruction rapide ou contrôlée à l’utilisation. Ainsi, par diverses méthodes définies dès la formulation de l’émulsion initiale, le contenu huileux des capsules peut être libéré de manière provoquée par une action mécanique ou par l’augmentation de la température (macroscopique ou local par hyperthermie magnétique). / Encapsulation is a technique used in the industry, in particular in the field of medical,perfumery or cosmetics. In order to meet the expectations and propose adaptable capsules for all types of applications, core-shell capsules type were developed during this thesis.There were based on emulsions science with an oily core coated by a silica shell,synthetized by sol-gel chemistry at the oil-water interface. Pickering emulsions, which are emulsions stabilized by colloidal particles, are particularly stable and interesting for this study. The aim of this thesis is to understand, at first, the fundamental mechanisms involved in the manufacturing process. This made it possible to develop complex hybrid materials at different scales, from micrometric to nanometric, but also to establish the releasing mechanisms by an external stimulus. Thanks to a controlled encapsulation, it is possible to combine stability (storage) and rapid or controlled destruction when used. Thus, by various method, defined from the formulation of the initial emulsion, the releasing of the oily contentcan be caused by mechanical action or by an temperature increased (macroscopically orlocally by magnetic hyperthermia).
63

Mémoire longue, volatilité et gestion de portefeuille / Long memory, volatility and portfolio management

Coulon, Jérôme 20 May 2009 (has links)
Cette thèse porte sur l’étude de la mémoire longue de la volatilité des rendements d’actions. Dans une première partie, nous apportons une interprétation de la mémoire longue en termes de comportement d’agents grâce à un modèle de volatilité à mémoire longue dont les paramètres sont reliés aux comportements hétérogènes des agents pouvant être rationnels ou à rationalité limitée. Nous déterminons de manière théorique les conditions nécessaires à l’obtention de mémoire longue. Puis nous calibrons notre modèle à partir des séries de volatilité réalisée journalière d’actions américaines de moyennes et grandes capitalisations et observons le changement de comportement des agents entre la période précédant l’éclatement de la bulle internet et celle qui la suit. La deuxième partie est consacrée à la prise en compte de la mémoire longue en gestion de portefeuille. Nous commençons par proposer un modèle de choix de portefeuille à volatilité stochastique dans lequel la dynamique de la log-volatilité est caractérisée par un processus d’Ornstein-Uhlenbeck. Nous montrons que l’augmentation du niveau d’incertitude sur la volatilité future induit une révision du plan de consommation et d’investissement. Puis dans un deuxième modèle, nous introduisons la mémoire longue grâce au mouvement brownien fractionnaire. Cela a pour conséquence de transposer le système économique d’un cadre markovien à un cadre non-markovien. Nous fournissons donc une nouvelle méthode de résolution fondée sur la technique de Monte Carlo. Puis, nous montrons toute l’importance de modéliser correctement la volatilité et mettons en garde le gérant de portefeuille contre les erreurs de spécification de modèle. / This PhD thesis is about the study of the long memory of the volatility of asset returns. In a first part, we bring an interpretation of long memory in terms of agents’ behavior through a long memory volatility model whose parameters are linked with the bounded rational agents’ heterogeneous behavior. We determine theoretically the necessary condition to get long memory. Then we calibrate our model from the daily realized volatility series of middle and large American capitalization stocks. Eventually, we observe the change in the agents’ behavior between the period before the internet bubble burst and the one after. The second part is devoted to the consideration of long memory in portfolio management. We start by suggesting a stochastic volatility portfolio model in which the dynamics of the log-volatility is characterized by an Ornstein-Uhlenbeck process. We show that when the uncertainty of the future volatility level increases, it induces the revision of the consumption and investment plan. Then in a second model, we introduce a long memory component by the use of a fractional Brownian motion. As a consequence, it transposes the economic system from a Markovian framework to a non-Markovian one. So we provide a new resolution method based on Monte Carlo technique. Then we show the high importance to well model the volatility and warn the portfolio manager against the misspecification errors of the model.
64

MR microscopy of neuronal tissue : acquisition acceleration, modelling and experimental validation of water diffusion / Microscopie du tissu neuronal par IRM : accélération des acquisitions, modélisation et validation expérimentale de la diffusion de l'eau

Nguyen, Van Khieu 10 April 2017 (has links)
La technique d’acquisition comprimée ou compressed sensing (CS) exploite la compressibilité de différents types d’images pour reconstruire des données sous-échantillonnées sans perte d’informations. Cette technique peut être appliquée à l’IRM pour réduire les temps d’acquisition. CS est basée sur trois composantes majeures : (1) la représentation parcimonieuse du signal dans un domaine de transformation, (2) des mesures incohérentes et (3) une méthode de reconstruction non-linéaire avec une contrainte de parcimonie. Dans la première résultats partie de cette thèse, nous proposons un nouveau modèle de sous-échantillonnage basé sur la théorie de l’agrégation limitée par la diffusion (DLA) et montrons qu’il est plus performant que la méthode de sous-échantillonnage aléatoire. Le modèle de sous-échantillonnage DLA a été utilisé pour implémenter la technique de CS pour l’imagerie haute résolution pondérée T2 et T1 sur un champ magnétique très intense (17.2T). Pour chacune des pondérations, le temps d’acquisition a été réduit de 50% tout en conservant la qualité des images en termes de résolution spatiale, rapport contraste sur bruit et quantification de l’intensité du signal. Les deux nouvelles séquences d’impulsions CS (csRARE et csFLASH) ont été implémentées sur le logiciel commercial ParaVision 5.1. La seconde résultats partie de la thèse est centrée sur l’étude de la dépendance en temps de la diffusivité dans le ganglion abdominal de l’Aplysia Californica. Le ganglion abdominal de l’aplysie a été choisi pour cette étude d’imagerie car l’IRM à haute résolution permet la description anatomique fine du réseau cellulaire (taille des neurones individuels et orientation des axones). Utiliser les tissus neuronaux de l’aplysie pour étudier la relation entre la structure cellulaire et le signal d’IRM de diffusion peut permettre de comprendre cette relation pour des organismes plus complexes. Le signal d’IRM de diffusion (IRMd) a été mesuré à différents temps de diffusion dans le ganglion abdominal et des simulations de la diffusion de l’eau dans des géométries obtenues à partir de la segmentation d’images haute résolution pondérées T2 et l’incorporation d’informations sur la structure cellulaire trouvées dans la littérature ont été réalisées. Pour comparer le signal d’IRMd dans des neurones composés d’une seule cellule avec le signal des simulations numériques, des cellules de grande taille ont été segmentées à partir d’images anatomiques pondérées T2. A l’intérieur des cellules, un noyau à forme irrégulière a été généré manuellement (environ 25-30% en fraction volumique). Les petites cellules ont été modélisées comme des petites sphères avec un petit noyau sphérique concentrique (environ 25% en fraction volumique). Le nerf a été modélisé en combinant des axones (cylindres) de différents diamètres en cohérence avec la littérature. Le signal numérique d’IRMd a été simulé en résolvant l’équation de Bloch-Torrey pour les domaines géométriques décris ci-dessus. En fittant le signal expérimental avec le signal simulé pour différents types de cellules comme les grandes cellules neuronales (diamètre entre 150 et 420 µm), des agrégats de petites cellules neuronales ayant la forme d’un sac (jusqu’à 400 cellule chez l’aplysie adulte dans chaque sac avec une taille cellulaire entre 40 et 100 µm de diamètre), des nerfs (groupes d’axones de forme cylindrique avec un diamètre de moins de 1 à 25 µm) pour une grande gamme de temps de diffusions, nous avons obtenu des estimations du coefficient de diffusion intrinsèque dans le noyau et le cytoplasme (pour les neurones) et le coefficient de diffusion intrinsèque dans les axones (pour les nerfs). Nous avons aussi évalué la pertinence d’utiliser une formule préexistante décrivant la dépendance en temps du coefficient de diffusion pour estimer la taille des cellules. / Compressed sensing (CS) exploits the compressibility of different types of images to reconstruct undersampled data without loss of information. The technique can be applied to MRI to reduce the acquisition times. The CS is based on three major components: (1) sparsity representation of the signal in some transform domain, (2) incoherent measurements, and (3) sparsity-constrained nonlinear reconstruction method. If the total number of points in the image is larger than four times the number of sparse coefficients, then the reconstruction of under sampled data is feasible. In the first results part of this thesis, we propose a new under sampling model based on the diffusion limited aggregation (DLA) theory and show that it performs better than the random variable under sampling method. The DLA under sampling model was used to implement the CS for T2-weighted and T1-weighted high resolution imaging at the ultra-high magnetic field (17.2T). In both cases, the acquisition time was reduced by 50% while maintaining the quality of the images in terms of spatial resolution, contrast to noise ratio, and signal intensity quantification. Both new CS pulse sequences (csRARE and csFLASH) were implemented in ParaVision 5.1 commercial software. The second results part of the thesis is focused on the study of the time-dependent diffusivity in the abdominal ganglion of Aplysia California. The Aplysia abdominal ganglion was chosen in this imaging study because high resolution MR imaging allows the fine anatomical description of the cellular network (size of individual neurons and orientation of axons). Using the Aplysia ganglia to study the relationship between the cellular structure and the diffusion MRI signal can shed light on this relationship for more complex organisms. We measured the dMRI signal at several diffusion times in the abdominal ganglion and performed simulations of water diffusion in geometries obtained after segmenting high resolution T2-weighted images and incorporating known information about the cellular structure from the literature. To match the dMRI signal in the single cell neurons with numerical simulations signal, the large cell outline was segmented from the anatomical T2 weighted image. Inside this cell shape, an irregularly shaped nucleus was manually generated (around 25-30% volume fraction). The small cells were modeled as small spheres with a smaller concentric spherical nucleus (around 25% volume fraction). The nerve was modeled by combining axons (cylinders) of different diameters consistent with the literature. The numerical dMRI signal can be simulated by solving Bloch-Torrey equation under the geometries domain described above. By fitting the experimental signal to the simulated signal for several types of cells such as: large cell neurons (diameter between 150 µm and 420 µm); cluster of small neuron cells gathered in the shape of a bag (up to 400 cells in adult Aplysia in each bag with cell size between 40 µm to 100 µm in diameter); and nerves (group of axons cylindrical shape diameter from less than 1 µm to 25 µm) at a wide range of diffusion times, we obtained estimates of the intrinsic diffusion coefficient in the nucleus and the cytoplasm (for cell neurons) and the intrinsic diffusion coefficient in the axons (for the nerves). We also evaluated the reliability of using an existing formula for the time-dependent diffusion coefficient to estimate cell size.
65

Le déploiement de la MAPROBU : les raisons d’un abandon

Faye, Djidiack Jean-François 01 1900 (has links)
Créée en 2002 en remplacement de l’OUA, l’Union africaine affiche l’ambition de trouver des solutions africaines aux problèmes africains en ajoutant l’article 4 dans son Acte constitutif. Cet article lui donne le droit de déployer une force militaire au sein d’un État membre pour protéger les civils lors de violations de droits de l’homme, de génocide ou de crimes contre l’humanité. Tandis que les conflits intraétatiques continuent de faire rage sur le continent africain, l’UA et ses États membres n’ont jamais autorisé — sans y renoncer — une intervention humanitaire contre l’un de ses membres. Ce mémoire vise à connaitre les raisons pour lesquelles les dirigeants africains ont renoncé à déployer une force militaire pour protéger les civils burundais en 2015, et ce, malgré le fait que l’UA l’a initialement recommandé quelques semaines plus tôt. En s’inspirant de la théorie réaliste des relations internationales, cette étude du conflit burundais de 2015 démontre que la non-intervention de l’UA est avant tout liée à un manque de volonté de la part des dirigeants africains qui ont privilégié leurs intérêts personnels ainsi que les intérêts économiques de leur pays au détriment de l’urgence humanitaire au Burundi. De plus, plusieurs dirigeants africains, qui ont un contentieux avec Paul Kagamé et qui voient le Burundi comme un contrepoids à l’influence rwandaise, se sont positionnés contre la MAPROBU pour léser le Rwanda. Ensuite, l’abandon de la MAPROBU s’explique aussi par le fait que le Conseil de Paix et de Sécurité est totalement dépendant de la volonté des États membres et ne dispose pas de l’autonomie institutionnelle nécessaire pour autoriser le déploiement des troupes de l’UA au Burundi. / Created in 2002 to replace the OAU, the African Union’s desire to find African solutions to African problems was demonstrated by the addition of Article 4 to its Constitutive Act, which gives the Union the authority to deploy a military force within a member state to protect civilians from human rights violations, genocide or crimes against humanity. While intrastate conflicts are still devastating the African continent, the AU has never authorized a humanitarian intervention against one of its members. This master’s thesis seeks to explain why the African leaders did not authorize the deployment of a military force to protect Burundian civilians in 2015, despite the fact that the AU had initially recommended it a few weeks earlier. Based on the realist approach in International Relations, this case study demonstrates that the decision not to intervene in Burundi is primarily due to a lack of commitment from African leaders who have prioritized their own interests as well as economic interests over the humanitarian urgency in Burundi. In addition, many African leaders, who see Paul Kagame as a rival, perceive Burundi as a counterweight to Rwanda’s influence. Therefore, their position against MAPROBU is also intended to undermine Rwanda. Secondly, the decision not to deploy MAPROBU could be explained by the fact that the Peace and Security Council (PSC) is totally dependent on the will of member states and does not have the necessary institutional autonomy to authorize the deployment of AU troops in Burundi.
66

Les nouvelles formes juridiques d'entreprise offertes aux professionnels québécois : incidences de la responsabilité limitée et de la multidisciplinarité entre comptables agréés et avocats

Viguié-Bilodeau, Mélanie 11 April 2018 (has links)
This paper discusses professional and civil liability regimes governing Québec's chartered accountants, regarding both the new business forms available to professionals since the reform of 2001 and the multidisciplinary practices phenomenon between chartered accountants and lawyers. Following a socio-historical portrait of the dawn and evolution of the accounting profession, the author presents the changes sustained by the profession that started in the seventies. These changes are the rationale underlying many legislative reforms in Western countries, allowing professionals to deliver their services to the public through business forms that permit a limited liability of non-at-fault partners. Since 2001, the Québec legislator authorises professionals to carry out their businesses through limited-liability partnerships (L.L.P.) and professional corporations. The use of these business forms generates outcomes that go beyond the field of professional law. The author studies three areas of these outcomes, the patrimonial, the organizational and the ethical ones, regarding both contractual and legal obligations of professionals and their firms. The author shows that the availability of limited liability and multidisciplinary practices notions is a milestone within the evolution of Quebec's professional domain, because of the novelty of these notions, as well as because of the interactions between these and several existing notions of civil law. After having explained these interactions, when a normative conflict arises, the author suggests interpretation to resolve it, with the aim of maintaining coherence between the new rules of professional law and existing notions of civil law. / Ce mémoire porte sur les régimes de responsabilité civile et professionnelle des comptables agréés québécois, examinés à la lumière des nouvelles formes juridiques d'entreprise disponibles depuis une réforme intervenue en 2001, ainsi que du phénomène de la multidisciplinante entre comptables agréés et avocats. Après une présentation sociohistorique de la genèse et de l'évolution de la profession comptable au Québec, l'auteure présente les mutations intervenues au sein de cette profession à partir des années 1970. Ces mutations entraînent des réformes dans plusieurs pays occidentaux, qui autorisent les professionnels à fournir leurs services au public par des formes juridiques d'entreprise qui permettent une limitation de la responsabilité personnelle, notamment des professionnels non fautifs. Depuis 2001, le législateur québécois autorise les professionnels à exploiter leurs entreprises grâce à la société en nom collectif à responsabilité limitée et à la société par actions. L'utilisation de ces deux formes juridiques d'entreprise a des incidences qui dépassent le champ du droit professionnel. L'auteure en étudie trois catégories, soit les incidences patrimoniales, organisationnelles et éthiques, tant à l'égard d'obligations contractuelles qu'extracontractuelles susceptibles d'incomber aux professionnels et à leurs cabinets. L'auteure montre que l'intégration des notions de responsabilité limitée et de multidisciplinarité constitue un événement marquant dans l'évolution du système professionnel québécois, tant en raison de la nouveauté de ces notions, qu'en raison des interactions qu'elles ont avec plusieurs sphères du droit commun. En plus d'identifier ces interactions, lorsqu'un conflit normatif en découle, l'auteure suggère des interprétations qui tendent à assurer une cohérence entre les nouvelles règles de droit professionnel et les notions de droit civil existantes.
67

Cytogénétique placentaire des retards de croissance intra-utérins : intérêts de la recherche des anomalies chromosomiques limitées au placenta et de l’estimation de la longueur télomérique placentaire / Cytogenetics of placenta in intrauterine growth restriction : interests of confined placental mosaicism and placental telomere length

Toutain, Jérôme 23 November 2012 (has links)
Ce travail de thèse se propose d’étudier le retard de croissance intra-utérin sous l’angle de la cytogénétique placentaire, avec deux approches distinctes et complémentaires. La première approche visera à réévaluer l’influence des anomalies chromosomiques limitées au placenta sur la croissance fœtale, car des études précédentes ont rapporté des résultats contradictoires à ce sujet. La première partie de ce travail permettra en outre d’étudier l’incidence et l’influence de la disomie uniparentale chez les fœtus issus des grossesses compliquées d’une anomalie chromosomique limitée au placenta. La deuxième approche de notre travail s’intéressera à la longueur de structures chromosomiques particulières, les télomères, au niveau placentaire. Il a récemment été décrit que la longueur des télomères des cellules placentaires était réduite au terme des grossesses compliquées d’un retard de croissance intra-utérin. La longueur télomérique placentaire n’a jamais été évaluée au cours de ces grossesses et pourrait potentiellement être utilisée comme biomarqueur placentaire du retard de croissance intra-utérin. La deuxième partie de ce travail nous permettra également d’évaluer le nombre de copies des régions chromosomiques portant les gènes codant pour les principales sous-unités du complexe enzymatique télomérase et de rechercher la présence d’agrégats télomériques au niveau placentaire en cas de retard de croissance intra-utérin. / This thesis proposes to study intrauterine growth restriction in terms of cytogenetics of placenta, with two distinct and complementary approaches. The first approach will be to reassess the influence of confined placental mosaicism on fetal growth, as previous studies have reported conflicting results on this issue. The first part of this work will also study the influence of fetal uniparental disomy in case of confined placental mosaicism. The second approach of our work will focus on the length of terminal chromosomal structures, telomeres, at the placental level. It has recently been reported that telomere length was reduced in placental cells collected at term in pregnancies complicated by intrauterine growth restriction. Placental telomere length has never been evaluated in ongoing pregnancies and it could potentially be used as a placental biomarker of intrauterine growth restriction. The second part of this work will also focus on the copy number of chromosomal regions carrying genes encoding the main subunits of the telomerase enzyme complex and will look for the presence of placental telomeric aggregates in case of intrauterine growth restriction.
68

Optimisation de la génération d'harmoniques d'ordre élevé et application à l'interférométrie UVX résolue en temps.

Hergott, Jean-François 17 September 2001 (has links) (PDF)
Ce travail de thèse est une contribution à l'étude du rayonnement UVX cohérent produit par génération des harmoniques d'ordre élevé d'une impulsion laser intense focalisée dans un gaz rare. <br />Dans une première partie, nous présentons une étude approfondie de l'optimisation du flux harmonique produit soit dans une fibre creuse soit dans un jet. Dans chacun des cas, nous déterminons les facteurs limitant l'émission : accord de phase, absorption, ionisation, défocalisation. La comparaison des profils d'émission avec les simulations démontre le rôle crucial de la phase du dipôle atomique pour la génération dans une fibre. L'optimisation dans un jet conduit à des efficacités de conversion allant de 10-5 à 50nm (1010 ph/imp) à 10-7 à 15nm (5.107 ph/imp). <br />Dans une deuxième partie, nous étudions la focalisation du rayonnement harmonique par une lentille de Bragg-Fresnel, qui permet une focalisation efficace hors axe, sans aberration. Nous mesurons pour l'harmonique 39 une tache focale de l'ordre de 2µm. Compte tenu du flux élevé et de la courte durée (femtoseconde) des harmoniques, des éclairements élevés dans l'UVX peuvent être atteints.<br />Finalement, nous présentons les premières expériences de diagnostic de plasma par interférométrie UVX utilisant le rayonnement harmonique. Une technique originale est développée à partir de 2 sources harmoniques mutuellement cohérentes séparées spatialement. L'analogue temporel de l'interférométrie spatiale, qui utilise 2 impulsions harmoniques séparées en temps, est également démontré. Cette interférométrie fréquentielle a permis le premier diagnostic UVX de l'évolution temporelle d'un plasma avec une résolution femtoseconde. Une extension du schéma de 2 à 4 impulsions permet de mesurer avec une sensibilité extrême un déphasage équivalent à une demi-période harmonique, soit des écarts temporels à l'échelle attoseconde (1as=10-18s).
69

Efficient cqi feedback resource utilisation for multi-user multi-carrier wireless systems. / Efficace utilisation des ressources de CQI Feedback pour les systèmes sans fil multi-utilisateur multi-porteuse

Awal, Mohammad abdul 26 October 2011 (has links)
La technologie OFDMA (Orthogonal frequency division multiple access) a été adoptée par les systèmes de télécommunications de 4ème génération (4G) comme technique de transmission et d'accès multiple pour ses performances supérieures en termes d'efficacité spectrale. Dans ce type de systèmes, l'adaptation dynamique du débit en fonction de la qualité du canal CQI (Channel Quality Indicator) constitue une problématique de recherche d'actualité qui attire l'attention de plusieurs acteurs académiques et industriels. Ce problème d'adaptation dynamique est encore plus complexe à gérer dans des environnements multi-utilisateurs hétérogènes et à ressources limitées tels que les systèmes OFDMA comme WiMAX Mobile et Long-term Evolution (LTE). Dans cette thèse, nous nous intéressons au problème d'allocation de ressources de l'information de feedback relative au CQI dans le cadre de systèmes OFDMA multi-porteuses multi-utilisateurs. Dans le but de réduire la charge (overhead) du feedback, nous proposons une méthode de prédiction du CQI basée sur l'exploitation de la corrélation temporelle de ce dernier et d'une solution inter-couches. L'objectif est de trouver des schémas d'allocation de ressources adaptatifs respectant les contraintes de qualité de service (QoS) applicatives.Nous proposons en premier lieu un algorithme de réduction de feedback PBF (Prediction Based Feedack) qui permet à la station de base (BS) à prédire certaines occurrences du CQI en se basant sur l'algorithme des moindres carrés récursif RLS (Recursive least-square). Les résultats de simulation montrent que l'outil de prédiction du CQI réduit sensiblement l'overhead du feedback et améliore par conséquent le débit de la liaison montante. Nous proposons, par la suite, une version opportuniste de PBF pour atténuer les éventuels effets de sur et sous estimations liées à l'algorithme de prédiction. Dans ce mécanisme, nous exploitons les informations inter-couches pour améliorer les performances des mécanismes de feedbacks périodiques dont PBF fait partie. L'approche opportuniste améliore sensiblement les performances du système pour les cas de mobilité élevée comparés aux cas de faible mobilité.Dans un second temps, nous proposons une plateforme (FEREP : feedback resource allocation and prediction) basée sur une approche inter-couches. Implémentée au niveau de la station BS, FEREP intègre les fonctionnalités de prédiction, d'adaptation dynamique du CQI et d'ordonnancement des demandes de feedback. Elle comporte trois modules. Le module FWA (feedback window adaptation) gère dynamiquement la fenêtre de feedbacks de chaque station mobile (MS) en se basant sur les messages ARQ (Automatic Repeat Request) reçus qui reflètent l'état actuel des canaux respectifs. Le module PBFS (priority-based feedback scheduling) effectue ensuite l'ordonnancement des feedbacks en tenant compte de la taille de la fenêtre de feedback, du profil de l'utilisateur sous la contrainte de la limitation des ressources globales du systèmes réservées au feedback. Afin de choisir les paramètres de transmission MCS (modulation and coding schemes), le module PBF (prediction based feedback) est utilisé pour les utilisateurs dont le feedabck n'a pas pu être ordonnancé dans la trame courante. Les résultats de simulation ont montré un gain significatif des performances de FREREP en comparaison à un mécanisme de référence, en particulier, sous de fortes contraintes de limitation des ressources du feedback.Le protocole ARQ génère un accusé de réception uniquement si l'utilisateur est sélectionné par l'ordonnanceur pour envoyer des données sur la liaison descendante. Dans le cas où la fréquence d'ordonnancement des utilisateurs sur le lien descendant est réduite, les messages ARQ s'en trouvent également réduits, dégradant par conséquent les performances de la plateforme FEREP proposée ci-dessus. En effet, dans ce cas la signalisation ARQ devient insuffisante pour adapter efficacement la fenêtre de feedback de chaque utilisateur. Pour pallier à ce problème, nous proposons l'algorithme DCRA (dynamic CQI resource allocation) qui utilise deux modes d'estimation de la fenêtre de feedback. Le premier est un mode hors-ligne basé sur des études empiriques permettant d'estimer la fenêtre moyenne optimale de feedback en utilisant les profils applicatif et de mobilité de l'utilisateur. Notre analyse de performance par simulation montre que la fenêtre de feedback peut être estimée en fonction de la classe de service des utilisateurs et de leurs profils de mobilité pour un environnement cellulaire donné. Le second mode de fonctionnement de DCRA effectue une adaptation dynamique de la fenêtre en temps réel dans le cas où la signalisation ARQ est suffisante. Une étude comparative avec les mécanismes DFS (deterministic feedback scheduling) et OFS (opportunistic feedback scheduling), a montré que DCRA arrive à réaliser un meilleur gain en ressources montantes grâce à la réduction de l'overhead des feedbacks, sans pour autant trop dégrader le débit descendant des utilisateurs. Du point de vue des utilisateurs, DCRA améliore les contraintes de QoS tels que le taux de perte de paquets et réduit la consommation énergétique des terminaux grâce à la réduction de feedback. / Orthogonal frequency division multiple access (OFDMA) technology has been adopted by 4th generation (a.k.a. 4G) telecommunication systems to achieve high system spectral efficiency. A crucial research issue is how to design adaptive channel quality indicator (CQI) feedback mechanisms so that the base station can use adaptive modulation and coding (AMC) techniques to adjust its data rate based on the channel condition. This problem is even more challenging in resource-limited and heterogeneous multiuser environments such as Mobile WiMAX, Long-term Evolution (LTE) networks. In this thesis, we consider CQI feedback resource allocation issue for multiuser multicarrier OFDMA systems. We exploit time-domain correlation for CQI prediction and cross-layer information to reduce feedback overhead for OFDMA systems. Our aim is find resource allocation schemes respecting the users QoS constraints.Our study begins with proposing prediction based feedback (PBF) which allows the base station to predict the CQI feedbacks based on recursive least-square (RLS) algorithm. We showed that it is useful to use channel prediction as a tool to reduce the feedback overhead and improve the uplink throughput. Then, we propose an opportunistic periodic feedback mechanism to mitigate the possible under and over estimation effects of CQI prediction. In this mechanism, we exploited the cross-layer information to enhance the performance of periodic feedback mechanisms. The opportunistic mechanism improves the system performance for high mobility cases compared to low mobility cases.For OFDMA systems with limited feedback resource, we propose an integrated cross-layer framework of feedback resource allocation and prediction (FEREP). The proposed framework, implemented at the BS side, is composed of three modules. The feedback window adaptation (FWA) module dynamically tunes the feedback window size for each mobile station based on the received ARQ (Automatic Repeat Request) messages that reflect the current channel condition. The priority-based feedback scheduling (PBFS) module then performs feedback allocation by taking into account the feedback window size, the user profile and the total system feedback budget. To choose adapted modulation and coding schemes (MCS), the prediction based feedback (PBF) module performs channel prediction by using recursive least square (RLS) algorithm for the user whose channel feedback has not been granted for schedule in current frame. Through extensive simulations, the proposed framework shows significant performance gain especially under stringent feedback budget constraint.ARQ protocol receives users acknowledgement only if the user is scheduled in the downlink. The reduction in users scheduling frequency also reduces the rate of ARQ hints and degrades the performance of above contributions. In this case, it is difficult to exploit the ARQ signal to adapt the feedback window for that user. To address this issue, we propose a cross-layer dynamic CQI resource allocation (DCRA) algorithm for multiuser multicarrier OFDMA systems. DCRA uses two modes for feedback window estimation. The first one is an off-line mode based on empirical studies to derive optimal average feedback window based on user application and mobility profile. Our experimental analysis shows that the feedback window can be averaged according to users service class and their mobility profile for a given cell environment. DCRA performs a realtime dynamic window adaptation if sufficient cross-layer hints are available from ARQ signaling. DCRA increases uplink resource by reducing feedback overhead without degrading downlink throughout significantly compared to deterministic feedback scheduling (DFS) and opportunistic feedback scheduling (OFS). From the users perspective, DCRA improves QoS constraints like packet loss rate and saves users power due to feedback reduction.
70

Essays in quantitative macroeconomics : assessment of structural models with financial and labor market frictions and policy implications / Essais de macroéconomie quantitative : évaluation des modèles structurels avec des frictions financières et du marché du travail et implications aux politiques macroéconomiques

Zhutova, Anastasia 21 November 2016 (has links)
Dans cette thèse, je fournis une évaluation empirique des relations entre les principales variables macroéconomiques qui animent le cycle économique. Nous traitons dans chacun des trois chapitres une question empirique en utilisant une approche économétrique bayésienne. Dans le premier chapitre nous étudions la contribution conditionnelle des taux de transition du marché du travail (le taux de retour en emploi et le taux de séparation). La littérature n'est pas parvenue à un consensus sur lequel des taux dominent la dynamique du marché du travail. Alors que Blanchard et Diamond (1990) ont conclu que la baisse de l'emploi en période de récession résulte d'un taux de séparation plus élevé, Shimer (2012), ainsi que Hall (2005), expliquent que les variations du chômage sont principalement expliqués par la variation du taux de retour en emploi. Notre résultat, obtenu grâce à une estimation d'un modèle VAR structurel, montre que l'importance de chaque taux de transition dépend des chocs qui ont frappé le marché du travail et de l'importance des institutions du marché du travail. Dans le second chapitre, nous évaluons l'impact de la réforme du marché du travail réalisée par le Président des États-Unis H. Hoover au début de la Grande Dépression. Nous montrons que ces politiques ont permis à l'économie américaine d'échapper à une grande spirale déflationniste. L'estimation d'un modèle DSGE à l'échelle agrégée, nous permet de comparer deux effets opposés que ces politiques impliquent : effet négatif dû à une baisse de l'emploi et l'effet positif dû aux anticipations inflationnistes qui sont expansionnistes quand l'économie est dans la trappe à liquidité. Les résultats dépendent de la règle de politique monétaire que nous supposons : le principe de Taylor ou le ciblage du niveau de prix. Le troisième chapitre est consacré à la relation entre le taux d'intérêt réel et l'activité économique qui dépend du nombre des participants aux marchés financiers. En utilisant un modèle DSGE et en permettant à la proportion de ces agents d'être stochastiques en suivant une chaîne de Markov, nous identifions les périodes historiques où la proportion était assez faible pour inverser la courbe IS. Pour le cas des États-Unis, nous montrons que cette relation est positive pendant la période de la Grande Inflation et pendant une courte période au début de la Grande Récession. Dans l'union européenne, la proportion de non­-participants a été augmentée pendant les années 2009-2015 mais seulement pour amplifier la corrélation négative entre le taux d'intérêt réel et la croissance de la production. / In this thesis I provide an empirical assessment of the relations between the main macroeconomic variables that drive the Business Cycle. We treat the empirical question that arises in each chapter using Bayesian estimation. In the first chapter we investigate conditional contribution of the labor market transition rates (the job finding rate and the separation rate) to unemployment. The literature did not have a consensus on which rate dominates in explaining the labor market dynamics. While Blanchard and Diamond (1990) concluded that the fall in employment during slumps resulted from a higher separation rate, Shimer (2012), as well as Hall (2005), explain unemployment variations by mainly the job finding rate. Our result, obtained through an estimation of a structural VAR model, shows that the importance of the transition rated depends on the shocks that hit an economy and hence the importance of the labor market institutions. In the second chapter, we assess the impact of the labor market reform of the US president H. Hoover implemented at the beginning of the Great Depression. We show that these policies prevented the US economy to enter a big deflationary spiral. Estimating a medium scale DSGE model, we also compare two opposite effects these policies lead to: negative effect through a fall in employment and positive effect though inflationary expectations which are expansionary when monetary policy is irresponsive to the rise in prices. The results depend on the monetary policy rule we assume: The Taylor principle or price level targeting. The third chapter is devoted to the relation between the real interest rate and the economic activity which depends on the number of asset market participants. Using a DSGE model and allowing to the proportion of these agents to be stochastic and to follow a Markov chain, we identify the historical sub-periods where this proportion was low enough to reverse the IS curve. For the US case, we report the studied relation to be positive during the Great Inflation period and for a short period at the edge of the Great Recession. In the EA, the proportion of non-participants has been increased during 2009-2015, but only to amplify the negative correlation between the real interest rate and output growth.

Page generated in 0.0475 seconds