• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 95
  • 29
  • 1
  • 1
  • Tagged with
  • 298
  • 131
  • 65
  • 53
  • 48
  • 48
  • 37
  • 37
  • 36
  • 31
  • 31
  • 29
  • 29
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Optimisation et caractérisation du couplage traction / torsion d'un stratifié pour le vrillage passif d'une pale / Optimizationand characterization of extension / wist coupling in laminate in order to passively twist a blade

Reveillon, Damien 17 July 2013 (has links)
L'optimisation de la forme des pales en fonction des phases de vol constitue un levier puissant dans ladémarche d'amélioration des performances des hélicoptères et de minimisation de leurs impactsenvironnementaux. Cette thèse propose l'étude et la caractérisation d'un concept permettant, grâce àl'utilisation d'un actionneur passif, de contrôler le vrillage d'une pale d'hélicoptère, en vol, en fonctionde la vitesse de rotation. L'actionneur retenu pour tordre une pale rigide est une plaque compositestratifiée munie d'un couplage traction/torsion et intégrée au sein de la pale. Les travaux développés ontpermis de démontrer la faisabilité de ce concept à l'échelle d'un prototype de partie courante de pale. Enpremier lieu, et ce afin de concevoir une architecture de profil adaptée à ce type de plaque, un modèleanalytique a été développé pour relier les caractéristiques des plaques composites à leur vrillage soussollicitations statique et dynamique. Une formulation simple de la réponse en vrillage a permisd'optimiser les séquencements de ces plaques dans l'objectif de maximiser le couplage en minimisant lesdéformations résiduelles liées au procédé de fabrication. Les plaques optimisées et fabriquées ontensuite été caractérisées sous traction quasi-statique uniforme puis sur un banc rotatif. Plusieurstechniques expérimentales ont été développées dans le but de quantifier le vrillage. Ce travail a conduità l'insertion d'une plaque épaisse dans un profil de pale. Sous un chargement statique, les tronçons ontexposé un vrillage de l'ordre de 2 °.m-1. Ces multiples expériences et les différentes simulationsréalisées permettent d'envisager des essais en soufflerie sur ces prototypes de pales. / Blade morphing optimization during a flight provides a powerful lever to improve helicoptersperformance and reduce their fossil based energy consumption. This PhD thesis examines a newconcept of passive blade twist controlled by the rotation speed. One of the most suitable actuator able totwist a stiff blade is an integrated laminate with extension/twist coupling. Developed work proves thefeasibility of this assembly at a laboratory scale. In a first stage, an analytical model was developed toestimate the twist behaviour of a laminate subjected to static and dynamic loads. This effectivecalculation of the twist response was used to optimize the stacking sequence in order to improve thecoupling and minimize residual stresses due to the manufacturing process. Some optimized plates havebeen manufactured and characterized using uniform tensile test and a rotative bench. Severalmeasurement methods have been developed to quantify twist. This study led to the integration of a thicklaminate in a blade airfoil profile. Under quasi-static axial loading, these blade sections have shownapproximately 2 °.m-1 in twist. Results from experiments and models make it possible to expect windtunnel tests on these adaptive twist blades.
172

Reference memory, working memory and adaptive forgetting : a comparative study in rats / Mémoire de référence, mémoire de travail et oubli adaptatif : une étude comparative chez le rat

Joseph, Mickael 12 December 2014 (has links)
Depuis de nombreuses années, les scientifiques ont étudié les bases neurales de la mémoire. Cependant, une question clé demeure: comment le cerveau distingue t'il les informations suffisamment importantes pour être consolidées en mémoire à long terme des informations stockées de manière temporaire en mémoire à court-terme/mémoire de travail, et qui doivent être effacées afin de ne pas saturer nos ressources cognitives. Contrairement à l'opinion populaire qui considère l'oubli comme nuisible à notre mémoire, de nombreux travaux suggèrent que l'oubli est un processus adaptatif essentiel permettant le filtrage des informations non-essentielles qu'on peut stocker de manière temporaire. Étonnamment, on connaît peu de choses des bases cellulaires et moléculaires de cet oubli adaptatif. Le travail présenté dans cette thèse vise à déterminer les bases de cette forme d'oubli adaptatif, en particulier de celui nécessaire au traitement des informations en mémoire de travail. Avec cette thèse, nous avons ainsi montré que le gyrus denté est une structure clé responsable du traitement des informations non pertinentes en mémoire, un processus essentiel qui permet une utilisation optimale de nos ressources cognitives. Nous pensons que ces travaux nous aident à mieux comprendre comment le cerveau gère les interférences, mais également à identifier les mécanismes responsables de l'oubli « utile » d'informations / For many years, scientists have been investigating the neural bases of memory. However, a key question remains unanswered: how does the brain distinguish information important enough to be consolidated into long-term memory from information required only temporarily, and that needs to be cleared away for not saturating our cognitive resources. In contrast to the popular view considering forgetting as deleterious to our ability to remember, forgetting might be an essential adaptive process allowing the filtering of non-essential information. Surprisingly, very little is known on the cellular and molecular bases of adaptive forgetting. The work presented in this thesis aims to find a way to determine such bases of adaptive forgetting, in particular in the context of Working Memory processing. With this thesis, we thus showed that the dentate gyrus is a critical node in processing the forgetting of irrelevant information, an essential process allowing optimal use of cognitive resources. Our work sheds light not only on the question of how the brain responds to interferences, but also on the mechanisms of "forgetting" what should be forgotten
173

Assistance visuelle des malvoyants par traitement d’images adaptatif / Visual assistance of visual impaired people by adaptive image processing

Froissard, Benoit 27 February 2014 (has links)
Cette thèse s’inscrit dans le cadre de l’analyse des besoins de personnes malvoyantes dans le but de développer de nouvelles solutions d’assistance visuelle en utilisant le principe de réalité augmentée. Le principal objectif de ces travaux était le développement d’un dispositif d’assistance visuelle pour faciliter la mobilité de personnes malvoyantes grâce à un algorithme qui en temps réel adapte sa réponse en fonction des besoins de l’utilisateur et de la situation dans laquelle il évolue. Le premier postulat de cette thèse est d’utiliser l’acuité résiduelle fonctionnelle des malvoyants afin de leur permettre de percevoir un certain nombre d’informations. Le second postulat est d’utiliser les seules informations pertinentes, utiles à un malvoyant, afin d’améliorer sa perception du monde dans lequel il évolue. Le premier axe de recherche a consisté à analyser les besoins des malvoyants afin de recenser, les indices visuels utiles à rehausser afin d’améliorer la perception des malvoyants. Cette étude a été réalisée en immersion et une enquête précise a été menée auprès de malvoyants. Cette étude permet de mieux comprendre les besoins des malvoyants, les méthodes qu’ils utilisent ainsi que leurs usages des dispositifs actuels. Le deuxième axe de recherche a consisté à concevoir et à mettre en oeuvre un algorithme de traitement d’images répondant aux besoins identifiés. Un outil interactif a été développé qui permet de sélectionner la quantité de contours en fonction de la situation. Ce détecteur de contour optimise sa détection afin d’obtenir des contours plus exploitables pour les malvoyants, comparés aux résultats des autres méthodes de l’état de l’art. Cet outil a été testé et validé auprès d’une population donnée de personnes malvoyantes. Ces tests réalisés sur écran ont démontré que les contours constituent des indices visuels très importants qui peuvent être d’une grande aide dans l’analyse d’une scène. Le troisième axe de travail a consisté au développement d’un système de réalité augmentée permettant d’utiliser ce détecteur de contours dans un contexte de mobilité. L’analyse des besoins des malvoyants vis-à-vis d’un tel dispositif nous a permis de définir les caractéristiques indispensables pour le système de calcul, la caméra et le dispositif d’affichage. Concernant le système d’affichage, l’analyse des besoins des malvoyants en termes de profil, de couleur, de largeur des contours, nous a permis de définir les paramètres nécessaires pour un affichage qui répond à ces besoins. Il a également été pris en compte dans les développements les paramètres physiologiques de chaque observateur afin que les images affichées soient visuellement confortables / This thesis was done in the context of visual impaired needs analysis with the goal of new augmented reality visual assistance device development. The main goal of this work was the development of assistive device for mobility of visual impaired people by the use real-time image processing algorithm which take into account user needs and the context. The first postulate is the use of residual visual acuity of visual impaired people to allow them to see more information. The second postulate is the use only most useful information for visual impaired people for the understanding of the situation where are they. The first research axis was an analysis of needs of visual impaired to identify visual cues, which one we need to enhance to help them. To do this, I have done an immersive stage into a re-adaptation clinic for visually impaired. I have also done a questionnaire to identify and understand how current products answers partially to their needs. The second research axis was the development of a new image processing to answer identified needs. I have developed an interactive tools that allow the user to select the amount of edges for each situation, context. This detector optimizes its result to provide better results than others state of the art evaluated methods. This tool was evaluated and validated during visual test by visual impaired people. We have demonstrated that edges are one of the most important visual cues for visual impaired people to analyze a scene. The third research axis was the development of the augmented reality system to use my tool in a context of mobility. To do this, I have analyzed the needs of visual impaired people for this type of devices. I have also defined main requirements of the desired device for the processing unit, the camera and the display module. For display module, I have analyzed physiologic needs of visually impaired, in terms of profile, colors, and thickness to answer their needs. I have also developed an image generation model which takes into account many physiologic parameters of each observer to create visually comfortable images
174

Caching and prefetching for efficient video services in mobile networks / Caching et prefetching pour une livraison plus efficace des contenus vidéo dans les réseaux mobiles

Gouta, Ali 15 January 2015 (has links)
Les réseaux cellulaires ont connu une croissance phénoménale du trafic alimentée par les nouvelles technologies d'accès cellulaire. Cette croissance est en grande partie tirée par l'émergence du trafic HTTP adaptatif streaming (HAS) comme une nouvelle technologie de diffusion des contenus vidéo. Le principe du HAS est de rendre disponible plusieurs qualités de la même vidéo en ligne et que les clients choisissent la meilleure qualité qui correspond à leur bande passante. Chaque niveau d'encodage est segmenté en des chunks, qui dont la durée varie de 2 à 10 secondes. L'émergence du HAS a introduit des nouvelles contraintes sur les systèmes de livraison des contenus vidéo en particulier sur les systèmes de caches. Dans ce contexte, nous menons une analyse détaillée des données du trafic HAS collecté en France et fournie par le plus grand opérateur de téléphonie mobile du pays. Tout d'abord, nous analysons et modélisons le comportement des clients qui demandent des contenus VoD et live. Ces analyses nous ont permis d'identifier les facteurs qui impactent la performance des systèmes de cache et de proposer un nouveau algorithme de remplacement de contenus qu'on appelle WA-LRU. WA-LRU exploite la localité temporelle des chunks dans le contenu et la connaissance de la charge du trafic dans le réseau afin d'améliorer la performance du cache. Ensuite, nous analysons et modélisons la logique d'adaptation entre les qualités vidéo basés sur des observations empiriques. Nous montrons que le changement fréquent entre les encodages réduit considérablement la performance des systèmes de cache. Dans ce contexte, nous présentons CF-DASH une implémentation libre d'un player DASH qui vise à réduire les changements fréquents entre qualités, assure une bonne QoE des clients et améliore la performance des systèmes de caches. La deuxième partie de la thèse est dédié à la conception, simulation et implémentation d'une solution de préchargement des contenus vidéo sur terminaux mobiles. Nous concevons un système que nous appelons «Central Predictor System (CPsys)" qui prédit le comportement des clients mobiles et leurs consommations des vidéos. Nous évaluons CPSys avec des traces de trafic réel. Enfin, nous développons une preuve de concept de notre solution de préchargement. / Recently, cellular networks have witnessed a phenomenal growth of traffic fueled by new high speed broadband cellular access technologies. This growth is in large part driven by the emergence of the HTTP Adaptive Streaming (HAS) as a new video delivery method. In HAS, several qualities of the same videos are made available in the network so that clients can choose the quality that best fits their bandwidth capacity. This strongly impacts the viewing pattern of the clients, their switching behavior between video qualities, and thus beyond on content delivery systems. In this context, we provide an analysis of a real HAS dataset collected in France and provided by the largest French mobile operator. Firstly, we analyze and model the viewing patterns of VoD and live streaming HAS sessions and we propose a new cache replacement strategy, named WA-LRU. WA-LRU leverages the time locality of video segments within the HAS content. We show that WA-LRU improves the performance of the cache. Second, we analyze and model the adaptation logic between the video qualities based on empirical observations. We show that high switching behaviors lead to sub optimal caching performance, since several versions of the same content compete to be cached. In this context we investigate the benefits of a Cache Friendly HAS system (CF-DASH) which aims at improving the caching efficiency in mobile networks and to sustain the quality of experience of mobile clients. Third, we investigate the mobile video prefetching opportunities. We show that CPSys can achieve high performance as regards prediction correctness and network utilization efficiency. We further show that CPSys outperforms other prefetching schemes from the state of the art. At the end, we provide a proof-of-concept implementation of our prefetching system.
175

Analyse de stabilité pour la reconfiguration de contrôleurs dans des véhicules autonomes / Stability analysis for controller switching in autonomous vehicles

Navas Matos, Francisco 28 November 2018 (has links)
Les avantages des véhicules autonomes sont formidables, mais le chemin vers une vraie autonomie sera long et semé d’incertitudes. La recherche de ces dernières années s’est basée sur des systèmes multi-capteurs capables de percevoir l’environnement dans lequel le véhicule est conduit. Ces systèmes deviennent plus complexes quand on contrôle le véhicule autonome, différents systèmes de contrôle sont activés dépendant de la décision du système multi-capteurs. Chacun de ces systèmes suit des critères de performance et de stabilité lors de leur conception. Cependant, ils doivent fonctionner ensemble, garantissant une stabilité et étant capable de se charger des changements dynamiques, structuraux et environnementaux. Cette thèse explore la paramétrisation Youla-Kucera (YK) dans des systèmes dynamiques comme les voitures, en insistant sur la stabilité quand la dynamique change, ou que le trafic impose une reconfiguration du contrôleur. Concentrons-nous sur l’obtention de résultats de simulation et expérimentaux en relation avec le "Cooperative Adaptive Cruise Control" (CACC), dans le but, non pas d’utiliser, ici, pour la première fois la paramétrisation YK dans le domaine des systèmes de transport intelligents (STI), mais d’améliorer l’état de l’art en CACC aussi. Des résultats de reconfiguration stable de contrôleurs sont donnés quand la communication avec le véhicule précédent n’est plus disponible, en cas de manœuvre d’entrées/sorties ou lorsqu’ils sont entourés de véhicules aux dynamiques différentes. Ceci démontrant l’adaptabilité, la stabilité et l’implémentation réelle de la paramétrisation YK comme structure générale de contrôle pour les véhicules autonomes. / Benefits of autonomous vehicles are genuinely exciting, but the route to true autonomy in transportation will likely be long and full of uncertainty. Research on the last years is on the development of multi-sensor systems able to perceive the environment in which the vehicle is driving in. These systems increase complexity when controlling an autonomous vehicle, as different control systems are activated depending on the multi-sensor decision system. Each of these systems follows performance and stability criteria for its design, but they all must work together, providing stability guarantees and being able to handle dynamics, structural and environmental changes. This thesis explores the Youla-Kucera (YK) parameterization in dynamics systems such as vehicles, with special emphasis on stability when some dynamics change or the traffic situation demands controller reconfiguration. Focus is in obtaining simulation and experimental results related to Cooperative Adaptive Cruise Control (CACC), with the aim not only of using for the very first time YK parameterization in the Intelligent Transportation Systems (ITS) domain, but improving CACC state-of-the art. Stable controller reconfiguration results are given when non-available communication link with the preceding vehicle, cut-in/out maneuvers or surrounding vehicles with different dynamics, proving adapability, stability and possible real implementation of the YK parameterization as general control framework for autonomous vehicles.
176

Apprentissage ciblé et Big Data : contribution à la réconciliation de l'estimation adaptative et de l’inférence statistique / Targeted learning in Big Data : bridging data-adaptive estimation and statistical inference

Zheng, Wenjing 21 July 2016 (has links)
Cette thèse porte sur le développement de méthodes semi-paramétriques robustes pour l'inférence de paramètres complexes émergeant à l'interface de l'inférence causale et la biostatistique. Ses motivations sont les applications à la recherche épidémiologique et médicale à l'ère des Big Data. Nous abordons plus particulièrement deux défis statistiques pour réconcilier, dans chaque contexte, estimation adaptative et inférence statistique. Le premier défi concerne la maximisation de l'information tirée d'essais contrôlés randomisés (ECRs) grâce à la conception d'essais adaptatifs. Nous présentons un cadre théorique pour la construction et l'analyse d'ECRs groupes-séquentiels, réponses-adaptatifs et ajustés aux covariable (traduction de l'expression anglaise « group-sequential, response-adaptive, covariate-adjusted », d'où l'acronyme CARA) qui permettent le recours à des procédures adaptatives d'estimation à la fois pour la construction dynamique des schémas de randomisation et pour l'estimation du modèle de réponse conditionnelle. Ce cadre enrichit la littérature existante sur les ECRs CARA notamment parce que l'estimation des effets est garantie robuste même lorsque les modèles sur lesquels s'appuient les procédures adaptatives d'estimation sont mal spécificiés. Le second défi concerne la mise au point et l'étude asymptotique d'une procédure inférentielle semi-paramétrique avec estimation adaptative des paramètres de nuisance. A titre d'exemple, nous choisissons comme paramètre d'intérêt la différence des risques marginaux pour un traitement binaire. Nous proposons une version cross-validée du principe d'inférence par minimisation ciblée de pertes (« Cross-validated Targeted Mimum Loss Estimation » en anglais, d'où l'acronyme CV-TMLE) qui, comme son nom le suggère, marie la procédure TMLE classique et le principe de la validation croisée. L'estimateur CV-TMLE ainsi élaboré hérite de la propriété typique de double-robustesse et aussi des propriétés d'efficacité du TMLE classique. De façon remarquable, le CV-TMLE est linéairement asymptotique sous des conditions minimales, sans recourir aux conditions de type Donsker. / This dissertation focuses on developing robust semiparametric methods for complex parameters that emerge at the interface of causal inference and biostatistics, with applications to epidemiological and medical research in the era of Big Data. Specifically, we address two statistical challenges that arise in bridging the disconnect between data-adaptive estimation and statistical inference. The first challenge arises in maximizing information learned from Randomized Control Trials (RCT) through the use of adaptive trial designs. We present a framework to construct and analyze group sequential covariate-adjusted response-adaptive (CARA) RCTs that admits the use of data-adaptive approaches in constructing the randomization schemes and in estimating the conditional response model. This framework adds to the existing literature on CARA RCTs by allowing flexible options in both their design and analysis and by providing robust effect estimates even under model mis-specifications. The second challenge arises from obtaining a Central Limit Theorem when data-adaptive estimation is used to estimate the nuisance parameters. We consider as target parameter of interest the marginal risk difference of the outcome under a binary treatment, and propose a Cross-validated Targeted Minimum Loss Estimator (TMLE), which augments the classical TMLE with a sample-splitting procedure. The proposed Cross-Validated TMLE (CV-TMLE) inherits the double robustness properties and efficiency properties of the classical TMLE , and achieves asymptotic linearity at minimal conditions by avoiding the Donsker class condition.
177

Concentration et compression sur alphabets infinis, temps de mélange de marches aléatoires sur des graphes aléatoires / Concentration and compression over infinite alphabets, mixing times of random walks on random graphs

Ben-Hamou, Anna 15 September 2016 (has links)
Ce document rassemble les travaux effectués durant mes années de thèse. Je commence par une présentation concise des résultats principaux, puis viennent trois parties relativement indépendantes.Dans la première partie, je considère des problèmes d'inférence statistique sur un échantillon i.i.d. issu d'une loi inconnue à support dénombrable. Le premier chapitre est consacré aux propriétés de concentration du profil de l'échantillon et de la masse manquante. Il s'agit d'un travail commun avec Stéphane Boucheron et Mesrob Ohannessian. Après avoir obtenu des bornes sur les variances, nous établissons des inégalités de concentration de type Bernstein, et exhibons un vaste domaine de lois pour lesquelles le facteur de variance dans ces inégalités est tendu. Le deuxième chapitre présente un travail en cours avec Stéphane Boucheron et Elisabeth Gassiat, concernant le problème de la compression universelle adaptative d'un tel échantillon. Nous établissons des bornes sur la redondance minimax des classes enveloppes, et construisons un code quasi-adaptatif sur la collection des classes définies par une enveloppe à variation régulière. Dans la deuxième partie, je m'intéresse à des marches aléatoires sur des graphes aléatoires à degrés precrits. Je présente d'abord un résultat obtenu avec Justin Salez, établissant le phénomène de cutoff pour la marche sans rebroussement. Sous certaines hypothèses sur les degrés, nous déterminons précisément le temps de mélange, la fenêtre du cutoff, et montrons que le profil de la distance à l'équilibre converge vers la fonction de queue gaussienne. Puis je m'intéresse à la comparaison des temps de mélange de la marche simple et de la marche sans rebroussement. Enfin, la troisième partie est consacrée aux propriétés de concentration de tirages pondérés sans remise et correspond à un travail commun avec Yuval Peres et Justin Salez. / This document presents the problems I have been interested in during my PhD thesis. I begin with a concise presentation of the main results, followed by three relatively independent parts. In the first part, I consider statistical inference problems on an i.i.d. sample from an unknown distribution over a countable alphabet. The first chapter is devoted to the concentration properties of the sample's profile and of the missing mass. This is a joint work with Stéphane Boucheron and Mesrob Ohannessian. After obtaining bounds on variances, we establish Bernstein-type concentration inequalities and exhibit a vast domain of sampling distributions for which the variance factor in these inequalities is tight. The second chapter presents a work in progress with Stéphane Boucheron and Elisabeth Gassiat, on the problem of universal adaptive compression over countable alphabets. We give bounds on the minimax redundancy of envelope classes, and construct a quasi-adaptive code on the collection of classes defined by a regularly varying envelope. In the second part, I consider random walks on random graphs with prescribed degrees. I first present a result obtained with Justin Salez, establishing the cutoff phenomenon for non-backtracking random walks. Under certain degree assumptions, we precisely determine the mixing time, the cutoff window, and show that the profile of the distance to equilibrium converges to the Gaussian tail function. Then I consider the problem of comparing the mixing times of the simple and non-backtracking random walks. The third part is devoted to the concentration properties of weighted sampling without replacement and corresponds to a joint work with Yuval Peres and Justin Salez.
178

Contributions à la mise au point de méthodes adaptatives de reproduction de champs sonores multi-zone pour les auditeurs en mouvement : Sound zones pour auditeurs en mouvement / Contributions to the development of adaptive methods for the reproduction of multizone sound fields for moving listeners : Sound zones for moving listeners

Roussel, Georges 03 July 2019 (has links)
Le nombre croissant d'appareils de diffusion de contenus audio pose le problème de partager le même espace physique sans partager lemême espace sonore. Les Sound Zones rendent possible la reproduction de programmes audio indépendants et spatialement séparés, àpartir d'un ensemble de haut-parleurs et de méthodes de reproduction de champs sonores. Le problème est alors décomposé en deuxzones : la Bright zone, où le contenu doit être reproduit et la Dark zone, où il doit être annulé. De nombreuses méthodes existent pourrésoudre ce problème, mais la plupart ne traite que le cas d'auditeurs en position statique. Elles s'appuient sur la résolution directe desméthodes d'optimisation adaptative, telle que la méthode de Pressure Matching (PM). Or, pour des utilisateurs en mouvement, cesméthodes ont un coût de calcul trop élevé, rendant impossible leur application à un problème dynamique. Le but de cette thèse est dedévelopper une solution présentant une complexité compatible avec un contrôle dynamique des Sound Zones, tout en conservant lesperformances des méthodes conventionnelles. Sous l'hypothèse que les déplacements sont lents, une résolution itérative du problème PMest proposée et évaluée. Les algorithmes LMS, NLMS et APA sont comparés sur la base de simulations en champ libre. La méthode LMSs'avère la plus avantageuse en termes de complexité, mais elle souffre d'une erreur de reproduction. Un effet mémoire limitant la réactivitédes algorithmes est aussi mis en évidence. Il est corrigé en implémentant une variante introduisant un facteur d'oubli (Variable LeakyLMS ou VLLMS). / The growing number of audio devices raises the problem of sharing the same physical space without sharing the same sound space. SoundZones make it possible to play independent and spatially separated audio programs by loudspeaker array in combination with sound fieldreproduction methods. The problem is then split into two zones: the Bright zone, where the audio content must be reproduced and theDark zone, where it must be cancelled. There are many methods available to solve this problem, but most only deal with auditors in astatic position. They are based on the direct resolution of adaptive optimization methods, such as the Pressure Matching (PM) method.However, for moving users, these methods have a too high computation cost, making it impossible to apply them to a dynamic problem.The aim of this thesis is to develop a solution offering a level of complexity compatible with a dynamic control of Sound Zones, whilemaintening the performance of conventional methods. Under the assumption that displacements are slow, an iterative resolution of the PMproblem is proposed and assessed. The LMS, NLMS and APA algorithms are compared on the basis of free field simulations. The LMSmethod is the most advantageous in terms of complexity, but it suffers from a reproduction error. A memory effect limiting the reactivityof the algorithms is also highlighted. It is corrected by implementing a leaky variant (Variable Leaky LMS or VLLMS) introducing aforgetting factor.
179

Efficient ressources management in a ditributed computer system, modeled as a dynamic complex system / La gestion efficace des ressources d'un système informatique distribué, modélisé comme un système complexe dynamique

Meslmawy, Mahdi Abed Salman 12 October 2015 (has links)
Les grilles et les clouds sont deux types aujourd'hui largement répandus de systèmes informatiques distribués (en anglais DCS). Ces DCS sont des systèmes complexes au sens où leur comportement global émergent résulte de l'interaction décentralisée de ses composants, et n'est pas guidée directement de manière centralisée. Dans notre étude, nous présentons un modèle de système complexe qui gère de manière la plus efficace possible les ressources d'un DCS. Les entités d'un DCS réagissent à l'instabilité du système et s'ajustent aux conditions environnementales pour optimiser la performance du système. La structure des réseaux d'interaction qui permettent un accès rapide et sécurisé aux ressources disponibles est étudiée, et des améliorations proposées. / Grids and clouds are types of currently widely known distributed computing systems or DCSs. DCSs are complex systems in the sense that their emergent global behavior results from decentralized interaction of its parts and is not guided directly from a central point. In our study, we present a complex system model that efficiently manages the ressources of a DCS. The entities of the DCS react to system instability and adjust their environmental condtions for optimizing system performance. The structure of the interaction networks that allow fast and reliable access to available resources is studied and improvements ar proposed.
180

Développement d'une méthode numérique multi-échelle et multi-approche appliquée à l'atomisation / Development of a multi-approach and multi-scale numerical method applied to atomization

Dabonneville, Felix 20 June 2018 (has links)
L’objet de cette thèse a été de développer une méthode numérique multi-approche et multiéchelle appliquée à la simulation d’écoulements diphasiques de fluides non miscibles, incompressibles et isothermiques et plus particulièrement à l’atomisation primaire. Cette méthode repose sur une approche couplée entre un maillage local raffiné et un maillage global plus large. Le couplage est explicite avec raffinement en temps, c’est-à-dire que chaque domaine évolue selon son propre pas de temps. Afin de prendre en compte les différentes échelles en temps et en espace dans le processus d’atomisation, cette méthode numérique couple deux méthodes numériques diphasiques différentes : une méthode de capture de l’interface dans le domaine local raffiné près de l’injecteur et une méthode de sous-maille dans le domaine global grossier et la région du spray dispersé. Le code développé et parallélisé dans le logiciel OpenFOAMR s’avère capable de réduire de manière significative le temps de calcul d’une simulation aux grandes échelles de l’atomisation dans un injecteur coaxial, tout en prédisant de manière fiable les données expérimentales. / The purpose of this work has been to develop a multi-approach and multi-scale numerical method applied to the simulation of two-phase flows involving non miscible, incompressible and isothermal fluids, and more specifically primary atomization. This method is based on a coupled approach between a refined local mesh and a coarser global mesh. The coupling is explicit with refinement in time, i.e. each domain evolves following its own time-step. In order to account for the different scales in space and time of the atomization process, this numerical method couples two different two-phase numerical methods: an interface capturing method in the refined local domain near the injector and a sub-grid method in the coarser global domain in the dispersed spray region. The code has been developed and parallelized in the OpenFOAMR software. It is able to reduce significantly the computational cost of a large eddy simulation of a coaxial atomization, while predicting with accuracy the experimental data.

Page generated in 0.0503 seconds