Spelling suggestions: "subject:"adaptatif"" "subject:"adaptation""
131 |
Techniques adaptatives pour la gestion de l'énergie dans les réseaux capteurs sans filAlam, Muhammad Mahtab 26 February 2013 (has links) (PDF)
De plus en plus d'objets électroniques nomades incorporent à la fois des capacités de traitement, de contrôle et un ou plusieurs émetteur-récepteur radios. Les objets, lorsqu'ils communiquent entre eux, forment des réseaux de capteurs sans l (WSN). Leur point commun est qu'ils doivent fonctionner aussi longtemps que possible sans avoir à remplacer ou recharger les batteries. Par conséquent, la consommation d'énergie est la principale contrainte à prendre en considération dans l'élaboration de ces articles. Les recherches sur l'optimisation de l'énergie sont nombreuses, et sont appliquées à tous les niveaux de la conception. Dans cette thèse, nous proposons des techniques d'optimisation au niveau algorithmique visant une réduction de l'énergie consommée. Dans ce contexte, tout d'abord, nous avons proposé un modèle énergétique hybride pragmatique et précis pour les WSN. Ce modèle prend en compte les différents scénarios qui se produisent pendant la communication et évalue leur consommation d'énergie en distinguant composantes logicielles et matérielles. Le modèle présenté est une combinaison d'approche analytique et de mesures en temps réel. La validation du modèle montre que l'erreur relative est de 1 à 8 pour cent. Dans la deuxième partie de la thèse nous nous sommes concentrés sur le contrôle d'accès au medium (MAC). La couche MAC joue un rôle essentiel dans la gestion de l'énergie dans les réseaux de capteurs, car l'activité de l'émetteur-récepteur radio (composante la plus gourmande en énergie) est contrôlée par la couche MAC. Par ailleurs, l'état d'écoute " idle " se trouve être l'état dans lequel s'opère un gaspillage énorme d'énergie dans la plupart des protocoles MAC. À ce sujet, nous proposons un nouveau protocole MAC dynamique (TAD-MAC) efficace en énergie avec une connaissance à priori du trafic courant. Le protocole repose sur l'adaptation dynamique des intervalles de réveil basée sur une estimation du trafic. Une approche heuristique est utilisée pour modéliser le système en caractérisant chacun des paramètres de l'algorithme adaptatif. Une analyse détaillée de la convergence et des métriques de performance pour atteindre un état d'équilibre est présentée et évaluée. En outre, TAD-MAC est appliqué dans le contexte des réseaux corporels de capteurs sans fil pour des taux de trafics fixes et variables. TAD-MAC surpasse les autres protocoles MAC à faible consommation énergétique en termes de latence ainsi que de consommation d'énergie et donc permet d'augmenter la durée de vie de trois à six fois. Dans la dernière partie de la thèse une technique adaptative d'optimisation de la puissance d'émission est appliquée avec une variation dynamique des canaux de transmission afi n de réduire l'énergie par bit transmis avec succès au niveau de la couche physique. La puissance d'émission est réglée de manière adaptative sur un critère de type " link-to-link" . Chaque nœud adapte localement sa puissance en fonction des variations du rapport signal-sur-bruit (SNR) (pour tous les nœuds voisins). Différents profils d'émetteurs-récepteurs radio sont utilisés pour montrer le gain par rapport à l'utilisation d'une puissance d'émission fixe. Il se trouve que par l'adaptation dynamique de la puissance d'émission, la consommation d'énergie peut être réduite d'un facteur 2.
|
132 |
Méthodes de traitement numérique du signal pour l'annulation d'auto-interférences dans un terminal mobile / Digital processing for auto-interference cancellation in mobile architectureGerzaguet, Robin 26 March 2015 (has links)
Les émetteurs-récepteurs actuels tendent à devenir multi-standards c’est-àdireque plusieurs standards de communication peuvent cohabiter sur la même puce. Lespuces sont donc amenées à traiter des signaux de formes très différentes, et les composantsanalogiques subissent des contraintes de conception de plus en plus fortes associées au supportdes différentes normes. Les auto-interférences, c’est à dire les interférences généréespar le système lui-même, sont donc de plus en plus présentes, et de plus en plus problématiquesdans les architectures actuelles. Ces travaux s’inscrivent dans le paradigmede la « radio sale » qui consiste à accepter une pollution partielle du signal d’intérêtet à réaliser, par l’intermédiaire d’algorithmes, une atténuation de l’impact de ces pollutionsauto-générées. Dans ce manuscrit, on s’intéresse à différentes auto-interférences(phénomène de "spurs", de "Tx leakage", ...) dont on étudie les modèles numériques etpour lesquelles nous proposons des stratégies de compensation. Les algorithmes proposéssont des algorithmes de traitement du signal adaptatif qui peuvent être vus comme des« algorithmes de soustraction de bruit » basés sur des références plus ou moins précises.Nous dérivons analytiquement les performances transitionnelles et asymptotiques théoriquesdes algorithmes proposés. On se propose également d’ajouter à nos systèmes unesur-couche originale qui permet d’accélérer la convergence, tout en maintenant des performancesasymptotiques prédictibles et paramétrables. Nous validons enfin notre approchesur une puce dédiée aux communications cellulaires ainsi que sur une plateforme de radiologicielle. / Radio frequency transceivers are now massively multi-standards, which meansthat several communication standards can cohabit in the same environment. As a consequence,analog components have to face critical design constraints to match the differentstandards requirements and self-interferences that are directly introduced by the architectureitself are more and more present and detrimental. This work exploits the dirty RFparadigm : we accept the signal to be polluted by self-interferences and we develop digitalsignal processing algorithms to mitigate those aforementioned pollutions and improve signalquality. We study here different self-interferences and propose baseband models anddigital adaptive algorithms for which we derive closed form formulae of both transientand asymptotic performance. We also propose an original adaptive step-size overlay toimprove transient performance of our method. We finally validate our approach on a systemon chip dedicated to cellular communications and on a software defined radio.
|
133 |
Méthodes de traitement numérique du signal pour l'annulation d'auto-interférences dans un terminal mobile / Digital processing for auto-interference cancellation in mobile architectureGerzaguet, Robin 26 March 2015 (has links)
Les émetteurs-récepteurs actuels tendent à devenir multi-standards c’est-àdireque plusieurs standards de communication peuvent cohabiter sur la même puce. Lespuces sont donc amenées à traiter des signaux de formes très différentes, et les composantsanalogiques subissent des contraintes de conception de plus en plus fortes associées au supportdes différentes normes. Les auto-interférences, c’est à dire les interférences généréespar le système lui-même, sont donc de plus en plus présentes, et de plus en plus problématiquesdans les architectures actuelles. Ces travaux s’inscrivent dans le paradigmede la « radio sale » qui consiste à accepter une pollution partielle du signal d’intérêtet à réaliser, par l’intermédiaire d’algorithmes, une atténuation de l’impact de ces pollutionsauto-générées. Dans ce manuscrit, on s’intéresse à différentes auto-interférences(phénomène de "spurs", de "Tx leakage", ...) dont on étudie les modèles numériques etpour lesquelles nous proposons des stratégies de compensation. Les algorithmes proposéssont des algorithmes de traitement du signal adaptatif qui peuvent être vus comme des« algorithmes de soustraction de bruit » basés sur des références plus ou moins précises.Nous dérivons analytiquement les performances transitionnelles et asymptotiques théoriquesdes algorithmes proposés. On se propose également d’ajouter à nos systèmes unesur-couche originale qui permet d’accélérer la convergence, tout en maintenant des performancesasymptotiques prédictibles et paramétrables. Nous validons enfin notre approchesur une puce dédiée aux communications cellulaires ainsi que sur une plateforme de radiologicielle. / Radio frequency transceivers are now massively multi-standards, which meansthat several communication standards can cohabit in the same environment. As a consequence,analog components have to face critical design constraints to match the differentstandards requirements and self-interferences that are directly introduced by the architectureitself are more and more present and detrimental. This work exploits the dirty RFparadigm : we accept the signal to be polluted by self-interferences and we develop digitalsignal processing algorithms to mitigate those aforementioned pollutions and improve signalquality. We study here different self-interferences and propose baseband models anddigital adaptive algorithms for which we derive closed form formulae of both transientand asymptotic performance. We also propose an original adaptive step-size overlay toimprove transient performance of our method. We finally validate our approach on a systemon chip dedicated to cellular communications and on a software defined radio.
|
134 |
Prótese vocálica em sequência sC inicial por falantes brasileiros de francês L2 / Vowel prosthesis in initial sC sequence by Brazilians L2 french speakers / Prothèse vocalique en séquence sC initiale par des Brésiliens parlant français L2Lopes Neto, Gilson Ramos 27 February 2018 (has links)
Submitted by Aline Batista (alinehb.ufpel@gmail.com) on 2018-07-17T18:37:40Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertacao_Gilson_Ramos_Lopes_Neto.pdf: 4350839 bytes, checksum: 574dcc924ca2773a6052320d54ab286a (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2018-07-17T21:24:31Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertacao_Gilson_Ramos_Lopes_Neto.pdf: 4350839 bytes, checksum: 574dcc924ca2773a6052320d54ab286a (MD5) / Made available in DSpace on 2018-07-17T21:24:39Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertacao_Gilson_Ramos_Lopes_Neto.pdf: 4350839 bytes, checksum: 574dcc924ca2773a6052320d54ab286a (MD5)
Previous issue date: 2018-02-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / O presente trabalho investigou como o fenômeno protético se manifesta no francês como língua não nativa, i. e. adicional (LA/L2/LE) por brasileiros falantes nativos do português brasileiro (PB) como única língua materna (L1). A prótese vocálica, observada no percurso histórico de diversas línguas, dentre elas o português, caracteriza-se pela inserção de vogal não etimológica em início de palavra (DUBOIS et al., 2002; VIARO, 2004). Estudos do inglês LA/L2/LE apontam que falantes PB-L1 realizam prótese quando se deparam com a sequência de sibilante com consoante em início de palavra (#sC), incomum no PB. A presente investigação foi realizada à luz dos Sistemas Adaptativos
Complexos (SAC) (LARSEN-FREEMAN, 1997; DE BOT ET AL., 2007; LARSENFREEMAN E CAMERON, 2008; ELLIS E LARSEN-FREEMAN, 2009). Genebra (Suíça) foi o locus da pesquisa e, para proceder à análise, 9 brasileiras (24-37 anos) compuseram o grupo experimental. Todas residem na cidade, são falantes do PB como única L1 e estão matriculadas em curso de francês LA/L2/LE.
A pesquisa contou igualmente com um grupo-controle, composto por 2 genebrinas nativas falantes do francês como única L1 (22-57 anos). Usando pressupostos da Fonologia Gestual (BROWMAN e GOLDSTEIN, 1988, 1989, 1992; ALBANO, 1990, 2001), foram analisados acusticamente via freeware Praat os dados coletados a partir da leitura de frases-veículo realizada pelas informantes dos 2 grupos. Buscou-se averiguar o papel das seguintes variáveis linguísticas e “extralinguísticas” na produção protética do grupo experimental: contextos precedente e seguinte à sibilante, frequência de ocorrência, ordem de leitura, nível de proficiência e tempo de residência em Genebra. Os resultados mostram que 34.8% das leituras (451 de 1296 frases lidas) apresentam prótese cuja qualidade das vogais produzidas aponta formas híbridas: média-alta anterior, observado no PB, porém com arredondamento bilabial parcial, recorrente no francês. Os dados apresentam relevância estatística de p<0.001 nos quesitos contexto precedente, frequência de uso, tempo de residência, nível de proficiência, hábito linguístico diário; e p=0.047 na ordem de leitura. Os resultados apontam que 5 variáveis têm relevância na produtividade do fenômeno protético: (i) estudantes nível B1 segundo o Quadro Europeu, (ii) informantes com até 12 meses de residência em Genebra, (iii) palavras-alvo de média frequência de
ocorrência, (iv) contexto precedente vozeado e (v) a 1a produção da leitura tríplice. Os resultados sugerem que o repertório fonológico das informantes parece não refletir fielmente a L1. Reitera-se, portanto, que fatores linguísticos e “extralinguísticos” atuam dinamicamente no desenvolvimento de LA/L2/LE, corroborando a imprevisibilidade e a não linearidade da linguagem postuladas pelo paradigma da complexidade. / This study investigated how the prosthetic phenomenon acts in French as a non native language, i. e. an additional language (AL/L2/FL) by Brazilian Portuguese speakers (BP) as the only mother tongue language (L1). The vowel prosthesis, observed in the historical course of several languages, among them Portuguese, is characterized by the insertion of a non-etymological vowel at the beginning of a
word (DUBOIS et al., 2002; VIARO, 2004). Studies of English AL/L2/FL point out that BP-L1 speakers perform prosthesis when they encounter the sibilant with a consonant word-initial sequence (#sC), uncommon in BP. The present work is proceeded in the light of the Complex Adaptive Systems (CAS) (LARSENFREEMAN, 1997; DE BOT et al., 2007; LARSEN-FREEMAN and CAMERON, 2008; ELLIS and LARSEN-FREEMAN, 2009). Geneva (Switzerland) was the locus of this research and, to carry out this analysis, 9 Brazilian women (aged 24-37) composed the experimental group. They are resident in the city, BP speakers as the only L1 and enrolled in a French LA/L2/LE course. The research counted on a control group as well, composed of 2 Geneva female citizens French only speakers as L1 (aged 22-57). Using assumptions of Gestural Phonology (BROWMAN and GOLDSTEIN, 1988, 1989, 1992; ALBANO, 1990, 2001), the collected data of the reading of carrier sentences done by the 2 group of
participants was acoustically analyzed via Praat freeware. The role of the following linguistic and "extralinguistic" variables in the prosthetic production of the experimental group was investigated: preceding and following context of the sibilant, frequency of occurrence, reading order, lexical proficiency and length of residence in Geneva. The results show that 34.8% of the readings (451 over 1296 read sentences) has a prosthesis whose its quality shows hybrid forms: an anterior medium-high vowel, as observed in PB, but with some partial bilabial rounding, recurrent in French. The data presents a statistical significance of p<0.001 in the previous context, frequency of use, length of residence, level of proficiency, daily linguistic habit; and p=0.047 in the reading order variable. The results indicate that 5 variables have relevance in the productivity of prosthetic phenomena: (i) level B1
of European Framework of Languages students, (ii) informants with up to 12 months of residence in Geneva, (iii) medium-frequency target words, (iv) voiced precedent context and (v) the 1st production of the triple reading. The findings suggest that the informants' phonological repertory does not seem to accurately reflect L1. It is therefore reiterated that linguistic and "extralinguistic" agents act dynamically in the development of AL/L2/FL, corroborating the unpredictability and non-linearity of language postulated by the paradigm of complexity. / Cette étude a investigué comment le phénomène prothétique se produit en français langue non maternelle, i. e. additionnelle (LA/L2/LE) par des locuteurs natifs de portugais brésilien (PB) comme la seule langue maternelle (L1). Le phénomène prothétique, observé au cours historique de plusieurs langues dont le portugais, il se caractérise par l'insertion d’une voyelle non-étymologique au début
de mot (DUBOIS et al., 2002; VIARO, 2004). Des recherches d’anglais LA/L2/LE montrent que des individus PB-L1 produisent la prothèse face à la séquence de sifflante avec consonne au début de mot (#sC), inhabituel en PB. Cette étude a été réalisée à la lumière des Systèmes Adaptatifs Complexes (SAC) (LARSENFREEMAN, 1997; DE BOT et al., 2007 ; LARSEN-FREEMAN et CAMERON, 2008; ELLIS et LARSEN-FREEMAN, 2009). Genève (Suisse) est le locus de la recherche et, pour procéder à l’analyse, 9 Brésiliennes (24-37 ans) ont composé le groupe expérimental. Étant toutes résidentes dans ladite ville, elles ont le PB comme seule L1 et sont inscrites à des cours de français LA/L2/LE. La présente recherche a également compté sur un groupe contrôle, composé de 2 Genevoises parlant le français comme unique L1 (22-57 ans). Se servant des préceptes théoriques de la Phonologie Gestuelle (BROWMAN et GOLDSTEIN, 1988, 1989, 1992 ; ALBANO, 1990, 2001), les données collectées à partir de la lecture de phrases-cadre par les participantes des 2 groupes ont été analysées par le freeware Praat. On a contrôlé le rôle des facteurs qui favorisaient la réalisation de la prothèse vocalique par le groupe expérimental sur le plan linguistique et « extralinguistique » comme suit : les contextes précédant et suivant à la sifflante, la fréquence d'occurrence, l’ordre de lecture, le niveau de français et le temps de résidence à Genève. Les résultats présentent que 34,8% des lectures (451 sur
1296 phrases-cible lues) disposent d’une voyelle prothétique, dont sa qualité est caractérisée par des formes hybrides : voyelle antérieure moyenne-haute, observée en PB, mais avec quelque arrondissement bilabiale, présent en français. Les données démontrent signification statistique de p<0.001 en ce qui concerne le contexte précédent, la fréquence d'utilisation, le temps de résidence, le niveau de français LA, la/les langue(s) utilisée(s) au quotidien; et p=0.047 pour l'ordre de lecture. Les résultats constatent que 5 variables semblent favoriser la productivité du phénomène prothétique: (i) les apprenantes niveau B1 selon le Cadre Européen, (ii) les participantes résidant à Genève depuis 12 mois ou moins, (iii) les mots-cible de moyenne fréquence d'usage en français, (iv) le contexte
précédent voisé et (v) la 1ère production de la triple lecture. Cette recherche conclut que le répertoire phonologique des participantes semble ne plus correspondre exactement au PB-L1. Cette étude renforce le fait que les facteurs linguistiques et «extralinguistiques» agissent dynamiquement dans le processus de développement en LA/L2/LE, constatant, ainsi, l'imprévisibilité et la nonlinéarité propres au langage d’après le paradigme de la complexité.
|
135 |
A user-centered and autonomic multi-cloud architecture for high performance computing applications / Un utilisateur centré et multi-cloud architecture pour le calcul des applications de haute performanceFerreira Leite, Alessandro 02 December 2014 (has links)
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud. / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds.
|
136 |
Estimation distribuée adaptative sur les réseaux multitâches / Distributed adaptive estimation over multitask networksNassif, Roula 30 November 2016 (has links)
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster / Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different
|
137 |
Méthodes de contrôle de la qualité de solutions éléments finis: applications à l'acoustiqueBouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies. <p><p>As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e. highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’. <p><p>The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples :the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles.<p><p>As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
138 |
Modélisation de comportements dans les systèmes dynamiques : <br />Application à l'organisation et à la régulation de stationnement et de déplacement dans les Systèmes de Trafic UrbainBoussier, Jean-Marie 03 May 2007 (has links) (PDF)
L'objectif de nos travaux est de développer un cadre méthodique afin de modéliser les préférences, les changements de comportement des individus ainsi que leurs impacts sur l'état d'un système complexe dans un contexte dynamique. L'utilisateur doit simuler les conséquences des politiques de transports et d'urbanisme sur l'offre et demande de stationnement, étape essentielle. Modéliser les préférences hétérogènes des usagers, intégrer des connaissances, selon des logiques comportementales différentes, ont justifié l'approche multi agents. Afin d'avoir des représentations adaptatives et évolutives des comportements des agents individus, les processus décisionnels et d'apprentissage sont modélisés au moyen d'un panier d'outils issus de l'optimisation des procédés industriels, des techniques Data Mining, de marketing. L'emploi personnalisé du simulateur avec l'interactivité utilisateursimulateur a motivé l'adaptation de ce cadre méthodique à la simulation des systèmes complexes sociétaux.
|
139 |
Co-analyse de la reconstruction du savoir-évaluer d’enseignants formés à l’étranger en situation d’intégration socioprofessionnelle au Québec : une recherche collaborativeDiedhiou, Serigne Ben Moustapha 07 1900 (has links)
No description available.
|
140 |
Towards computationally efficient neural networks with adaptive and dynamic computationsKim, Taesup 08 1900 (has links)
Ces dernières années, l'intelligence artificielle a été considérablement avancée et l'apprentissage en profondeur, où des réseaux de neurones profonds sont utilisés pour tenter d'imiter vaguement le cerveau humain, y a contribué de manière significative. Les réseaux de neurones profonds sont désormais capables d'obtenir un grand succès sur la base d'une grande quantité de données et de ressources de calcul suffisantes. Malgré leur succès, leur capacité à s'adapter rapidement à de nouveaux concepts, tâches et environnements est assez limitée voire inexistante. Dans cette thèse, nous nous intéressons à la façon dont les réseaux de neurones profonds peuvent s'adapter à des circonstances en constante évolution ou totalement nouvelles, de la même manière que l'intelligence humaine, et introduisons en outre des modules architecturaux adaptatifs et dynamiques ou des cadres de méta-apprentissage pour que cela se produise de manière efficace sur le plan informatique.
Cette thèse consiste en une série d'études proposant des méthodes pour utiliser des calculs adaptatifs et dynamiques pour aborder les problèmes d'adaptation qui sont étudiés sous différentes perspectives telles que les adaptations au niveau de la tâche, au niveau temporel et au niveau du contexte.
Dans le premier article, nous nous concentrons sur l'adaptation rapide des tâches basée sur un cadre de méta-apprentissage.
Plus précisément, nous étudions l'incertitude du modèle induite par l'adaptation rapide à une nouvelle tâche avec quelques exemples. Ce problème est atténué en combinant un méta-apprentissage efficace basé sur des gradients avec une inférence variationnelle non paramétrique dans un cadre probabiliste fondé sur des principes. C'est une étape importante vers un méta-apprentissage robuste que nous développons une méthode d'apprentissage bayésienne à quelques exemples pour éviter le surapprentissage au niveau des tâches.
Dans le deuxième article, nous essayons d'améliorer les performances de la prédiction de la séquence (c'est-à-dire du futur) en introduisant une prédiction du futur sauteur basée sur la taille du pas adaptatif. C'est une capacité critique pour un agent intelligent d'explorer un environnement qui permet un apprentissage efficace avec une imagination sauteur futur. Nous rendons cela possible en introduisant le modèle hiérarchique d'espace d'état récurrent (HRSSM) qui peut découvrir la structure temporelle latente (par exemple, les sous-séquences) tout en modélisant ses transitions d'état stochastiques de manière hiérarchique.
Enfin, dans le dernier article, nous étudions un cadre qui peut capturer le contexte global dans les données d'image de manière adaptative et traiter davantage les données en fonction de ces informations. Nous implémentons ce cadre en extrayant des concepts visuels de haut niveau à travers des modules d'attention et en utilisant un raisonnement basé sur des graphes pour en saisir le contexte global. De plus, des transformations au niveau des caractéristiques sont utilisées pour propager le contexte global à tous les descripteurs locaux de manière adaptative. / Over the past few years, artificial intelligence has been greatly advanced, and deep learning, where deep neural networks are used to attempt to loosely emulate the human brain, has significantly contributed to it. Deep neural networks are now able to achieve great success based on a large amount of data and sufficient computational resources. Despite their success, their ability to quickly adapt to new concepts, tasks, and environments is quite limited or even non-existent. In this thesis, we are interested in how deep neural networks can become adaptive to continually changing or totally new circumstances, similarly to human intelligence, and further introduce adaptive and dynamic architectural modules or meta-learning frameworks to make it happen in computationally efficient ways. This thesis consists of a series of studies proposing methods to utilize adaptive and dynamic computations to tackle adaptation problems that are investigated from different perspectives such as task-level, temporal-level, and context-level adaptations.
In the first article, we focus on task-level fast adaptation based on a meta-learning framework.
More specifically, we investigate the inherent model uncertainty that is induced from quickly adapting to a new task with a few examples. This problem is alleviated by combining the efficient gradient-based meta-learning with nonparametric variational inference in a principled probabilistic framework. It is an important step towards robust meta-learning that we develop a Bayesian few-shot learning method to prevent task-level overfitting.
In the second article, we attempt to improve the performance of sequence (i.e. future) prediction by introducing a jumpy future prediction that is based on the adaptive step size. It is a critical ability for an intelligent agent to explore an environment that enables efficient option-learning and jumpy future imagination. We make this possible by introducing the Hierarchical Recurrent State Space Model (HRSSM) that can discover the latent temporal structure (e.g. subsequences) while also modeling its stochastic state transitions hierarchically.
Finally, in the last article, we investigate a framework that can capture the global context in image data in an adaptive way and further process the data based on that information. We implement this framework by extracting high-level visual concepts through attention modules and using graph-based reasoning to capture the global context from them. In addition, feature-wise transformations are used to propagate the global context to all local descriptors in an adaptive way.
|
Page generated in 0.0622 seconds