• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 25
  • 8
  • Tagged with
  • 80
  • 26
  • 18
  • 17
  • 17
  • 17
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • 11
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Que nous révèle le visage? : Inférence de l’évaluation cognitive sur la base de l’expression faciale émotionnelle

Montembeault, Patricia January 2017 (has links)
Bien que de nombreuses études aient examiné le décodage des expressions faciales émotionnelles, un débat subsiste toujours concernant la nature de l’information véhiculée par le visage. Parmi les approches théoriques qui se démarquent actuellement, figure le modèle des processus composants (MPC) élaboré par Scherer (1984, 1992, 2001). Ce chercheur soutient que les expressions faciales transmettent de l’information allant au-delà d’une simple catégorie émotionnelle et que les décodeurs seraient en mesure d’interpréter celles-ci en termes d’évaluations cognitives. D’après ce qui a été observé dans l’étude de Scherer et Grandjean (2008), les inférences basées sur les évaluations cognitives mèneraient à une reconnaissance se comparant en exactitude à celle obtenue avec les catégories émotionnelles. Néanmoins, il existe encore peu de données empiriques offrant un appui à ces conclusions. Cette thèse a donc comme objectif d’examiner les propositions théoriques de Scherer relativement au décodage du comportement expressif facial. Pour ce faire, nous proposons une série de trois études menées à l’aide d’une tâche de jugement et utilisant des photographies d’expressions faciales. Dans la première étude, nous avons répliqué une partie de celle de Scherer et Grandjean en y apportant certaines améliorations méthodologiques. Les pourcentages d’exactitude élevés obtenus valident ceux de l’étude originale et confirment la capacité des décodeurs à inférer les évaluations cognitives à partir du visage. Certaines divergences, en ce qui a trait à la justesse du jugement en fonction du type d’émotion, ont toutefois été observées. Lors de la seconde étude, nous avons repris la même tâche en créant deux conditions distinctes permettant d’évaluer l’impact du niveau d’abstraction des évaluations proposées sur la performance. Les résultats indiquent que les participants sont en mesure d’inférer l’évaluation cognitive avec un taux de réussite élevé, et ce, peu importe le niveau d’abstraction, offrant ainsi un appui additionnel au MPC. En outre, cette étude nous a également permis d’observer des patrons de reconnaissance similaires à ceux de l’étude 1 relativement aux types d’émotions présentées. Dans le cadre de la troisième et dernière étude, nous avons poussé plus loin la validation des prédictions du MPC en examinant spécifiquement si le décodeur est en mesure de reconnaitre les évaluations cognitives communiquées par diverses unités d’action faciales individuelles, et si certaines d’entre elles semblent posséder une valeur signalétique plus puissante ou distincte. Une tâche de jugement dans laquelle les participants ont évalué, sur une échelle d’intensité, l’adéquation entre l’unité d’action observée dans l’image et les cinq énoncés représentant les critères d’évaluation majeurs du MPC, a finalement été utilisée pour tester cet objectif. Nous avons ainsi pu constater l’aptitude du décodeur à identifier de l’information relevant de la composante cognitive sur la base de certains mouvements faciaux pris isolément, attestant de la valeur signalétique intrinsèque des unités d’action dans le processus d’interprétation des visages telle que postulée au sein du modèle de Scherer.
2

Les habiletés relatives au décodage et celles inhérentes à la compréhension lors du dépistage précoce des difficultés en lecture

Boutin, Nancy January 2013 (has links)
Considérant que l’acte de lire consiste à la fois au décodage et à la compréhension d’un message, il est apparu important d’explorer le lien entre ces composantes de la lecture, et ce, dès le préscolaire, afin d’orienter le dépistage et l’intervention auprès des enfants à risque. La recension des écrits permet de constater que les processus utilisés par le lecteur expert sont probablement aussi utilisés par le pré-lecteur entrant à la maternelle. Pour mieux connaître les relations existantes entre les habiletés liées au décodage et celles liées à la compréhension, une entrevue a été réalisée auprès de 61 participants entrant à la maternelle et des analyses corrélationnelles ont suivi ces entrevues. Les résultats confirment que le pré-lecteur utilise les mêmes processus que le lecteur et qu’il y a une corrélation entre les performances en décodage et en compréhension seulement lorsque la maîtrise des rimes est incluse dans le score global du décodage.
3

Quelques algorithmes de cryptanalyse du registre filtré

Leveiller, Sabine 01 1900 (has links) (PDF)
Les systèmes de chiffrement à flot (stream ciphers) sont couramment utilisés puisqu'ils permettent un chiffrement rapide des données tout en consommant peu d'énergie. Leur principe de fonctionnement est relativement simple: un générateur de pseudo-aléa produit une séquence binaire qui est X-orée au message clair, engendrant ainsi le message chiffré (cryptogramme). Le destinataire, muni d'un générateur identique, déchiffre le message reçu en lui appliquant la même opération. La sécurité de ce système repose entièrement sur la difficulté de produire la séquence pseudo-aléatoire: toute personne en mesure de la générer pourra en effet déchiffrer le cryptogramme qu'elle aura intercepté. L'objet de cette thèse était de proposer de nouvelles attaques sur de tels systèmes. Plus précisément, nous nous sommes intéressés à la cryptanalyse à clair connu des registres filtrés: le générateur de pseudo-aléa est, dans ce cas, constitué d'un unique registre à décalage linéaire (LFSR) filtré par une fonction booléenne. La structure de ces deux composantes est supposée entièrement connue du cryptanalyste, lequel dispose, par ailleurs, de quelques bits de la séquence pseudo-aléatoire. Seule l'initialisation du registre à décalage est secrète et conditionne entièrement la sortie du générateur: elle constitue donc la clé secrète du système de chiffrement et notre objet sera précisément de la déterminer. Le document sera organisé de la façon suivante: dans un premier chapitre, nous décrivons la structure du système de chiffrement qu'est le registre filtré, et nous intéressons aux théories auxquelles ses différentes constituantes renvoient naturellement. Nous proposons, dans un second chapitre, un état de l'art des attaques non-algébriques du registre filtré. Suit un chapitre qui présente les fondements du décodage itératif et quelques résultats de simulation permettant d'évaluer l'impact de différents paramètres du système, celui du canal booléen notamment. Nous décrivons ensuite une nouvelle attaque dont le principe s'inspire de celui du décodage itératif, qui utilise non plus des contraintes linéaires mais celles de la fonction booléenne. Le quatrième chapitre est dédié aux attaques par treillis: nous présentons en premier lieu une attaque déterministe, qui, lorsque les conditions d'application sont réunies, permet de cryptanalyser le registre filtré très efficacement, et sans aucune probabilité d'erreur. Les conditions d'application de cet algorithme étant assez restrictives, nous avons étendu son principe à des systèmes moins spécifiques, perdant de ce fait le caractère déterministe de l'attaque originelle. Enfin, dans un dernier chapitre, nous avons développé deux algorithmes: le "SOJA" et le "Probability-Matching". Tous deux exploitent conjointement la structure de la fonction booléenne et l'existence d'équations vectorielles, le SOJA afin de générer des probabilités a posteriori sur les bits de la séquence d'entrée, le Probability-Matching afin d'identifier des vecteurs d'entrée de la fonction présentant des propriétés remarquables.
4

Schémas de décodage MIMO à Complexité Réduite

Salah, Abdellatif 12 July 2010 (has links) (PDF)
L'utilisation des antennes MIMO est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. De nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les systèmes MIMO avec les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation réelle. Cette thèse présente une étude très détaillée de la complexité, la performance et les aspects les plus intéressants du comportement des algorithmes de la réception pour le décodage MIMO, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance et la complexité de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaissance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées.
5

Energy optimization of Signal Processing on MPSoCs and its Application to Video Decoding / Optimisation énergétique de processus de traitement du signal et ses applications au décodage vidéo

Nogues, Erwan 02 June 2016 (has links)
Aujourd'hui, les appareils électroniques offrent de plus en plus de fonctionnalités (vidéo, audio, GPS, internet) et des connectivités variées (multi-systèmes de radio avec WiFi, Bluetooth, UMTS, HSPA, LTE-advanced ... ). La demande en puissance de ces appareils est donc grandissante pour la partie numérique et notamment le processeur de calcul. Pour répondre à ce besoin sans cesse croissant de nouvelles fonctionnalités et donc de puissance de calcul, les architectures des processeurs ont beaucoup évolué : processeurs multi-coeurs, processeurs graphiques (GPU) et autres accélérateurs matériels dédiés. Cependant, alors que de nouvelles architectures matérielles peinent à répondre aux exigences de performance, l'évolution de la technologie des batteries est quant à elle encore plus lente. En conséquence, l'autonomie des systèmes embarqués est aujourd'hui sous pression. Parmi les nouveaux services supportés par les terminaux mobiles, la vidéo prend une place prépondérante. En effet, des analyses récentes de tendance montrent qu'elle représentera 70 % du trafic internet mobile dès 2016. Accompagnant cette croissance, de nouvelles technologies émergent permettant de nouveaux services et applications. Parmi elles, HEVC (High Efficiency Video Coding) permet de doubler la compression de données tout en garantissant une qualité subjective équivalente à son prédécesseur, la norme H.264. Dans un circuit numérique, la consommation provient de deux éléments: la puissance statique et la puissance dynamique. La plupart des architectures matérielles récentes mettent en oeuvre des procédés permettant de contrôler la puissance du système. Le changement dynamique du couple tension/fréquence appelé Dynamic Voltage and Frequency Scaling (DVFS) agit principalement sur la puissance dynamique du circuit. Cette technique permet d'adapter la puissance du processeur (et donc sa consommation) à la charge réelle nécessaire pour une application. Pour contrôler la puissance statique, le Dynamic Power Management (DPM, ou modes de veille) consistant à arrêter les alimentations associées à des zones spécifiques de la puce. Dans cette thèse, nous présentons d'abord une modélisation de l'énergie consommée par le circuit intégrant les modes DVFS et DPM. Cette modélisation est généralisée au circuit multi-coeurs et intégrée à un outil de prototypage rapide. Ainsi le point de fonctionnement optimal d'un circuit, la fréquence de fonctionnement et le nombre de coeurs actifs, est identifié. Dans un second temps, l'application HEVC est intégrée à une architecture multi-coeurs avec une adaptation dynamique de la fréquence de développement. Nous montrons que cette application peut être implémentée efficacement sur des processeurs généralistes (GPP) tout en minimisant la puissance consommée. Enfin, et pour aller plus loin dans les gains en énergie, nous proposons une modification du décodeur HEVC qui permet à un décodeur de baisser encore plus sa consommation en fonction du budget énergétique disponible localement. / Consumer electronics offer today more and more features (video, audio, GPS, Internet) and connectivity means (multi-radio systems with WiFi, Bluetooth, UMTS, HSPA, LTE-advanced ... ). The power demand of these devices is growing for the digital part especially for the processing chip. To support this ever increasing computing demand, processor architectures have evolved with multicore processors, graphics processors (GPU) and ether dedicated hardware accelerators. However, the evolution of battery technology is itself slower. Therefore, the autonomy of embedded systems is now under a great pressure. Among the new functionalities supported by mobile devices, video services take a prominent place. lndeed, recent analyzes show that they will represent 70% of mobile Internet traffic by 2016. Accompanying this growth, new technologies are emerging for new services and applications. Among them HEVC (High Efficiency Video Coding) can double the data compression while maintaining a subjective quality equivalent to its predecessor, the H.264 standard. ln a digital circuit, the total power consumption is made of static power and dynamic power. Most of modern hardware architectures implement means to control the power consumption of the system. Dynamic Voltage and Frequency Scaling (DVFS) mainly reduces the dynamic power of the circuit. This technique aims to adapt the power of the processor (and therefore its consumption) to the actual load needed by the application. To control the static power, Dynamic Power Management (DPM or sleep modes) aims to stop the voltage supplies associated with specific areas of the chip. ln this thesis, we first present a model of the energy consumed by the circuit integrating DPM and DVFS modes. This model is generalized to multi-core integrated circuits and to a rapid prototyping tool. Thus, the optimal operating point of a circuit, i.e. the operating frequency and the number of active cores, is identified. Secondly, the HEVC application is integrated to a multicore architecture coupled with a sophisticated DVFS mechanism. We show that this application can be implemented efficiently on general purpose processors (GPP) while minimizing the power consumption. Finally, and to get further energy gain, we propose a modified HEVC decoder that is capable to tune its energy gains together with a decoding quality trade-off.
6

Architecture de décodage pour codes algébriques-géométriques basés sur des courbes d'Hermite

Bezerra da Silva Lima, Leocarlos 09 1900 (has links) (PDF)
This thesis consists on a description of an efficient architecture for a decoding algorithm of algebraic-geometric codes (AG codes) based on Hermitian curves. This work embraces two distinct complementing competences: the study of decoding algorithms for AG codes and the development of architectures for hardware implementation of these decoders. The algorithm, object of this work, searches error locator and evaluator functions iteratively that satisfy a key equation criterion. A new architecture is proposed for this decoder. Optimized operators to implement the most frequent calculations in the decoder are still proposed. The description of the architecture of this decoder follows the description of architectures for arithmetical units in finite fields of characteristic 2, necessary to implemente any channel coding / decoding system using block codes.
7

Nouvelles Constructions algébriques de codes spatio-temporels atteignant le compromis "Multiplexga-Diversité"

Rekaya-Ben Othman, Ghaya 12 1900 (has links) (PDF)
Durant ces dernières années, un grand intérêt a été accordé aux systèmes à antennes multiples à cause de leur capacité à augmenter les débits. Une multitude de codes Espace-Temps existent dans la littérature. Les codes Espace-Temps optimaux sont ceux qui satisfont lespropriétés suivantes: rendement plein, ordre de diversité maximal, gain de codage optimal. Malheureusement, les meilleurs codes existants souffrent de déterminants minimaux s'évanouissant lorsque l'efficacité spectrale augmente. Nous proposons deux nouvelles constructions de codes Espace-Temps ayant un rendement plein, une diversité pleine et des déterminantsminimaux ne s'évanouissant pas lorsque l'efficacité spectrale augmente.Nous nous basons dans nos constructions sur les algèbres cycliques de division de centre Q(i) et Q(j). Les premiers codes construits sont les "codes Quaternioniques". Il s'est avéré que la répartition non uniforme de lénergie dans la matrice mot de code pénalise leurs performances lorsque le nombre d'antennes à l'émission augmente. Pour pallier ce problème énergétique, nous avons construit une nouvelle famille de codes Espace-Temps, appelée "codes Parfaits". Ces derniers ont une efficacité énergétique qui se traduit par une distribution énergétique uniforme au sein du mot de code et des constellations transmises ne présentant aucune perte de forme par rapport aux constellations émises. Les codes Quaternioniques et les codes Parfaits atteignent le compromis gain de multiplexage-diversité optimal. La représentation en réseaux de points des codes Quaternioniques et des codes Parfaits permet leur décodage par les décodeurs de réseaux de points. Les décodeurs les plus connus dans la littérature sont le décodeur par sphères et le Schnorr-Euchner. Ces derniers sont utilisés pour décoder des réseaux de points infinis. Étant donné que nous considérons des constellations finies, des versions modifiées des deux algorithmes ont été proposées. La comparaison des complexités correspondants aux deux versions modifiées de ces décodeurs nous a permis de choisir le meilleur, à savoir, le Schnorr-Euchner. Le décodage des réseaux de points peut être considérablement accéléré en utilisant une réduction de réseaux de points. A ce jour, la réduction n'est appliquée qu'aux réseaux de points infinis . L'utilisation du schéma de codage/décodage en mod-Lamda rend l'application de la réduction possible en considérant des constellations finies. Nos nouvelles constructions de codes Espace-Temps se basent sur des réseaux de points algébriques. Nous proposons dans ce sens une nouvelle réduction algébrique adaptée aux réseaux de points algébriques pour les systèmes mono-antenne sur canal à évanouissements rapides. Cette méthode sera étendue au cas des systèmes à antennes multiples dans un proche avenir.
8

Réseaux bayésiens et filtres particulaires pour l'égalisation adaptative et le décodage conjoints

Cheung-Mon-Chan, Pascal 12 1900 (has links) (PDF)
Cette thèse s'intéresse aux réseaux bayésiens, aux filtres particulaires et à leur application aux communications numériques. Tout d'abord, nous donnons une construction rigoureuse et très générale des réseaux bayésiens et nous présentons l'algorithme de propagation de croyance dans ce contexte. Puis, nous introduisons un nouveau type de filtre particulaire, appelé "filtre particulaire à échantillonnage global", et nous constatons en effectuant des simulations numériques que ce nouvel algorithme se compare favorablement à l'état de l'art. Nous utilisons ensuite le filtrage particulaire pour calculer de façon approchée certains messages de l'algorithme de propagation de croyance. Nous obtenons ainsi un nouvel algorithme, combinant propagation de croyance et filtrage particulaire, que nous avons appelé "algorithme de turbo-filtrage particulaire». Enfin, nous utilisons ces différentes techniques afin de concevoir de façon méthodique un récepteur de communications numériques.
9

Ensembles des modeles en fMRI : l'apprentissage stable à grande échelle / Ensembles of models in fMRI : stable learning in large-scale settings

Hoyos-Idrobo, Andrés 20 January 2017 (has links)
En imagerie médicale, des collaborations internationales ont lançé l'acquisition de centaines de Terabytes de données - et en particulierde données d'Imagerie par Résonance Magnétique fonctionelle (IRMf) -pour les mettre à disposition de la communauté scientifique.Extraire de l'information utile de ces données nécessite d'importants prétraitements et des étapes de réduction de bruit. La complexité de ces analyses rend les résultats très sensibles aux paramètres choisis. Le temps de calcul requis augmente plus vite que linéairement: les jeux de données sont si importants qu'il ne tiennent plus dans le cache, et les architectures de calcul classiques deviennent inefficaces.Pour réduire les temps de calcul, nous avons étudié le feature-grouping commetechnique de réduction de dimension. Pour ce faire, nous utilisons des méthodes de clustering. Nous proposons un algorithme de clustering agglomératif en temps linéaire: Recursive Nearest Agglomeration (ReNA). ReNA prévient la création de clusters énormes, qui constitue un défaut des méthodes agglomératives rapidesexistantes. Nous démontrons empiriquement que cet algorithme de clustering engendre des modèles très précis et rapides, et permet d'analyser de grands jeux de données avec des ressources limitées.En neuroimagerie, l'apprentissage statistique peut servir à étudierl'organisation cognitive du cerveau. Des modèles prédictifs permettent d'identifier les régions du cerveau impliquées dans le traitement cognitif d'un stimulus externe. L'entraînement de ces modèles est un problème de très grande dimension, et il est nécéssaire d'introduire un a priori pour obtenir un modèle satisfaisant.Afin de pouvoir traiter de grands jeux de données et d'améliorer lastabilité des résultats, nous proposons de combiner le clustering etl'utilisation d'ensembles de modèles. Nous évaluons la performance empirique de ce procédé à travers de nombreux jeux de données de neuroimagerie. Cette méthode est hautement parallélisable et moins coûteuse que l'état del'art en temps de calcul. Elle permet, avec moins de données d'entraînement,d'obtenir de meilleures prédictions. Enfin, nous montrons que l'utilisation d'ensembles de modèles améliore la stabilité des cartes de poids résultantes et réduit la variance du score de prédiction. / In medical imaging, collaborative worldwide initiatives have begun theacquisition of hundreds of Terabytes of data that are made available to thescientific community. In particular, functional Magnetic Resonance Imaging --fMRI-- data. However, this signal requires extensive fitting and noise reduction steps to extract useful information. The complexity of these analysis pipelines yields results that are highly dependent on the chosen parameters.The computation cost of this data deluge is worse than linear: as datasetsno longer fit in cache, standard computational architectures cannot beefficiently used.To speed-up the computation time, we considered dimensionality reduction byfeature grouping. We use clustering methods to perform this task. We introduce a linear-time agglomerative clustering scheme, Recursive Nearest Agglomeration (ReNA). Unlike existing fast agglomerative schemes, it avoids the creation of giant clusters. We then show empirically how this clustering algorithm yields very fast and accurate models, enabling to process large datasets on budget.In neuroimaging, machine learning can be used to understand the cognitiveorganization of the brain. The idea is to build predictive models that are used to identify the brain regions involved in the cognitive processing of an external stimulus. However, training such estimators is a high-dimensional problem, and one needs to impose some prior to find a suitable model.To handle large datasets and increase stability of results, we propose to useensembles of models in combination with clustering. We study the empirical performance of this pipeline on a large number of brain imaging datasets. This method is highly parallelizable, it has lower computation time than the state-of-the-art methods and we show that, it requires less data samples to achieve better prediction accuracy. Finally, we show that ensembles of models improve the stability of the weight maps and reduce the variance of prediction accuracy.
10

Codage distribué pour les réseaux coopératifs sans fil

Hatefi, Atoosa 25 October 2012 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique et à la conception pratique de schémas de codage conjoint réseau/canal adaptés à différents scénarii de communications dans les réseaux sans fil. Contrairement aux hypothèses conventionnelles retenues dans la littérature (accès multiple orthogonal, absence d'erreurs sur certains liens), les caractéristiques de diffusion et de superposition des signaux propres au canal radio et la présence d'évanouissements lents et de bruit sur tous les liens sont prises en compte dans la formulation du problème et exploitées. Différentes stratégies de coopération au niveau du ou des relais sont examinées et comparées. Le point commun entre toutes ces stratégies est que le système doit fonctionner même en absence de coopération. Seuls le ou les relais et la destination sont informés d'une coopération. Ni les sources, ni le ou les relais ne connaissent l'état du canal à l'émission.
Le premier volet de la thèse porte sur le canal à accès multiple avec relais unique (slow fading MARC). Le problème du codage et décodage conjoint canal/réseau (JNCC/JNCD) est étudié sur un plan théorique et pratique. Différentes hypothèses au niveau de l'accès multiple (semi-orthogonal et non-orthogonal) et différents modes de fonctionnement du relais (half-duplex et full-duplex) sont envisagés. Une nouvelle stratégie de coopération adaptative (SDF pour selective decode and forward) est définie dans laquelle le relais calcule et retransmet une fonction déterministe des messages de sources qu'il a pu décoder sans erreur. Le ré-encodage, défini sur un corps fini (corps binaire), est également conçu de manière à assurer que la performance finale au niveau de la destination atteint bien un ordre de diversité 2.
Le modèle de canal MARC est par la suite étendu à plusieurs relais (slow fading MAMRC). Une analyse théorique est conduite et des nouveaux schémas JNCC/JNCD permettant de s'approcher des limites théoriques sont décrits. Afin d'assurer la diversité pleine, nous proposons de combiner un codage canal binaire et un codage réseau non-binaire.
Pour les deux types de canaux, nous montrons que l'interférence naturellement induite par la diffusion des signaux dans un environnement sans fil, n'est pas un inconvénient mais bien un avantage dès lors qu'on est en mesure de la traiter via des techniques de codage et de décodage sophistiquées (turbo codes et leur décodage, turbo détection). Les gains en termes de capacité (rapportée à une certaine probabilité de coupure) obtenus avec un accès multiple semi-orthogonal ou non-orthogonal sont substantiels comparés à un accès multiple orthogonal (référence).
Dans la dernière partie de la thèse, la stratégie de coopération SDF est comparée à deux autres stratégies de coopération s'appuyant sur un procédé de décodage-et-retransmission "souple" (sans prise de décisions intermédiaires) : l'une basée sur les rapports logarithmiques de probabilité a posteriori sur les bits codés et l'autre basée sur l'estimation de l'erreur quadratique moyenne (MSE). Nous vérifions que la stratégie de coopération SDF fonctionne bien dans la plupart des configurations, les stratégies de coopération souples n'améliorant légèrement les performances que dans certains cas extrêmes.

Page generated in 0.0361 seconds