• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 681
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1053
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Étude des algorithmes de stratification et illustration utilisant la réalisation de l'enquête sur le recrutement, l'emploi et les besoins de formation au Québec en 2015, l'EREFEQ 2015

Houimli, Oussama 27 January 2024 (has links)
Dans un plan stratifié, le calcul des bornes de strates peut se faire de plusieurs façons. On peut se fier à un jugement personnel et séparer les unités de la population en se basant sur la distribution de la variable de stratification. D’autres méthodes scientifiques et rigoureuses donnent un meilleur résultat, dont les algorithmes de cum √f, Sethi et Kosak. Pour les populations asymétriques, telles que retrouvées dans les enquêtes entreprises, l’utilisation d’une strate recensement permet de diminuer la taille d’échantillon et donner des estimations plus fiables. Parfois, la variable de stratification utilisée dans l’élaboration du plan de sondage ne garantit pas l’obtention de la précision cible pour toutes les variables d’intérêt de l’enquête. Utiliser la variable d’intérêt la plus difficile à estimer, comme variable de stratification, permet de garantir un CV cible minimal pour toutes les autres variables, mais engendre des grandes tailles d’échantillon. / In a stratified sampling design, the calculation of the stratum boundaries can be done in several ways. We can rely on personal judgment and separate the units of the population based on the distribution of the stratification variable. Other scientific and rigorous methods give a better result, including the algorithms of cum √f, Sethi and Kosak. For asymmetric populations, as found in the business surveys, the use of a census stratum reduces the sample size and gives more reliable estimates. Univariate methods, those that use a single stratification variable in calculating the boundaries, do not guarantee that the target precision will be obtained for all the variables of interest in the survey. Using the variable of interest that is the most difficult to estimate, as a stratification variable, makes it possible to guarantee a minimum target CV for all the other variables, but generates large sample sizes.
452

Détection des potentiels d'action par la fluorescence calcique chez le poisson zèbre

Rondy-Turcotte, Jean-Christophe 02 February 2024 (has links)
L'utilisation de fluorofores sensibles au calcium permet de mesurer de manière non invasive l'activité des neurones. En effet, les potentiels d'actions font augmenter la concentration de calcium à l'intérieur d'une cellule, ce qui à son tour fait augmenter la fluorescence. Un dé important est de retrouver la séquence de potentiels d'actions à partir d'une mesure de fluorescence. Dans ce mémoire, nous verrons comment utiliser la fluorescence calcique pour déterminer une séquence de potentiels d'actions. Nous appliquons un algorithme basé sur l'algorithme de Viterbi et les chaînes de Markov à états cachés, développés par Deneux et al. À l'aide de cet algorithme, nous estimons les trains de potentiels d'actions ayant lieu dans un ensemble de neurones de poisson zèbres in vivo.
453

La protection du consommateur à l'ère du marketing intelligent : une approche comparative France-Québec

Houle, Audrey 22 March 2024 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada et Université Paris-Sud, Orsay, France. / La publicité et le marketing, autrefois connus comme étant des moyens pour les entreprises de faire connaître leurs produits aux consommateurs, sont sournoisement devenus des armes de consommation massives ciblant le consommateur au meilleur moment pour modifier son comportement d’achat. Grâce aux technologies émergentes, comme l’intelligence artificielle, et à la multiplication des moyens pour recueillir massivement des informations sur le consommateur, les entreprises ont su créer une nouvelle forme de marketing : le marketing intelligent. Cette nouvelle méthode qui couple les données massives aux nouvelles techniques d’apprentissage machine permet aux commerçants d’en connaître plus sur le consommateur qu’il n’en connaît sur lui-même. Armées de nouvelles techniques issues de l’intelligence artificielle, les entreprises sont en mesure de cibler de manière précise les consommateurs afin de personnaliser l’offre de manière unique. Grâce aux nouvelles technologies, le marketing opère un changement de paradigme vers une pratique individualisée. Le consommateur ne devient-il pas alors plus vulnérable à ces pratiques ciblées et à leur omniprésence dans le marché ? / Advertising and marketing, known as methods for companies to promote their products to consumers, have steadily become massive targeting weapons to influence the consumers behavior. Emerging technologies such as artificial intelligence and big data analytics have allowed companies to create a new form of marketing: intelligent marketing. These new methods allow merchants to know more about the consumer than he knows about himself. Armed with new techniques derived from artificial intelligence, companies are able to precisely target consumers and uniquely personalize their offerings. This begs the question: Does the consumer become more vulnerable to these growing practices and their omnipresence in the market?
454

Remote sensing of phytoplankton in the Arctic Ocean : development, tuning and evaluation of new algorithms

Li, Juan 13 December 2023 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Wuhan University, Wuhan, Chine. / Au cours des dernières décennies, l'augmentation de la production primaire (PP) dans l'océan Arctique (AO) a en partie été associée à une augmentation de la biomasse phytoplanctonique, comme l'ont montré des études de télédétection. La concentration en chlorophylle a (Chl), un indicateur de la biomasse phytoplanctonique, est un facteur clé qui peut biaiser les estimations de la PP quand elle comporte des erreurs de mesure. En d'autres mots, une estimation précise de la Chl est cruciale pour améliorer notre connaissance de l'écosystème marin et de sa réponse au changement climatique en cours. Cependant, la télédétection de la couleur de l'océan dans l'océan Arctique présente plusieurs défis. Tout d'abord, il est bien connu que l'échec des algorithmes standards de la couleur de l'océan dans l'AO est dû à l'interférence des matières colorées et détritiques (CDM) dans le spectre visible, mais comment et dans quelle mesure cela va biaiser l'estimation de la Chl reste inconnu. En outre, la Chl étant un facteur clé utilisé pour estimer la PP, la propagation des erreurs des estimations de la Chl aux estimations de la PP doit être évaluée. Le dernier mais le plus important est qu'un algorithme robuste avec une incertitude raisonnable, en particulier pour les eaux côtières complexes et productives, n'est pas encore disponible. Pour résoudre ces problèmes, dans cette étude, nous avons d'abord compilé une grande base de données bio-optiques in situ dans l'Arctique, à partir de laquelle nous avons évalué de manière approfondie les algorithmes de couleur de l'océan actuellement disponibles du point de vue des impacts des CDM. Nous avons constaté que plus le niveau de CDM par rapport à la Chl dans la colonne d'eau était élevé, plus il biaisait les estimations de la Chl. L'analyse de sensibilité des estimations de la PP sur la Chl a montré que l'erreur des estimations de la Chl était amplifiée de 7% lorsqu'elle était passée dans l'estimation du PP en utilisant un modèle de PP résolu spectralement et verticalement. En outre, pour obtenir de meilleurs résultats, nous avons optimisé un algorithme semi-analytique (Garver-Siegel-Maritorena, GSM) pour l'AO en ajoutant la bande spectrale de 620 nm qui est moins affectée par le CDM et le signal ici est généralement élevé pour les eaux riches en CDM, devenant anisi important pour le GSM afin d'obtenir des estimates précises de la Chl. Notre algorithme ajusté, GSMA, n'a amélioré la précision que de 8% pour l'AO, mais l'amélioration pour les eaux côtières a atteint 93%. Enfin, étant donné que les algorithmes qui n'exploitent pour la plupart que les parties bleue et verte du spectre visible sont problématiques pour les eaux très absorbantes/obscures, nous avons introduit un modèle d'émission de fluorescence pour tenir compte des propriétés bio-optiques du phytoplancton dans la partie rouge du spectre visible. En se couplant avec le GSMA, le nouvel algorithme à spectre complet, FGSM, a encore amélioré la précision des estimations de la Chl de ~44% pour les eaux eutrophes. À l'avenir, des couplages sont nécessaires à des fins de validation en ce qui concerne l'application satellitaire. De plus, de nouvelles approches pouvant être appliquées pour détecter le maximum de chlorophylle sous la surface (SCM), les efflorescences en bordure de glace et/ou sous la glace, les types fonctionnels de phytoplancton (PFT), sont attendues. / In the recent decades, the raise of primary production (PP) in the Arctic Ocean (AO) is mainly driven by the increase of phytoplankton biomass as multiple remote sensing studies have suggested. Chlorophyll a concentration (Chl), a proxy of phytoplankton biomass, is a key factor that biases PP estimates. In terms of bottom-up control, accurate Chl estimate is crucial to improve our knowledge of marine ecosystem and its response to ongoing climate change. However, there are several challenges of ocean color remote sensing in the Arctic Ocean. Firstly, it is well known that the failure of standard ocean color algorithms in the AO is due to the interference of colored and detrital material (CDM) in the visible spectrum, but how and to what extend it will bias the estimation of Chl remains unknown. Besides, Chl as a key factor used to estimate PP, error propagation from Chl estimates to PP estimates needs to be assessed. The last but most important is that a robust algorithm with reasonable uncertainty, especially for the complex and productive coastal waters, is not yet available. To address these problems, in this study, we first compiled a large Arctic in situ bio-optical database, based on which we thoroughly evaluated presently available ocean color algorithms from a perspective of the impacts of CDM. We found that the higher the level of CDM relative to Chl in the water column, the larger it would bias Chl estimates. Sensitivity analysis of PP estimates on Chl showed that the error of Chl estimates was amplified within 7% when passed into the estimation of PP using a spectrally- and vertically-resolved PP model. Besides, to obtain better results, we tuned GSM for the AO by adding 620 waveband which is less affected by CDM and the signal here is generally high for CDM-rich waters thus become important for GSM to retrieve accurate Chl estimates. Our tuned algorithm, GSMA, merely improved the accuracy by 8% for the AO, but the improvement for coastal waters reached up to 93%. Finally, given that algorithms that only exploits visible spectrum are problematic for highly-absorbing/dark waters, we introduced the fluorescence emission model to account for the bio-optical properties of phytoplankton in the near infrared spectrum. By coupling with GSMA, the novel full-spectrally algorithm, FGSM, further improved the accuracy of Chl estimates by ~44% for eutrophic waters. In the future, matchups are needed for validation purposes with respect to satellite application. Moreover, new approaches that can be applied to detect subsurface chlorophyll maximum (SCM), ice-edge and/or under-ice blooms, phytoplankton functional types (PFT) and so on are expected.
455

Analyse des réseaux sociaux pour la prédiction de l'affluence lors d'un évènement

Logovi, Tété Elom Mike Norbert 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce projet de recherche porte sur l'utilisation de données des réseaux sociaux basés sur des évènements ainsi que des données météorologiques pour prédire la participation effective des utilisateurs à des évènements en ligne ou hors ligne, à l'ère de la technologie qui peut rassembler des participants du monde entier. Cette recherche a été principalement motivée par le fait que les organisateurs d'évènements ont souvent du mal à estimer le nombre de participants, ce qui peut entraîner des problèmes financiers, organisationnels et de réputation. Dans ce domaine, de nombreuses études ont développé des algorithmes d'apprentissage automatique pour prédire la participation des utilisateurs aux évènements, bien que des améliorations soient nécessaires. De plus, peu d'études ont examiné l'interprétabilité et l'explicabilité de ces algorithmes afin de déterminer les facteurs qui influencent le plus la participation d'un utilisateur à un évènement. Ce projet de recherche offre une solution complète à ces questions. Sa solution est une méthode consistant à collecter des données sur les évènements et les conditions météorologiques et à en extraire les caractéristiques pertinentes. Ces caractéristiques permettent ensuite d'entraîner des algorithmes d'apprentissage automatique afin de prédire si un utilisateur participera effectivement à un évènement. Il est important de noter que cette recherche cherche tente également d'expliquer comment les prédictions sont faites en déterminant les facteurs les plus importants. Des données météorologiques et des données relatives aux évènements du réseau social basé sur des évènements Meetup ont été utilisées dans le cadre de l'étude. L'expérience a révélé que l'algorithme Decision Tree était le plus performant pour prédire la participation à un évènement. En outre, la distance entre l'utilisateur et le lieu de l'évènement est le facteur le plus important pour prédire la participation des utilisateurs. Ce projet présente plusieurs avantages majeurs, notamment la possibilité de combiner des données d'événements provenant de Meetup, un réseau social basé sur les événements, avec les préférences des utilisateurs évaluées à l'aide de divers paramètres et une analyse approfondie de l'interprétabilité des classificateurs afin d'identifier les facteurs de participation aux événements. Cependant, il présente certaines limites, telles qu'un ensemble de données déséquilibré avec davantage d'utilisateurs non participants, des tests sur des événements passés plutôt que futurs, et le manque d'exploration des données des réseaux sociaux non basés sur des événements. En conclusion, cette recherche vise à améliorer la compréhension des mécanismes qui affectent l'engagement des utilisateurs dans les évènements, offrant de nouvelles perspectives aux organisateurs d'évènements et aux chercheurs dans ce domaine en évolution rapide. Elle fournit des outils pour anticiper et gérer la participation, améliorant ainsi la qualité et la préparation des évènements, qu'ils soient en ligne ou hors ligne. / This research project focuses on the use of event-based social network data and weather data to predict users’ actual participation in online and offline events, in the age of technology that can bring together participants from all over the world. This research was primarily motivated by the fact that event organizers often find it difficult to estimate the number of participants, which can lead to financial, organizational and reputational problems. In this field, many studies have developed machine learning algorithms to predict user participation in events, although improvements are needed. Moreover, few studies have examined the interpretability and explicability of these algorithms to determine which factors most influence a user’s participation in an event. This research project offers a comprehensive solution to these questions. Its solution is a method of collecting data on events and weather conditions and extracting relevant features. These features are then used to train machine learning algorithms to predict whether a user will actually attend an event. Importantly, this research also attempts to explain how predictions are made by identifying the most important factors. Weather and event data from the Meetup event-based social network were used in the study. The experiment revealed that the Decision Tree algorithm performed best in predicting event attendance. Furthermore, the distance between the user and the event location was the most important factor in predicting user participation. This project has several major advantages, including the ability to combine event data from Meetup, an event-based social network, with user preferences assessed using various parameters, and an in-depth analysis of classifier interpretability to identify event participation factors. However, it has certain limitations, such as an unbalanced dataset with more nonparticipating users, tests on past rather than future events, and lack of exploration of nonevent-based social network data. In conclusion, this research aims to improve understanding of the mechanisms affecting user engagement in events, offering new perspectives to event organizers and researchers in this rapidly evolving field. It provides tools for anticipating and managing participation, thus improving the quality and preparation of events, whether online or offline.
456

Développement d'algorithmes de Plasmode longitudinaux pour l'évaluation d'approches d'ajustement pour la confusion et illustration pour l'étude de l'effet d'une exposition cumulée aux stresseurs psychosociaux au travail

Souli, Youssra 23 March 2024 (has links)
Le biais de confusion peut affecter tous les types d’études d’observation. Il apparaît lorsque la caractéristique étudiée est associée à un facteur de perturbation complémentaire et que ce dernier fait croire à l’existence d’une relation de cause à effet entre la caractéristique étudiée et l’issue. Des méthodes d’ajustement pour le biais de confusion, notamment les modèles structurels marginaux, peuvent être utilisées pour corriger ce type de biais. Ces modèles n’ont toutefois été utilisés qu’une seule fois pour l'étude de l’effet d’une exposition cumulative aux stresseurs psychosociaux au travail sur la pression artérielle. L’objectif principal de ce mémoire était de comparer différents estimateurs des paramètres d’un modèle structurel marginal à des approches classiques. Nous avons considéré les estimateurs par pondération inverse de la probabilité de traitement, le calcul-g, le maximum de vraisemblance ciblé avec et sans SuperLearner. Ces estimateurs ont d’abord été utilisés pour estimer l’effet d’une exposition cumulée aux stresseurs psychosociaux au travail sur la pression artérielle systolique dans le cadre d’une étude de cohorte prospective de 5 ans. Cette analyse a révélé des différences significatives entre les estimateurs. Puisqu’il s’agit de données réelles, il est toutefois impossible de déterminer quelle méthode produit les résultats les plus valides. Pour répondre à cette question, nous avons développé deux algorithmes de simulation de données longitudinales de type Plasmode, l’un utilisant des modèles paramétriques et l’autre utilisant des approches non paramétriques. Les simulations Plasmode combinent des données réelles et des données synthétiques pour étudier les propriétés dans un contexte connu, mais similaire au contexte réel. Au vue des résultats, nous avons conclu que les modèles structurels marginaux représentent des approches pertinentes pour estimer l’effet des stresseurs psychosociaux au travail. Nous recommandons particulièrement d’utiliser la méthode de maximum de vraisemblance ciblé avec et sans SuperLearner. Cependant, cela nécessite un effort supplémentaire en termes d’implantation de code et de temps d’exécution.
457

VisionLib NexGen : design et implémentation d'une nouvelle architecture pour une librairie de vision numérique

Morin-Rivest, Yannick 18 April 2018 (has links)
Optel Vision est une compagnie produisant des systèmes d'inspection par vision artificielle pour l'industrie pharmaceutique, nutraceutique et cosmétique. Ces systèmes possèdent une architecture matérielle et logicielle interagissant ensemble. Les algorithmes de vision sont une librairie faisant partie de l'ensemble logiciel. Cette dernière contient l'ensemble des structures et des algorithmes de vision construits à l'interne se nommant VisionLib. Cette librarie possède déjà quelques années et son architecture limite maintenant le développement de certaines spécifications importantes ainsi que de nouvelles applications que l'entreprise aimerait ajouter à son porte-folio. Ce mémoire présentera l'approche utilisée afin de créer la nouvelle architecture de la librairie de vision en optimisant la parallélisation des algorithmes de manière automatique, en développement en système plus ouvert et facilement configurable, en facilitant le débogage interne, et finalement en minimisant le temps de développement d'une nouvelle analyse vision
458

Calage robuste et accéléré de nuages de points en environnements naturels via l'apprentissage automatique

Latulippe, Maxime 19 April 2018 (has links)
En robotique mobile, un élément crucial dans la réalisation de la navigation autonome est la localisation du robot. En utilisant des scanners laser, ceci peut être réalisé en calant les nuages de points consécutifs. Pour ce faire, l’utilisation de points de repères appelés descripteurs sont généralement efficaces, car ils permettent d’établir des correspondances entre les nuages de points. Cependant, nous démontrons que dans certains environnements naturels, une proportion importante d’entre eux peut ne pas être fiable, dégradant ainsi les performances de l’alignement. Par conséquent, nous proposons de filtrer les descripteurs au préalable afin d’éliminer les nuisibles. Notre approche consiste à utiliser un algorithme d’apprentissage rapide, entraîné à la volée sous le paradigme positive and unlabeled learning sans aucune intervention humaine nécessaire. Les résultats obtenus montrent que notre approche permet de réduire significativement le nombre de descripteurs utilisés tout en augmentant la proportion de descripteurs fiables, accélérant et augmentant ainsi la robustesse de l’alignement. / Localization of a mobile robot is crucial for autonomous navigation. Using laser scanners, this can be facilitated by the pairwise alignment of consecutive scans. For this purpose, landmarks called descriptors are generally effective as they facilitate point matching. However, we show that in some natural environments, many of them are likely to be unreliable. The presence of these unreliable descriptors adversely affects the performances of the alignment process. Therefore, we propose to filter unreliable descriptors as a prior step to alignment. Our approach uses a fast machine learning algorithm, trained on-the-fly under the positive and unlabeled learning paradigm without the need for human intervention. Our results show that the number of descriptors can be significantly reduced, while increasing the proportion of reliable ones, thus speeding up and improving the robustness of the scan alignment process.
459

Algorithmes et processeurs temps réel de traitement de signaux neuronaux pour une plateforme optogénétique sans fil

Gagnon-Turcotte, Gabriel 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / L’acquisition des signaux électriques provenant des neurones du cerveau permet aux neurobiologistes de mieux comprendre son fonctionnement. Dans le cadre de ce travail, de nouveaux algorithmes de compression des signaux neuronaux sont conçus et présentés. Ces nouveaux algorithmes sont incorporés dans trois nouveaux dispositifs optogénétiques sans fil miniature capable de stimuler optiquement l’activité neuronale et de transmettre sans fil les biopotentiels captés par plusieurs microélectrodes. Deux de ces systèmes sont capables de compresser les signaux provenant de deux microélectrodes ainsi que de stimuler optiquement via deux diodes électroluminescentes (DEL) haute puissance. Afin de réduire la bande passante des transmetteurs sans fil utilisés, ces deux systèmes sont dotés d’un nouvel algorithme de détection des potentiels d’actions qui génère de meilleurs taux de détection que les algorithmes existants, tout en nécessitant moins de ressources matérielles et de temps de processeur. Un troisième dispositif incorporant les algorithmes de détection et de compression fût conçu. Ce dispositif est le seul système optogénétique sans fil comportant 32 canaux de stimulation optique et 32 canaux d’enregistrement électrophysiologiques en parallèle. Il utilise une nouvelle technique de compression par ondelettes permettant d’augmenter significativement le nombre de canaux sous observation sans augmenter la consommation de l’émetteurrécepteur. Cette nouvelle méthode de compression se distingue des méthodes existantes en atteignant de meilleurs taux de compression tout en permettant de reconstruire les signaux compressés avec une meilleure qualité. Au moment de la rédaction de ce mémoire, il s’agit des premiers dispositifs optogénétiques sans fil à offrir simultanément de la stimulation optique multicanal, de l’enregistrement électrophysiologique multicanal ainsi que de la détection/compression in situ des potentiels d’actions. Grâce à leur design novateur et aux innovations apportées par les nouveaux algorithmes de traitement des signaux, les systèmes conçus sont plus légers et plus compacts que les systèmes précédents, rendant ces dispositifs indispensables afin de mener des expériences sur le cerveau de petits animaux libres de leurs mouvements. Les trois systèmes ont été validés avec grand succès par des expériences in vivo sur des souris transgéniques au Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ). / The electrical signals acquisition from the brain’s neurons allows neuroscientists to better understand its functioning. In this work, new neural signals compression algorithms are designed and presented. These new algorithms are incorporated into three new miniature optogenetic wireless devices. These devices are capable to optically stimulate neural activity and to wirelessly transmit the biopotentials captured by several microelectrodes. Two of these systems are able to compress the signals from two microelectrodes and to stimulate optically via two high-power LED. Both systems feature a new spike detection algorithm to reduce the bandwidth used by the wireless transceiver. This new spike detection algorithm differs from existing algorithms by achieving better detection rate while using less material resources and processing time. A third device incorporating the detection and compression algorithms was designed. This device is the only optogenetic wireless system including 32 optical stimulation channels and 32 electrophysiological recording channels in parallel. This new system has the ability to compress the neural signals using a new wavelet compression technique that significantly increase the number of channels under observation without increasing the consumption of the wireless transceiver. In particular, this new compression technique differs from the existing wavelet based compression methods by achieving better compression ratio while allowing to reconstruct the compressed signals with better quality. At the time of writing this thesis, these are the first three devices that offer simultaneous multichannel optical stimulation, multichannel electrophysiological signals recording and on-the-fly spike detection. The resulting systems are more compact and lightweight than previous systems, making these devices essentials to conduct long term experiments on the brains of small freely moving animals. The three systems were validated within in vivo experiments using transgenic mice at the Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
460

Codage vidéo distribué utilisant les turbo codes

Haj Taieb, Mohamed 19 April 2018 (has links)
La charge de traitement de la compression vidéo est généralement assurée au niveau de l’émetteur dans les standards conventionnels de codage vidéo (MPEG, H.263, H.264/AVC [1]). Ce choix est dû au fait que l’émetteur dispose d’une connaissance totale de la source lui permettant d’assurer facilement et efficacement la compression. En outre, les applications habituelles de la transmission vidéo assurent un flux d’une station centralisée, disposant d’une capacité calculatoire élevée, vers un certain nombre de récepteurs. La charge de compression est ainsi effectuée une seule fois par une station adaptée à ce fait. Avec l’accroissement de l’interactivité de la téléphonie mobile, les abonnés sont en mesure d’émettre des séquences vidéo autant que d’en recevoir. Le flux vidéo est alors généré par le téléphone mobile à capacité limitée vers une station de base à capacité élevée. La compression ne peut se faire selon le schéma conventionnel et la complexité de la compression doit être transférée au décodeur. Les résultats théoriques de Slepian-Wolf [2] et leur extension par les travaux de Wyner-Ziv [3] pour le cas de codage avec perte et en présence d’information latérale constituent les bases théoriques du codage de sources distribuées. Ces résultats théoriques ont donné naissance à un vaste champ d’applications comme le récent paradigme de codage vidéo distribué, établi il y a juste quelques années. Dans cette thèse de doctorat, on présente une étude des divers systèmes de codage vidéo distribué dans le domaine pixel et dans le domaine transformé. Le décodeur exploite la corrélation entre la séquence à transmettre par le codeur et l’information latérale dont il dispose. Cette corrélation se traduit par un canal virtuel dont l’entrée est la trame à transmettre et la sortie est l’information latérale. Un code turbo est utilisé pour générer des bits de parité envoyés progressivement sous la demande du décodeur, pour corriger les erreurs de l’information latérale qui constitue une version bruitée de la trame originale. Dans ce travail, on implémente différents algorithmes de codage vidéo distribué basés sur les turbocodes dans le but de s’approcher des performances de la compression vidéo conventionnelle. / Most of the video compression processing is usually performed at the transmitter in the conventional video coding standards (MPEG, H.263, H.264/AVC [1]). This choice is due to the fact that the transmitter has full knowledge of its source to ensure easy and efficient compression. In addition, the usual applications of video transmission ensure a flow from a centralized station, with a higher computational capacity, to a number of receivers. The compression task is thus performed only once by a computationally adapted station. However, with the emergence of wireless surveillance locally distributed cameras, the growth of cellular interactive video applications as well as many other applications involving several low cost video encoders at the expense of high complexity central decoder, the compression task can no longer be handled by the encoder and thus the compression complexity should be transferred to the decoder. Slepian and Wolf information theoretical result on lossless coding for correlated distributed sources [2] and its extension to the lossy source coding case with side information at the decoder, as introduced by Wyner and Ziv [3], constitute the theoretical basis of distributed source coding. These theoretical concepts have given birth to a wide field of applications as the recent distributed video coding paradigm, established a few years ago. In this doctoral thesis, we present a study of various distributed video coding schemes in the pixel and transform domains. The decoder exploits the correlation between the video sequence to be transmitted by the encoder and the side information. This correlation can be seen as a virtual channel whose input is the frame to be transmitted and the output is the side information. Turbo coding is used to generate the parity bits which are sent, gradually upon decoder requests, to correct the errors in the side information considered as a noisy version of the original frame. In this work, we implement various algorithms for distributed video coding based on turbo codes in order to approach the efficiency of conventional video encoders.

Page generated in 0.6388 seconds