• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 679
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1051
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 143
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

New algorithms for the analysis of live-cell images acquired in phase contrast microscopy

Juneau, Pierre-Marc 23 April 2018 (has links)
La détection et la caractérisation automatisée des cellules constituent un enjeu important dans de nombreux domaines de recherche tels que la cicatrisation, le développement de l'embryon et des cellules souches, l’immunologie, l’oncologie, l'ingénierie tissulaire et la découverte de nouveaux médicaments. Étudier le comportement cellulaire in vitro par imagerie des cellules vivantes et par le criblage à haut débit implique des milliers d'images et de vastes quantités de données. Des outils d'analyse automatisés reposant sur la vision numérique et les méthodes non-intrusives telles que la microscopie à contraste de phase (PCM) sont nécessaires. Comme les images PCM sont difficiles à analyser en raison du halo lumineux entourant les cellules et de la difficulté à distinguer les cellules individuelles, le but de ce projet était de développer des algorithmes de traitement d'image PCM dans Matlab® afin d’en tirer de l’information reliée à la morphologie cellulaire de manière automatisée. Pour développer ces algorithmes, des séries d’images de myoblastes acquises en PCM ont été générées, en faisant croître les cellules dans un milieu avec sérum bovin (SSM) ou dans un milieu sans sérum (SFM) sur plusieurs passages. La surface recouverte par les cellules a été estimée en utilisant un filtre de plage de valeurs, un seuil et une taille minimale de coupe afin d'examiner la cinétique de croissance cellulaire. Les résultats ont montré que les cellules avaient des taux de croissance similaires pour les deux milieux de culture, mais que celui-ci diminue de façon linéaire avec le nombre de passages. La méthode de transformée par ondelette continue combinée à l’analyse d'image multivariée (UWT-MIA) a été élaborée afin d’estimer la distribution de caractéristiques morphologiques des cellules (axe majeur, axe mineur, orientation et rondeur). Une analyse multivariée réalisée sur l’ensemble de la base de données (environ 1 million d’images PCM) a montré d'une manière quantitative que les myoblastes cultivés dans le milieu SFM étaient plus allongés et plus petits que ceux cultivés dans le milieu SSM. Les algorithmes développés grâce à ce projet pourraient être utilisés sur d'autres phénotypes cellulaires pour des applications de criblage à haut débit et de contrôle de cultures cellulaires. / Automated cell detection and characterization is important in many research fields such as wound healing, embryo development, immune system studies, cancer research, parasite spreading, tissue engineering, stem cell research and drug research and testing. Studying in vitro cellular behavior via live-cell imaging and high-throughput screening involves thousands of images and vast amounts of data, and automated analysis tools relying on machine vision methods and non-intrusive methods such as phase contrast microscopy (PCM) are a necessity. However, there are still some challenges to overcome, since PCM images are difficult to analyze because of the bright halo surrounding the cells and blurry cell-cell boundaries when they are touching. The goal of this project was to develop image processing algorithms to analyze PCM images in an automated fashion, capable of processing large datasets of images to extract information related to cellular viability and morphology. To develop these algorithms, a large dataset of myoblasts images acquired in live-cell imaging (in PCM) was created, growing the cells in either a serum-supplemented (SSM) or a serum-free (SFM) medium over several passages. As a result, algorithms capable of computing the cell-covered surface and cellular morphological features were programmed in Matlab®. The cell-covered surface was estimated using a range filter, a threshold and a minimum cut size in order to look at the cellular growth kinetics. Results showed that the cells were growing at similar paces for both media, but their growth rate was decreasing linearly with passage number. The undecimated wavelet transform multivariate image analysis (UWT-MIA) method was developed, and was used to estimate cellular morphological features distributions (major axis, minor axis, orientation and roundness distributions) on a very large PCM image dataset using the Gabor continuous wavelet transform. Multivariate data analysis performed on the whole database (around 1 million PCM images) showed in a quantitative manner that myoblasts grown in SFM were more elongated and smaller than cells grown in SSM. The algorithms developed through this project could be used in the future on other cellular phenotypes for high-throughput screening and cell culture control applications.
442

Influence of complex environments on LiDAR-Based robot navigation

Michaud, Sébastien 24 April 2018 (has links)
La navigation sécuritaire et efficace des robots mobiles repose grandement sur l’utilisation des capteurs embarqués. L’un des capteurs qui est de plus en plus utilisé pour cette tâche est le Light Detection And Ranging (LiDAR). Bien que les recherches récentes montrent une amélioration des performances de navigation basée sur les LiDARs, faire face à des environnements non structurés complexes ou des conditions météorologiques difficiles reste problématique. Dans ce mémoire, nous présentons une analyse de l’influence de telles conditions sur la navigation basée sur les LiDARs. Notre première contribution est d’évaluer comment les LiDARs sont affectés par les flocons de neige durant les tempêtes de neige. Pour ce faire, nous créons un nouvel ensemble de données en faisant l’acquisition de données durant six précipitations de neige. Une analyse statistique de ces ensembles de données, nous caractérisons la sensibilité de chaque capteur et montrons que les mesures de capteurs peuvent être modélisées de manière probabilistique. Nous montrons aussi que les précipitations de neige ont peu d’influence au-delà de 10 m. Notre seconde contribution est d’évaluer l’impact de structures tridimensionnelles complexes présentes en forêt sur les performances d’un algorithme de reconnaissance d’endroits. Nous avons acquis des données dans un environnement extérieur structuré et en forêt, ce qui permet d’évaluer l’influence de ces derniers sur les performances de reconnaissance d’endroits. Notre hypothèse est que, plus deux balayages laser sont proches l’un de l’autre, plus la croyance que ceux-ci proviennent du même endroit sera élevée, mais modulé par le niveau de complexité de l’environnement. Nos expériences confirment que la forêt, avec ses réseaux de branches compliqués et son feuillage, produit plus de données aberrantes et induit une chute plus rapide des performances de reconnaissance en fonction de la distance. Notre conclusion finale est que, les environnements complexes étudiés influencent négativement les performances de navigation basée sur les LiDARs, ce qui devrait être considéré pour développer des algorithmes de navigation robustes. / To ensure safe and efficient navigation, mobile robots heavily rely on their ability to use on-board sensors. One such sensor, increasingly used for robot navigation, is the Light Detection And Ranging (LiDAR). Although recent research showed improvement in LiDAR-based navigation, dealing with complex unstructured environments or difficult weather conditions remains problematic. In this thesis, we present an analysis of the influence of such challenging conditions on LiDAR-based navigation. Our first contribution is to evaluate how LiDARs are affected by snowflakes during snowstorms. To this end, we create a novel dataset by acquiring data during six snowfalls using four sensors simultaneously. Based on statistical analysis of this dataset, we characterized the sensitivity of each device and showed that sensor measurements can be modelled in a probabilistic manner. We also showed that falling snow has little impact beyond a range of 10 m. Our second contribution is to evaluate the impact of complex of three-dimensional structures, present in forests, on the performance of a LiDAR-based place recognition algorithm. We acquired data in structured outdoor environment and in forest, which allowed evaluating the impact of the environment on the place recognition performance. Our hypothesis was that the closer two scans are acquired from each other, the higher the belief that the scans originate from the same place will be, but modulated by the level of complexity of the environments. Our experiments confirmed that forests, with their intricate network of branches and foliage, produce more outliers and induce recognition performance to decrease more quickly with distance when compared with structured outdoor environment. Our conclusion is that falling snow conditions and forest environments negatively impact LiDAR-based navigation performance, which should be considered to develop robust navigation algorithms.
443

Data-driven covariance estimation for the iterative closest point algorithm

Landry, David 06 May 2019 (has links)
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article. / Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
444

Développement d'algorithmes de Plasmode longitudinaux pour l'évaluation d'approches d'ajustement pour la confusion et illustration pour l'étude de l'effet d'une exposition cumulée aux stresseurs psychosociaux au travail

Souli, Youssra 01 February 2021 (has links)
Le biais de confusion peut affecter tous les types d’études d’observation. Il apparaît lorsque la caractéristique étudiée est associée à un facteur de perturbation complémentaire et que ce dernier fait croire à l’existence d’une relation de cause à effet entre la caractéristique étudiée et l’issue. Des méthodes d’ajustement pour le biais de confusion, notamment les modèles structurels marginaux, peuvent être utilisées pour corriger ce type de biais. Ces modèles n’ont toutefois été utilisés qu’une seule fois pour l'étude de l’effet d’une exposition cumulative aux stresseurs psychosociaux au travail sur la pression artérielle. L’objectif principal de ce mémoire était de comparer différents estimateurs des paramètres d’un modèle structurel marginal à des approches classiques. Nous avons considéré les estimateurs par pondération inverse de la probabilité de traitement, le calcul-g, le maximum de vraisemblance ciblé avec et sans SuperLearner. Ces estimateurs ont d’abord été utilisés pour estimer l’effet d’une exposition cumulée aux stresseurs psychosociaux au travail sur la pression artérielle systolique dans le cadre d’une étude de cohorte prospective de 5 ans. Cette analyse a révélé des différences significatives entre les estimateurs. Puisqu’il s’agit de données réelles, il est toutefois impossible de déterminer quelle méthode produit les résultats les plus valides. Pour répondre à cette question, nous avons développé deux algorithmes de simulation de données longitudinales de type Plasmode, l’un utilisant des modèles paramétriques et l’autre utilisant des approches non paramétriques. Les simulations Plasmode combinent des données réelles et des données synthétiques pour étudier les propriétés dans un contexte connu, mais similaire au contexte réel. Au vue des résultats, nous avons conclu que les modèles structurels marginaux représentent des approches pertinentes pour estimer l’effet des stresseurs psychosociaux au travail. Nous recommandons particulièrement d’utiliser la méthode de maximum de vraisemblance ciblé avec et sans SuperLearner. Cependant, cela nécessite un effort supplémentaire en termes d’implantation de code et de temps d’exécution.
445

Material handling optimization in warehousing operations

Chabot, Thomas 29 August 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019. / Les activités de distribution et d’entreposage sont des piliers importants de la chaîne d’approvisionnement. Ils assurent la stabilité du flux de matières et la synchronisation de toutes les parties prenantes du réseau. Un centre de distribution (CD) agit comme un point de découplage entre l’approvisionnement, la production et les ventes. La distribution comprend un large éventail d’activités visant à assurer la satisfaction de la demande. Ces activités passent de la réception au stockage des produits finis ou semi-finis, à la préparation des commandes et à la livraison. Les opérations d’un CD sont maintenant perçues comme des facteurs critiques d’amélioration. Elles sont responsables de la satisfaction d’un marché en évolution, exigeant des délais de livraison toujours plus rapides et plus fiables, des commandes exactes et des produits hautement personnalisés. C’est pourquoi la recherche en gestion des opérations met beaucoup d’efforts sur le problème de gestion des CDs. Depuis plusieurs années, nous avons connu de fortes avancées en matière d’entreposage et de préparation de commandes. L’activité de préparation de commandes est le processus consistant à récupérer les articles à leur emplacement de stockage afin d’assembler des commandes. Ce problème a souvent été résolu comme une variante du problème du voyageur de commerce, où l’opérateur se déplace à travers les allées de l’entrepôt. Cependant, les entrepôts modernes comportent de plus en plus de familles de produits ayant des caractéristiques très particulières rendant les méthodes conventionnelles moins adéquates. Le premier volet de cette thèse par articles présente deux importants et complexes problèmes de manutention des produits lors de la préparation des commandes. Le problème de préparation des commandes a été largement étudié dans la littérature au cours des dernières décennies. Notre recherche élargit le spectre de ce problème en incluant un ensemble de caractéristiques associées aux installations physiques de la zone de prélèvement, comme les allées étroites, et aux caractéristiques des produits (poids, volume, catégorie, fragilité, etc.). Une perspective plus appliquée à la réalité des opérations est utilisée dans notre développement d’algorithmes. Les déplacements liés à la préparation des commandes sont fortement influencés par le positionnement des produits. La position des produits dans la zone de prélèvement est déterminée par une stratégie d’affectation de stockage (storage assignment strategy). Beaucoup de ces stratégies utilisent de l’information sur les ventes des produits afin de faciliter l’accès aux plus populaires. Dans l’environnement concurrentiel d’aujourd’hui, la durée de vie rentable d’un produit peut être relativement courte. Des promotions peuvent également être faites pour pousser différents produits sur le marché. Le positionnement fourni par la stratégie d’hier ne sera probablement plus optimal aujourd’hui. Il existe plusieurs études mesurant l’impact d’une bonne réaffectation de produits sur les opérations de prélèvement. Cependant, ils étudient la différence des performances avec les positionnements passés et actuels. La littérature démontre clairement que cela apporte des avantages en termes d’efficacité. Toutefois, les déplacements nécessaires pour passer d’une position à une autre peuvent constituer une activité très exigeante. Ceci constitue le second volet de cette thèse qui présente des avancées intéressantes sur le problème de repositionnement des produits dans la zone de prélèvement. Nous présentons le problème de repositionnement des produits sous une forme encore peu étudiée aux meilleurs de nos connaissances : le problème de repositionnement. Plus précisément, nous étudions la charge de travail requise pour passer d’une configuration à l’autre. Cette thèse est structuré comme suit. L’introduction présente les caractéristiques et les missions d’un système de distribution. Le chapitre 1 fournit un survol de la littérature sur les principales fonctions d’un centre de distribution et met l’accent sur la préparation des commandes et les décisions qui affectent cette opération. Le chapitre 2 est consacré à l’étude d’un problème de préparation de commandes en allées étroites avec des équipements de manutention contraignants. Dans le chapitre 3, nous étudions un problème de préparation des commandes où les caractéristiques des produits limitent fortement les routes de prélèvement. Le chapitre 4 présente une variante du problème de repositionnement (reassignment) avec une formulation originale pour le résoudre. La conclusion suit et résume les principales contributions de cette thèse. Mots clés : Préparation des commandes, entreposage, problèmes de routage, algorithmes exacts et heuristiques, réaffectation des produits, manutention. / Distribution and warehousing activities are important pillars to an effective supply chain. They ensure the regulation of the operational flow and the synchronization of all actors in the network. Hence, distribution centers (DCs) act as crossover points between the supply, the production and the demand. The distribution includes a wide range of activities to ensure the integrity of the demand satisfaction. These activities range from the reception and storage of finished or semi-finished products to the preparation of orders and delivery. Distribution has been long seen as an operation with no or low added value; this has changed, and nowadays it is perceived as one of the critical areas for improvement. These activities are responsible for the satisfaction of an evolving market, requiring ever faster and more reliable delivery times, exact orders and highly customized products. This leads to an increased research interest on operations management focused on warehousing. For several years, we have witnessed strong advances in warehousing and order picking operations. The order picking activity is the process of retrieving items within the storage locations for the purpose of fulfilling orders. This problem has long been solved as a variant of the travelling salesman problem, where the order picker moves through aisles. However, modern warehouses with more and more product families may have special characteristics that make conventional methods irrelevant or inefficient. The first part of this thesis presents two practical and challenging material handling problems for the order picking within DCs. Since there are many research axes in the field of warehousing operations, we concentrated our efforts on the order picking problem and the repositioning of the products within the picking area. The order picking problem has been intensively studied in the literature. Our research widens the spectrum of this problem by including a set of characteristics associated with the physical facilities of the picking area and characteristics of the product, such as its weight, volume, category, fragility, etc. This means that a more applied perspective on the reality of operations is used in our algorithms development. The order picking workload is strongly influenced by the positioning of the products. The position of products within the picking area is determined by a storage assignment strategy. Many of these strategies use product sales information in order to facilitate access to the most popular items. In today’s competitive environment, the profitable lifetime of a product can be relatively short. The positioning provided by yesterday’s assignment is likely not the optimal one in the near future. There are several studies measuring the impact of a good reassignment of products on the picking operations. However, they study the difference between the two states of systems on the picking time. It is clear that this brings benefits. However, moving from one position to another is a very workload demanding activity. This constitutes the second part of this thesis which presents interesting advances on the repositioning of products within the picking area. We introduce the repositioning problem as an innovative way of improving performance, in what we call the reassignment problem. More specifically, we study the workload required to move from one setup to the next. This thesis is structured as follows. The introduction presents the characteristics and missions of a distribution system. Chapter 1 presents an overview of the literature on the main functions of a DC and emphasizes on order picking and decisions affecting this operation. Chapter 2 is devoted to the study of a picking problem with narrow aisles facilities and binding material handling equipment. In Chapter 3, we study the picking problem with a set of product features that strongly constrain the picking sequence. Chapter 4 presents a variant of the reassignment problem with a strong and new formulation to solve it. The conclusion follows and summarizes the main contributions of this thesis. Key words: Order-picking, warehousing, routing problems, exact and heuristic algorithms, products reassignment, material handling.
446

VisionLib NexGen : design et implémentation d'une nouvelle architecture pour une librairie de vision numérique

Morin-Rivest, Yannick 18 April 2018 (has links)
Optel Vision est une compagnie produisant des systèmes d'inspection par vision artificielle pour l'industrie pharmaceutique, nutraceutique et cosmétique. Ces systèmes possèdent une architecture matérielle et logicielle interagissant ensemble. Les algorithmes de vision sont une librairie faisant partie de l'ensemble logiciel. Cette dernière contient l'ensemble des structures et des algorithmes de vision construits à l'interne se nommant VisionLib. Cette librarie possède déjà quelques années et son architecture limite maintenant le développement de certaines spécifications importantes ainsi que de nouvelles applications que l'entreprise aimerait ajouter à son porte-folio. Ce mémoire présentera l'approche utilisée afin de créer la nouvelle architecture de la librairie de vision en optimisant la parallélisation des algorithmes de manière automatique, en développement en système plus ouvert et facilement configurable, en facilitant le débogage interne, et finalement en minimisant le temps de développement d'une nouvelle analyse vision
447

Calage robuste et accéléré de nuages de points en environnements naturels via l'apprentissage automatique

Latulippe, Maxime 19 April 2018 (has links)
En robotique mobile, un élément crucial dans la réalisation de la navigation autonome est la localisation du robot. En utilisant des scanners laser, ceci peut être réalisé en calant les nuages de points consécutifs. Pour ce faire, l’utilisation de points de repères appelés descripteurs sont généralement efficaces, car ils permettent d’établir des correspondances entre les nuages de points. Cependant, nous démontrons que dans certains environnements naturels, une proportion importante d’entre eux peut ne pas être fiable, dégradant ainsi les performances de l’alignement. Par conséquent, nous proposons de filtrer les descripteurs au préalable afin d’éliminer les nuisibles. Notre approche consiste à utiliser un algorithme d’apprentissage rapide, entraîné à la volée sous le paradigme positive and unlabeled learning sans aucune intervention humaine nécessaire. Les résultats obtenus montrent que notre approche permet de réduire significativement le nombre de descripteurs utilisés tout en augmentant la proportion de descripteurs fiables, accélérant et augmentant ainsi la robustesse de l’alignement. / Localization of a mobile robot is crucial for autonomous navigation. Using laser scanners, this can be facilitated by the pairwise alignment of consecutive scans. For this purpose, landmarks called descriptors are generally effective as they facilitate point matching. However, we show that in some natural environments, many of them are likely to be unreliable. The presence of these unreliable descriptors adversely affects the performances of the alignment process. Therefore, we propose to filter unreliable descriptors as a prior step to alignment. Our approach uses a fast machine learning algorithm, trained on-the-fly under the positive and unlabeled learning paradigm without the need for human intervention. Our results show that the number of descriptors can be significantly reduced, while increasing the proportion of reliable ones, thus speeding up and improving the robustness of the scan alignment process.
448

Algorithmes et processeurs temps réel de traitement de signaux neuronaux pour une plateforme optogénétique sans fil

Gagnon-Turcotte, Gabriel 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / L’acquisition des signaux électriques provenant des neurones du cerveau permet aux neurobiologistes de mieux comprendre son fonctionnement. Dans le cadre de ce travail, de nouveaux algorithmes de compression des signaux neuronaux sont conçus et présentés. Ces nouveaux algorithmes sont incorporés dans trois nouveaux dispositifs optogénétiques sans fil miniature capable de stimuler optiquement l’activité neuronale et de transmettre sans fil les biopotentiels captés par plusieurs microélectrodes. Deux de ces systèmes sont capables de compresser les signaux provenant de deux microélectrodes ainsi que de stimuler optiquement via deux diodes électroluminescentes (DEL) haute puissance. Afin de réduire la bande passante des transmetteurs sans fil utilisés, ces deux systèmes sont dotés d’un nouvel algorithme de détection des potentiels d’actions qui génère de meilleurs taux de détection que les algorithmes existants, tout en nécessitant moins de ressources matérielles et de temps de processeur. Un troisième dispositif incorporant les algorithmes de détection et de compression fût conçu. Ce dispositif est le seul système optogénétique sans fil comportant 32 canaux de stimulation optique et 32 canaux d’enregistrement électrophysiologiques en parallèle. Il utilise une nouvelle technique de compression par ondelettes permettant d’augmenter significativement le nombre de canaux sous observation sans augmenter la consommation de l’émetteurrécepteur. Cette nouvelle méthode de compression se distingue des méthodes existantes en atteignant de meilleurs taux de compression tout en permettant de reconstruire les signaux compressés avec une meilleure qualité. Au moment de la rédaction de ce mémoire, il s’agit des premiers dispositifs optogénétiques sans fil à offrir simultanément de la stimulation optique multicanal, de l’enregistrement électrophysiologique multicanal ainsi que de la détection/compression in situ des potentiels d’actions. Grâce à leur design novateur et aux innovations apportées par les nouveaux algorithmes de traitement des signaux, les systèmes conçus sont plus légers et plus compacts que les systèmes précédents, rendant ces dispositifs indispensables afin de mener des expériences sur le cerveau de petits animaux libres de leurs mouvements. Les trois systèmes ont été validés avec grand succès par des expériences in vivo sur des souris transgéniques au Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ). / The electrical signals acquisition from the brain’s neurons allows neuroscientists to better understand its functioning. In this work, new neural signals compression algorithms are designed and presented. These new algorithms are incorporated into three new miniature optogenetic wireless devices. These devices are capable to optically stimulate neural activity and to wirelessly transmit the biopotentials captured by several microelectrodes. Two of these systems are able to compress the signals from two microelectrodes and to stimulate optically via two high-power LED. Both systems feature a new spike detection algorithm to reduce the bandwidth used by the wireless transceiver. This new spike detection algorithm differs from existing algorithms by achieving better detection rate while using less material resources and processing time. A third device incorporating the detection and compression algorithms was designed. This device is the only optogenetic wireless system including 32 optical stimulation channels and 32 electrophysiological recording channels in parallel. This new system has the ability to compress the neural signals using a new wavelet compression technique that significantly increase the number of channels under observation without increasing the consumption of the wireless transceiver. In particular, this new compression technique differs from the existing wavelet based compression methods by achieving better compression ratio while allowing to reconstruct the compressed signals with better quality. At the time of writing this thesis, these are the first three devices that offer simultaneous multichannel optical stimulation, multichannel electrophysiological signals recording and on-the-fly spike detection. The resulting systems are more compact and lightweight than previous systems, making these devices essentials to conduct long term experiments on the brains of small freely moving animals. The three systems were validated within in vivo experiments using transgenic mice at the Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
449

Codage vidéo distribué utilisant les turbo codes

Haj Taieb, Mohamed 19 April 2018 (has links)
La charge de traitement de la compression vidéo est généralement assurée au niveau de l’émetteur dans les standards conventionnels de codage vidéo (MPEG, H.263, H.264/AVC [1]). Ce choix est dû au fait que l’émetteur dispose d’une connaissance totale de la source lui permettant d’assurer facilement et efficacement la compression. En outre, les applications habituelles de la transmission vidéo assurent un flux d’une station centralisée, disposant d’une capacité calculatoire élevée, vers un certain nombre de récepteurs. La charge de compression est ainsi effectuée une seule fois par une station adaptée à ce fait. Avec l’accroissement de l’interactivité de la téléphonie mobile, les abonnés sont en mesure d’émettre des séquences vidéo autant que d’en recevoir. Le flux vidéo est alors généré par le téléphone mobile à capacité limitée vers une station de base à capacité élevée. La compression ne peut se faire selon le schéma conventionnel et la complexité de la compression doit être transférée au décodeur. Les résultats théoriques de Slepian-Wolf [2] et leur extension par les travaux de Wyner-Ziv [3] pour le cas de codage avec perte et en présence d’information latérale constituent les bases théoriques du codage de sources distribuées. Ces résultats théoriques ont donné naissance à un vaste champ d’applications comme le récent paradigme de codage vidéo distribué, établi il y a juste quelques années. Dans cette thèse de doctorat, on présente une étude des divers systèmes de codage vidéo distribué dans le domaine pixel et dans le domaine transformé. Le décodeur exploite la corrélation entre la séquence à transmettre par le codeur et l’information latérale dont il dispose. Cette corrélation se traduit par un canal virtuel dont l’entrée est la trame à transmettre et la sortie est l’information latérale. Un code turbo est utilisé pour générer des bits de parité envoyés progressivement sous la demande du décodeur, pour corriger les erreurs de l’information latérale qui constitue une version bruitée de la trame originale. Dans ce travail, on implémente différents algorithmes de codage vidéo distribué basés sur les turbocodes dans le but de s’approcher des performances de la compression vidéo conventionnelle. / Most of the video compression processing is usually performed at the transmitter in the conventional video coding standards (MPEG, H.263, H.264/AVC [1]). This choice is due to the fact that the transmitter has full knowledge of its source to ensure easy and efficient compression. In addition, the usual applications of video transmission ensure a flow from a centralized station, with a higher computational capacity, to a number of receivers. The compression task is thus performed only once by a computationally adapted station. However, with the emergence of wireless surveillance locally distributed cameras, the growth of cellular interactive video applications as well as many other applications involving several low cost video encoders at the expense of high complexity central decoder, the compression task can no longer be handled by the encoder and thus the compression complexity should be transferred to the decoder. Slepian and Wolf information theoretical result on lossless coding for correlated distributed sources [2] and its extension to the lossy source coding case with side information at the decoder, as introduced by Wyner and Ziv [3], constitute the theoretical basis of distributed source coding. These theoretical concepts have given birth to a wide field of applications as the recent distributed video coding paradigm, established a few years ago. In this doctoral thesis, we present a study of various distributed video coding schemes in the pixel and transform domains. The decoder exploits the correlation between the video sequence to be transmitted by the encoder and the side information. This correlation can be seen as a virtual channel whose input is the frame to be transmitted and the output is the side information. Turbo coding is used to generate the parity bits which are sent, gradually upon decoder requests, to correct the errors in the side information considered as a noisy version of the original frame. In this work, we implement various algorithms for distributed video coding based on turbo codes in order to approach the efficiency of conventional video encoders.
450

Predictive representations for sequential decision making under uncertainty

Boularias, Abdeslam 17 April 2018 (has links)
La prise de décision est un problème omniprésent qui survient dés qu'on fait face à plusieurs choix possibles. Ce problème est d'autant plus complexe lorsque les décisions, ou les actions, doivent être prise d'une manière séquentielle. En effet, l'exécution d'une action à un moment donné entraîne un changement à l'environnement, ou au système qu'on veut contrôler, et un tel changement ne peut pas être prévu avec certitude. Le but d'un processus de prise de décision consiste alors à choisir des actions en vue de se comporter d'une manière optimale dans un environnement incertain. Afin d'y parvenir, l'environnement est souvent modélisé comme un système dynamique à plusieurs états, et les actions sont choisies d'une telle manière à ramener le système vers un état désirable. Dans le cadre de cette thèse, nous avons proposé un ensemble de modèles stochastiques et d'algorithmes, afin d'améliorer la qualité du processus de prise de décision sous l'incertain. Les modèles développés sont une alternative aux Processus Décisionnels de Markov (MDPs), un cadre formel largement utilisé pour ce genre de problèmes. En particulier, nous avons montré que l'état d'un système dynamique peut être représenté d'une manière plus concise lorsqu'il est décrit en termes de prédictions de certains événements dans le futur. Nous avons aussi montré que le processus cognitif même du choix d'actions, appelé politique, peut être vu comme un système dynamique. Partant de cette observation, nous avons proposé une panoplie d'algorithmes, tous basés sur des représentations prédictives de politiques, pour résoudre différents problèmes de prise de décision, tels que la panification décentralisée, l'apprentissage par renforcement, ou bien encore l'apprentissage par imitation. Nous avons montré analytiquement et empiriquement que les approches proposées mènent à des réductions de la complexité de calcul et à une amélioration de la qualité des solutions par rapport aux approches d'apprentissage et de planification standards.

Page generated in 0.0526 seconds