• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 772
  • 245
  • 85
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1094
  • 255
  • 243
  • 239
  • 231
  • 183
  • 142
  • 110
  • 107
  • 103
  • 102
  • 100
  • 93
  • 90
  • 88
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Augmentation de la profondeur de champs par encoddage du front d'onde

Desaulniers, Pierre 13 April 2018 (has links)
Une augmentation de la profondeur de champs d'un système d'analyse cytologique par introduction d'un masque de phase couplé à un traitement numérique des images est proposée. La conception et l'optimisation des paramètres d'un masque de phase cubique ont été faites à l'aide du logiciel de conception optique Zemax®. Les masques de phase optimisés ont été réalisés selon 2 méthodes de fabrication. L'algorithme de traitement d'image par déconvolution ainsi que l'ajustement des pas de discrétisation des spectres nécessaires à ce traitement sont aussi démontrés dans ce mémoire. Finalement, les images résultantes présentent une profondeur de champs 20 fois plus grande que celle du système initial. / This thesis displays an extension of the depth of field of a cytologic System by introduction of a phase mask coupled with post-digital image processing. The phase masks parameters have been optimized using the Zemax® optical design software. The optimized cubic phase masks were fabricated using two different methods. An analysis of the fabricated phase masks and their performances are shown. The image processing deconvolution algorithm and the resulting depth extended images are also presented in this thesis. Finally, the depth of field of the cytologic System has been extended by 20 times.
272

Analysis of error functions for the iterative closest point algorithm

Babin, Philippe 06 February 2020 (has links)
Dans les dernières années, beaucoup de progrès a été fait dans le domaine des voitures autonomes. Plusieurs grandes compagnies travaillent à créer un véhicule robuste et sûr. Pour réaliser cette tâche, ces voitures utilisent un lidar pour la localisation et pour la cartographie. Iterative Closest Point (ICP)est un algorithme de recalage de points utilisé pour la cartographie basé sur les lidars. Ce mémoire explore des approches pour améliorer le minimisateur d’erreur d’ICP. La première approche est une analyse en profondeur des filtres à données aberrantes. Quatorze des filtres les plus communs (incluant les M-estimateurs) ont été testés dans différents types d’environnement, pour un total de plus de 2 millions de recalages. Les résultats expérimentaux montrent que la plupart des filtres ont des performances similaires, s’ils sont correctement paramétrés. Néanmoins, les filtres comme Var.Trim., Cauchy et Cauchy MAD sont plus stables à travers tous les types environnements testés. La deuxième approche explore les possibilités de la cartographie à grande échelle à l’aide de lidar dans la forêt boréale. La cartographie avec un lidar est souvent basée sur des techniques de Simultaneous Localization and Mapping (SLAM) utilisant un graphe de poses, celui-ci fusionne ensemble ICP, les positions Global Navigation Satellite System (GNSS) et les mesures de l’Inertial Measurement Unit (IMU). Nous proposons une approche alternative qui fusionne ses capteurs directement dans l’étape de minimisation d’ICP. Nous avons réussi à créer une carte ayant 4.1 km de tracés de motoneige et de chemins étroits. Cette carte est localement et globalement cohérente. / In recent years a lot of progress has been made in the development of self-driving cars. Multiple big companies are working on creating a safe and robust autonomous vehicle . To make this task possible, theses vehicles rely on lidar sensors for localization and mapping. Iterative Closest Point (ICP) is a registration algorithm used in lidar-based mapping. This thesis explored approaches to improve the error minimization of ICP. The first approach is an in-depth analysis of outlier filters. Fourteen of the most common outlier filters (such as M-estimators) have been tested in different types of environments, for a total of more than two million registrations. The experimental results show that most outlier filters have a similar performance if they are correctly tuned. Nonetheless, filters such as Var.Trim., Cauchy, and Cauchy MAD are more stable against different environment types. The second approach explores the possibilities of large-scale lidar mapping in a boreal forest. Lidar mapping is often based on the SLAM technique relying on pose graph optimization, which fuses the ICP algorithm, GNSS positioning, and IMU measurements. To handle those sensors directly within theICP minimization process, we propose an alternative technique of embedding external constraints. We manage to create a crisp and globally consistent map of 4.1 km of snowmobile trails and narrow walkable trails. These two approaches show how ICP can be improved through the modification of a single step of the ICP’s pipeline.
273

Méthodes semi-analytiques en vibration non linéaire

Mottard, Patrick 17 April 2018 (has links)
Cet ouvrage traite des vibrations non linéaires pour un système discret à un degré de liberté. Deux types d'équations différentielles non linéaires sont étudiés. Il s'agit de l'équation de type polynomiale et l'équation à tronçons linéaires. L'équation différentielle polynomiale utilise les différentes puissances du déplacement et de la vitesse afin de représenter la raideur et l'amortissement. L'équation à tronçons linéaires est quant à elle définie par de multiples segments de droites. Deux types de problèmes sont considérés, soit le problème de la résolution de l'équation différentielle et le problème de l'identification de cette dernière à partir de mesures expérimentales. Pour les deux types d'équations différentielles à l'étude, des méthodes de résolution et d'identification sont développées. Les méthodes de résolution des deux équations différentielles sont issues de méthodes analytiques déjà existantes dans la documentation scientifique. Par contre, ces méthodes sont ici résolues de manière numérique, d'où l'appellation «méthodes semi-analytiques». L'identification de l'équation polynomiale se base sur la méthode des moindres carrés alors que la méthode d'identification de l'équation à tronçons linéaires est construite spécifiquement pour cette forme d'équation. Une étude expérimentale est conduite sur trois systèmes différents afin d'explorer la viabilité pratique des méthodes d'identification des paramètres. Ces trois systèmes utilisent le comportement non linéaire d'une mousse synthétique, des poutres à grande déformation et des poutres à grande déformation asymétriques.
274

Segmentation d'un patron de lumière structurée : vision 3D active et codée utilisant la lumière blanche

Paradis, Nicolas 17 April 2018 (has links)
Les capteurs basés sur la lumière structurée codée prennent une ampleur grandissante dans le domaine de la numérisation 3D. Ce type de capteur permet une numérisation plus rapide de la surface d'un objet comparativement aux capteurs laser ou aux systèmes de palpage (i.e. numérisation avec contact). De plus, les capteurs fonctionnant par la projection d'une seule trame offrent la possibilité de numériser des scènes en mouvement, ce qui est un avantage indéniable sur la majorité des capteurs commercialisés depuis quelques années. Le projet de recherche traité dans ce mémoire a été réalisé dans le cadre du développement d'un capteur basé sur la lumière blanche structurée, conçu par l'équipe de vision 3D du Laboratoire de Vision et Systèmes Numériques de l'Université Laval. Un tel capteur utilise un projecteur afin de projeter un patron de lumière codée sur la scène. Ce patron se déforme au contact de la surface et sa réflexion est captée par une caméra. Cette déformation permet de déduire la profondeur de la surface et ainsi calculer la position de points 3D représentant la surface de l'objet. Le rôle de ce mémoire est de développer et implanter un algorithme de segmentation d'images qui a comme objectif d'extraire le patron de la scène. Les images acquises par le capteur sont traitées en utilisant une approche basée sur les arêtes pour détecter les primitives contenue dans le patron. Chacune de ces primitives encode un symbole formant un mot codé. Le but de l'algorithme est donc de déterminer la position et l'étiquette (i.e. la valeur du symbole) associées à ces primitives. L'apparence de la scène complique cette tâche, car les propriétés de la surface (e.g. texture, déformations géométriques, type de matériaux) peuvent interférer avec la réflexion du patron. Par exemple, un objet de couleur foncée réfléchira très peu la lumière projetée, tandis qu'une surface géométriquement complexe déformera le patron, pouvant rendre les symboles flous et difficiles à détecter. La robustesse de l'algorithme face à ces défis est analysée et nous soulevons les limitations d'une telle approche de segmentation.
275

Digital signal processing algorithms in single-carrier optical coherent communications

Ng, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
276

Créer un outil interactif de manière collaborative permettant de cataloguer le répertoire de clarinette basse afin de mieux répondre au besoin de la communauté artistique

Bourassa, Mélanie 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Ce projet de recherche vise à démontrer la nécessité de créer un catalogue complet et collaboratif de répertoire de clarinette basse. Aucun catalogue interactif incluant des mises à jour sur une base continue n'a été créé pour la clarinette basse. En constatant le manque d'organisation dans les catalogues actuels, je ressens l'urgence de construire un catalogue de répertoire appelé à devenir un outil de travail mondialement utilisé et reconnu. Je travaille à ce projet en collaboration avec le centre de recherche internationale sur la clarinette basse (CIRCB), avec Charles du Preez (Université d'Arizona) ainsi qu'avec de nombreux interprètes de haut niveau à travers le monde qui ont, eux aussi, besoin de recourir à un outil efficace qui facilite le partage d'informations. Des notes interprétatives seront insérées dans ce catalogue, ainsi qu'une échelle de gradation de difficulté des œuvres. De plus, lorsque disponible et pertinent, un lien vers un enregistrement sera aussi ajouté. La création de cet outil de travail se fait de façon collective et bonifiera le répertoire des interprètes autour du globe, en plus de faire connaître les œuvres émergentes. Ce projet est d'ordre autoethnographique et basé sur ma pratique personnelle ainsi que celle de mes collègues collaborateurs depuis de nombreuses années, et se veut un outil accessible à la communauté amatrice, étudiante et professionnelle qui démocratisera le répertoire actuel de clarinette basse et qui permettra de mondialiser les connaissances autour de l'instrument. Créer des liens entre le passé et le présent, éduquer et participer à l'évolution de la clarinette basse par le biais d'un travail collaboratif autour de la création d'un catalogue permettront assurément de briser un certain isolement et ultimement de démystifier davantage notre noble instrument. / This research project aims to demonstrate the need to create a complete and collaborative catalog of bass clarinet repertoire. Since the creation of the instrument, no still-used interactive catalog has been created for the bass clarinet. Noting the lack of organization in the current catalogs, I feel the urgency of building a catalog of repertoire destined to become a working tool used and recognized worldwide. I am working on this project in collaboration with the Center for International Research on the Bass Clarinet (CIRCB), with Charles du Preez (University of Arizona) as well as with many high-level performers around the world who also need to use an effective tool that facilitates the sharing of information. Interpretative notes will be inserted in this catalog, as well as a gradation of difficulty of the works. In addition, when available and relevant, a link to a recording will also be added. The creation of this tool is done collectively and will enhance the repertoire of performers around the globe, in addition to promoting emerging works. This project is autoethnographic and based on my personal practice as well as the practice of my collaborating colleagues for many years, and is intended as a tool accessible to the amateur, student and professional community which will democratize the current bass clarinet repertoire and which will allow globalizing knowledge around the instrument. Creating links between the past and the present, educating and participating in the evolution of the bass clarinet through collaborative work around the creation of a catalog will certainly break a certain isolation and ultimately demystify our noble instrument.
277

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
278

Étude de la simulation d'écoulement sanguin dans une artère sténosée

Bakkali Issaui, Halima 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 6 novembre 2023) / Le but est d'étudier l'athérosclérose comme une application de la mécanique des fluides qui porte sur l'écoulement sanguin dans une artère sténosée. Le sang et la forme de l'accumulation des graisses sur la paroi artérielle jouent un rôle fondamentale dans le comportement de l'écoulement. Pour se mettre dans le cadre mathématique, un survol sur la mécanique des fluides permet d'obtenir la formulation de Navier-Stokes que l'on résout numériquement à l'aide des schémas de projection. L'adaptation de maillage est un outil numérique performant pour un tel type de calcules. Les conditions aux limites en pression à l'entrée et à la sortie de l'artère sont plus recommandés pour ce type de problèmes, mais leurs insertion exige des espaces d'interpolation particuliers que l'on explore en parcourant la littérature correspondante.
279

Description incrémentale d'objets déformables dans des séquences vidéo

Drouin, Stéphane 13 April 2018 (has links)
Cette thèse propose une méthode pour la description incrémentale d'objets formés de plusieurs parties en mouvement observées dans des séquences vidéo. La principale contribution de ce travail est l'automatisation de la modélisation incrémentale des objets en mouvement. L'approche proposée permet l'initialisation entièrement automatique des modèles. Puisque cette opération n'est plus distincte, la topologie des modèles n'a pas à être connue à l'avance et les objets observés n'ont pas à être segmentés correctement à un instant prédéterminé. Afin de décrire automatiquement les mouvements d'un objet déformable, les parties rigides qui le composent sont segmentées selon leur déplacement dans les images. Un algorithme de segmentation combinant le mouvement des points d'intérêt et le déplacement de patrons d'arêtes est proposé afin de rendre les résultats moins dépendants de la texture présente dans les images. De plus, l'utilisation de la mesure de quantité de mouvement est introduite afin d'assurer une certaine indépendance face à l'échelle temporelle. La segmentation n'est activée que localement, quand les parties existantes ne peuvent plus être suivies correctement. Les parties ainsi segmentées sont automatiquement intégrées dans un modèle formé de parties rigides qui est ensuite utilisé pour le suivi de l'objet. La gestion des occultations de même que la création et la validation de modèles articulés sont toutes deux réalisées lors du suivi. Cette approche permet d'intégrer l'initialisation des modèles et leur suivi dans une boucle de rétroaction entre la segmentation et le suivi. Une mémoire des modèles favorise l'émergence des meilleurs modèles en renforçant ceux qui sont souvent réobservés et en pénalisant les autres. Les objets qui peuvent être représentés par cette nouvelle approche sont composés de parties rigides et ils sont déformables. Dans ce contexte, la déformation d'un objet est définie comme un déplacement relatif de ses parties. Des exemples montrent l'application du système sur des objets manufacturés composés d'une ou de plusieurs parties, des personnes et des personnes qui transportent des objets.
280

Interactions haptiques de simulation à l'aide de CyberGloves

Du Tremblay, Charles 16 April 2018 (has links)
No description available.

Page generated in 0.0762 seconds