• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 771
  • 245
  • 85
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1093
  • 255
  • 243
  • 239
  • 231
  • 183
  • 142
  • 110
  • 107
  • 103
  • 102
  • 99
  • 93
  • 89
  • 88
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Analysis of error functions for the iterative closest point algorithm

Babin, Philippe 06 February 2020 (has links)
Dans les dernières années, beaucoup de progrès a été fait dans le domaine des voitures autonomes. Plusieurs grandes compagnies travaillent à créer un véhicule robuste et sûr. Pour réaliser cette tâche, ces voitures utilisent un lidar pour la localisation et pour la cartographie. Iterative Closest Point (ICP)est un algorithme de recalage de points utilisé pour la cartographie basé sur les lidars. Ce mémoire explore des approches pour améliorer le minimisateur d’erreur d’ICP. La première approche est une analyse en profondeur des filtres à données aberrantes. Quatorze des filtres les plus communs (incluant les M-estimateurs) ont été testés dans différents types d’environnement, pour un total de plus de 2 millions de recalages. Les résultats expérimentaux montrent que la plupart des filtres ont des performances similaires, s’ils sont correctement paramétrés. Néanmoins, les filtres comme Var.Trim., Cauchy et Cauchy MAD sont plus stables à travers tous les types environnements testés. La deuxième approche explore les possibilités de la cartographie à grande échelle à l’aide de lidar dans la forêt boréale. La cartographie avec un lidar est souvent basée sur des techniques de Simultaneous Localization and Mapping (SLAM) utilisant un graphe de poses, celui-ci fusionne ensemble ICP, les positions Global Navigation Satellite System (GNSS) et les mesures de l’Inertial Measurement Unit (IMU). Nous proposons une approche alternative qui fusionne ses capteurs directement dans l’étape de minimisation d’ICP. Nous avons réussi à créer une carte ayant 4.1 km de tracés de motoneige et de chemins étroits. Cette carte est localement et globalement cohérente. / In recent years a lot of progress has been made in the development of self-driving cars. Multiple big companies are working on creating a safe and robust autonomous vehicle . To make this task possible, theses vehicles rely on lidar sensors for localization and mapping. Iterative Closest Point (ICP) is a registration algorithm used in lidar-based mapping. This thesis explored approaches to improve the error minimization of ICP. The first approach is an in-depth analysis of outlier filters. Fourteen of the most common outlier filters (such as M-estimators) have been tested in different types of environments, for a total of more than two million registrations. The experimental results show that most outlier filters have a similar performance if they are correctly tuned. Nonetheless, filters such as Var.Trim., Cauchy, and Cauchy MAD are more stable against different environment types. The second approach explores the possibilities of large-scale lidar mapping in a boreal forest. Lidar mapping is often based on the SLAM technique relying on pose graph optimization, which fuses the ICP algorithm, GNSS positioning, and IMU measurements. To handle those sensors directly within theICP minimization process, we propose an alternative technique of embedding external constraints. We manage to create a crisp and globally consistent map of 4.1 km of snowmobile trails and narrow walkable trails. These two approaches show how ICP can be improved through the modification of a single step of the ICP’s pipeline.
252

Digital signal processing algorithms in single-carrier optical coherent communications

Ng, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
253

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
254

Partial shape matching using CCP map and weighted graph transformation matching

Nikjoo Soukhtabandani, Ali 20 April 2018 (has links)
La détection de la similarité ou de la différence entre les images et leur mise en correspondance sont des problèmes fondamentaux dans le traitement de l'image. Pour résoudre ces problèmes, on utilise, dans la littérature, différents algorithmes d'appariement. Malgré leur nouveauté, ces algorithmes sont pour la plupart inefficaces et ne peuvent pas fonctionner correctement dans les situations d’images bruitées. Dans ce mémoire, nous résolvons la plupart des problèmes de ces méthodes en utilisant un algorithme fiable pour segmenter la carte des contours image, appelée carte des CCPs, et une nouvelle méthode d'appariement. Dans notre algorithme, nous utilisons un descripteur local qui est rapide à calculer, est invariant aux transformations affines et est fiable pour des objets non rigides et des situations d’occultation. Après avoir trouvé le meilleur appariement pour chaque contour, nous devons vérifier si ces derniers sont correctement appariés. Pour ce faire, nous utilisons l'approche « Weighted Graph Transformation Matching » (WGTM), qui est capable d'éliminer les appariements aberrants en fonction de leur proximité et de leurs relations géométriques. WGTM fonctionne correctement pour les objets à la fois rigides et non rigides et est robuste aux distorsions importantes. Pour évaluer notre méthode, le jeu de données ETHZ comportant cinq classes différentes d'objets (bouteilles, cygnes, tasses, girafes, logos Apple) est utilisé. Enfin, notre méthode est comparée à plusieurs méthodes célèbres proposées par d'autres chercheurs dans la littérature. Bien que notre méthode donne un résultat comparable à celui des méthodes de référence en termes du rappel et de la précision de localisation des frontières, elle améliore significativement la précision moyenne pour toutes les catégories du jeu de données ETHZ. / Matching and detecting similarity or dissimilarity between images is a fundamental problem in image processing. Different matching algorithms are used in literature to solve this fundamental problem. Despite their novelty, these algorithms are mostly inefficient and cannot perform properly in noisy situations. In this thesis, we solve most of the problems of previous methods by using a reliable algorithm for segmenting image contour map, called CCP Map, and a new matching method. In our algorithm, we use a local shape descriptor that is very fast, invariant to affine transform, and robust for dealing with non-rigid objects and occlusion. After finding the best match for the contours, we need to verify if they are correctly matched. For this matter, we use the Weighted Graph Transformation Matching (WGTM) approach, which is capable of removing outliers based on their adjacency and geometrical relationships. WGTM works properly for both rigid and non-rigid objects and is robust to high order distortions. For evaluating our method, the ETHZ dataset including five diverse classes of objects (bottles, swans, mugs, giraffes, apple-logos) is used. Finally, our method is compared to several famous methods proposed by other researchers in the literature. While our method shows a comparable result to other benchmarks in terms of recall and the precision of boundary localization, it significantly improves the average precision for all of the categories in the ETHZ dataset.
255

Réalisation d'une preuve de concept pour un spectromètre imageur à caméra plénoptique

Côté, Alex 23 April 2018 (has links)
Ce mémoire présente l’utilisation d’une caméra plénoptique comme détecteur d’un interféromètre à transformée de Fourier. Des algorithmes d’acquisition, de variation numérique du foyer et de télémétrie ont été développées pour le traitement des données de deux montages. Un interféromètre fixe a été utilisé pour étudier l’interaction entre les franges d’interférence dues au désalignement de l’instrument et une caméra plénoptique. Un interféromètre à transformée de Fourier a ensuite été utilisé pour obtenir des mesures télémétriques d’une scène en transmission et en réflexion dans différentes bandes spectrales. Une estimation de distance à pu être obtenue à partir de chaque bande spectrale. / This master thesis present the usage of a light field camera as a detector for a Fourier transform interferometer. An algorithm for data acquisition, numerical refocus and ranging has been develloped to process the data from two experimental setups. A fixed interferometer has been used to study the interaction between misalignement fringes from the instrument and the light field camera. A Fourier transform interferometer was then used to obtain hyperspectral ranging data from a transmissive and reflective scene. It was possible to obtain a distance estimation in each spectral band.
256

Conditions d'énonciations et stratégies d'écriture des narrations journalistiques du web : les renouvellements d'un contrat de véridicité

Béasse, Muriel 02 February 2024 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiae doctor (Ph. D.) et Université de StrasbourgStrasbourg, France / Cette thèse s’intéresse à la compréhension des transformations contemporaines de l’écriture journalistique à l’aune de la mission de vérité traditionnellement associée à cette activité. Ce mandat social idéalisé fait partie de l’imaginaire de la profession et participe à la légitimité de la pratique journalistique. Il trouve une résonance contemporaine, dans un espace public en mutation où les entreprises médiatiques et les journalistes expérimentent de nouvelles façons d’informer. La recherche porte sur des narrations journalistiques multimédias exploitant les spécificités de l’écriture numérique (webdocumentaire, scrollytelling, long format…). Notre hypothèse est que les renouvellements en jeu dans ces dispositifs d’information se négocient dans la dimension coopérative du web. La recherche s’appuie sur l’analyse d’un corpus de cinq récits produits dans les médias d’information français dans la décennie 2009-2019. Elle est complétée par des entretiens avec leurs auteurs et des acteurs de la production. En documentant une pratique émergente du webjournalisme, ce travail rend compte d’expériences d’écriture entre narrativité et numérique qui contribuent à une reformulation du contrat de véridicité du journalisme. / This thesis focuses on seeking to understand the tension between transformations in contemporary journalistic writing and the obligation of truth traditionally associated with this activity. This idealised social mandate speaks to the appeal and to the legitimacy of journalistic practice and has a strong echo in the shifting public spaces where media companies and journalists are experimenting with new ways to inform. The research focuses on multimedia journalistic narratives exploiting the specificities of digital writing (webdocumentary, scrollytelling, long format, etc.). Our hypothesis is that the changes at play in these informative devices are negotiated in the cooperative dimension of the web. The research is based on the analysis of a corpus of five stories produced in the French news media in the decade 2009-2019. It is complemented by interviews with their authors and producers. This work investigates the emergent practice of webjournalism as acts of writing in which narrative and digital modalities contribute to a reformulation of veridicity as a journalistic contract.
257

Créer un outil interactif de manière collaborative permettant de cataloguer le répertoire de clarinette basse afin de mieux répondre au besoin de la communauté artistique

Bourassa, Mélanie 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Ce projet de recherche vise à démontrer la nécessité de créer un catalogue complet et collaboratif de répertoire de clarinette basse. Aucun catalogue interactif incluant des mises à jour sur une base continue n'a été créé pour la clarinette basse. En constatant le manque d'organisation dans les catalogues actuels, je ressens l'urgence de construire un catalogue de répertoire appelé à devenir un outil de travail mondialement utilisé et reconnu. Je travaille à ce projet en collaboration avec le centre de recherche internationale sur la clarinette basse (CIRCB), avec Charles du Preez (Université d'Arizona) ainsi qu'avec de nombreux interprètes de haut niveau à travers le monde qui ont, eux aussi, besoin de recourir à un outil efficace qui facilite le partage d'informations. Des notes interprétatives seront insérées dans ce catalogue, ainsi qu'une échelle de gradation de difficulté des œuvres. De plus, lorsque disponible et pertinent, un lien vers un enregistrement sera aussi ajouté. La création de cet outil de travail se fait de façon collective et bonifiera le répertoire des interprètes autour du globe, en plus de faire connaître les œuvres émergentes. Ce projet est d'ordre autoethnographique et basé sur ma pratique personnelle ainsi que celle de mes collègues collaborateurs depuis de nombreuses années, et se veut un outil accessible à la communauté amatrice, étudiante et professionnelle qui démocratisera le répertoire actuel de clarinette basse et qui permettra de mondialiser les connaissances autour de l'instrument. Créer des liens entre le passé et le présent, éduquer et participer à l'évolution de la clarinette basse par le biais d'un travail collaboratif autour de la création d'un catalogue permettront assurément de briser un certain isolement et ultimement de démystifier davantage notre noble instrument. / This research project aims to demonstrate the need to create a complete and collaborative catalog of bass clarinet repertoire. Since the creation of the instrument, no still-used interactive catalog has been created for the bass clarinet. Noting the lack of organization in the current catalogs, I feel the urgency of building a catalog of repertoire destined to become a working tool used and recognized worldwide. I am working on this project in collaboration with the Center for International Research on the Bass Clarinet (CIRCB), with Charles du Preez (University of Arizona) as well as with many high-level performers around the world who also need to use an effective tool that facilitates the sharing of information. Interpretative notes will be inserted in this catalog, as well as a gradation of difficulty of the works. In addition, when available and relevant, a link to a recording will also be added. The creation of this tool is done collectively and will enhance the repertoire of performers around the globe, in addition to promoting emerging works. This project is autoethnographic and based on my personal practice as well as the practice of my collaborating colleagues for many years, and is intended as a tool accessible to the amateur, student and professional community which will democratize the current bass clarinet repertoire and which will allow globalizing knowledge around the instrument. Creating links between the past and the present, educating and participating in the evolution of the bass clarinet through collaborative work around the creation of a catalog will certainly break a certain isolation and ultimately demystify our noble instrument.
258

Étude de la simulation d'écoulement sanguin dans une artère sténosée

Bakkali Issaui, Halima 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 6 novembre 2023) / Le but est d'étudier l'athérosclérose comme une application de la mécanique des fluides qui porte sur l'écoulement sanguin dans une artère sténosée. Le sang et la forme de l'accumulation des graisses sur la paroi artérielle jouent un rôle fondamentale dans le comportement de l'écoulement. Pour se mettre dans le cadre mathématique, un survol sur la mécanique des fluides permet d'obtenir la formulation de Navier-Stokes que l'on résout numériquement à l'aide des schémas de projection. L'adaptation de maillage est un outil numérique performant pour un tel type de calcules. Les conditions aux limites en pression à l'entrée et à la sortie de l'artère sont plus recommandés pour ce type de problèmes, mais leurs insertion exige des espaces d'interpolation particuliers que l'on explore en parcourant la littérature correspondante.
259

La pratique du profilage commercial sur les réseaux sociaux - Solutions pour un modèle économique déséquilibré

Croce Derveau, Manon 21 September 2023 (has links)
Difficile aujourd'hui de ne pas avoir conscience du profilage qui est réalisé sur Internet et notamment sur les réseaux sociaux. Ces outils de communication et d'information ont véritablement changé le quotidien de milliards d'individus, mais les conséquences de ces pratiques se révèlent être de plus en plus préoccupantes. Ce projet de recherche est une analyse des évolutions techniques et juridiques encadrant les pratiques de profilage commercial sur les réseaux sociaux, confrontées aux enjeux économiques et sociaux qu'elles soulèvent. L'étude se propose de faire une présentation globale du cadre juridique entourant ces pratiques, d'évoquer notamment ses limites, avant de proposer d'éventuels éléments de réponses. Les pratiques existantes permettent dans un premier temps, les publicités ciblées, mais dans un second, ouvrent la porte à d'autres finalités souvent méconnues des utilisateurs de réseaux sociaux : La collecte de masse des données personnelles et leurs utilisations pour maximiser les profits des entreprises et créer une réelle asymétrie dans leur relation avec les utilisateurs. Ces derniers sont alors placés dans cette position de vulnérabilité, qui naît de l'opacité avec laquelle les organismes viennent manipuler ou échanger leurs données en permanence à leur insu. C'est donc cette situation que les législateurs tentent de rééquilibrer. Cependant, il suffit d'imaginer la mise en place d'une réelle protection de la vie privée des citoyens, face à l'aménagement de bonnes conditions pour l'exercice du commerce, pour comprendre la contradiction.
260

Vision numérique avec peu d'étiquettes : segmentation d'objets et analyse de l'impact de la pluie

Tremblay, Maxime 27 January 2024 (has links)
Un besoin ayant toujours existé dans le domaine de la vision numérique est celui d'avoir accès à des ensembles d'images annotées. Les avancements scientifiques et technologiques ont exacerbé les besoins en données étiquetées; un modèle d'apprentissage profond peut nécessiter des milliers, voire des centaines de milliers (dépendamment de la complexité du problème), d'images étiquetées. Cela peut causer un problème puisque générer de grands ensembles de données étiquetées est une tâche longue et ardue. Est-il possible de travailler en vision numérique sans avoir à collecter et étiqueter des ensembles de données de plus en plus grands ? Dans le cadre de cette thèse, nous tentons de répondre à cette question sur deux fronts différents. Premièrement, nous avons développé une approche de détection et segmentation d'objets nécessitant peu de données d'entraînement. Cette approche, inspirée des modèles par les bag-of-words, modélise l'apparence et la forme des objets de façon éparse; la modélisation de la forme se fait par l'entremise d'un nouveau descripteur de forme. Deuxièmement, nous nous sommes penchés sur le fait que certains ensembles de données sont difficilement capturables et étiquetables. Nous nous sommes concentrés sur un exemple particulier, c'est-à-dire générer un ensemble d'images de scènes extérieures avec de la pluie dont les annotations consistent au taux de précipitation (mm/h). Notre solution consiste à augmenter des images réelles avec de la pluie synthétique. Si ces images augmentées sont suffisamment réalistes, il est possible d'expérimenter sur celles-ci comme si elles étaient des images de pluie réelle. Dans nos expérimentations, nous avons évalué l'effet de la pluie sur différents algorithmes de vision numérique et nous avons augmenté la robustesse de ceux-ci sur des images contenant de la vraie pluie.

Page generated in 0.1042 seconds