• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 87
  • 35
  • 20
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 189
  • 189
  • 117
  • 60
  • 56
  • 49
  • 47
  • 47
  • 40
  • 39
  • 29
  • 23
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Blind Acoustic Feedback Cancellation for an AUV

Frick, Hampus January 2023 (has links)
SAAB has developed an autonomous underwater vehicle that can mimic a conventional submarine for military fleets to exercise anti-submarine warfare. The AUV actively emits amplified versions of received sonar pulses to create the illusion of being a larger object. To prevent acoustic feedback, the AUV must distinguish between the sound to be actively responded to and its emitted signal. This master thesis has examined techniques aimed at preventing the AUV from responding to previously emitted signals to avoid acoustical feedback, without relying on prior knowledge of either the received signal or the signal emitted by the AUV. The two primary types of algorithms explored for this problem include blind source separation and adaptive filtering. The adaptive filters based on Leaky Least Mean Square and Kalman have shown promising results in attenuating the active response from the received signal. The adaptive filters utilize the fact that a certain hydrophone primarily receives the active response. This hydrophone serves as an estimate of the active response since the signal it captures is considered unknown and is to be removed. The techniques based on blind source separation have utilized the recordings of three hydrophones placed at various locations of the AUV to separate and estimate the received signal from the one emitted by the AUV. The results have demonstrated that neither of the reviewed methods is suitable for implementation on the AUV. The hydrophones are situated at a considerable distance from each other, resulting in distinct time delays between the reception of the two signals. This is usually referred to as a convolutive mixture. This is commonly solved using the frequency domain to transform the convolutive mixture to an instantaneous mixture. However, the fact that the signals share the same frequency spectrum and are adjacent in time has proven highly challenging.
132

Sinbad Automation Of Scientific Process: From Hidden Factor Analysis To Theory Synthesis

Kursun, Olcay 01 January 2004 (has links)
Modern science is turning to progressively more complex and data-rich subjects, which challenges the existing methods of data analysis and interpretation. Consequently, there is a pressing need for development of ever more powerful methods of extracting order from complex data and for automation of all steps of the scientific process. Virtual Scientist is a set of computational procedures that automate the method of inductive inference to derive a theory from observational data dominated by nonlinear regularities. The procedures utilize SINBAD – a novel computational method of nonlinear factor analysis that is based on the principle of maximization of mutual information among non-overlapping sources (Imax), yielding higherorder features of the data that reveal hidden causal factors controlling the observed phenomena. One major advantage of this approach is that it is not dependent on a particular choice of learning algorithm to use for the computations. The procedures build a theory of the studied subject by finding inferentially useful hidden factors, learning interdependencies among its variables, reconstructing its functional organization, and describing it by a concise graph of inferential relations among its variables. The graph is a quantitative model of the studied subject, capable of performing elaborate deductive inferences and explaining behaviors of the observed variables by behaviors of other such variables and discovered hidden factors. The set of Virtual Scientist procedures is a powerful analytical and theory-building tool designed to be used in research of complex scientific problems characterized by multivariate and nonlinear relations.
133

Speech Intelligibility in Radio Broadcasts : A Case Study Using Dynamic Range Control and Blind Source Separation

Linder Nilsson, Martin January 2022 (has links)
Creating the optimal balance between dialogue level and ambient sound is extremely important in media productions. This process is however inherently difficult due to that people’s requirements and preferences are not uniform. Speech intelligibility is affected by a multitude of factors, such as hearing impairments, audio quality and listening equipment. Recent EU directives on accessibility calls for improved audio clarity features for broadcast content. To accommodate these requirements, the broadcast industry needs to develop functionality for enhanced dialogue clarity and, optimally, put listeners in control of these features. Many speech enhancement techniques exist, this paper uses Sveriges Radio as a case study to evaluate several of these methods. A study on enhancing speech intelligibility through the use of dynamic range control and blind source separation is presented and results show that both methods can have a positive impact. Dynamic range control proves efficient in increasing intelligibility by reducing dynamic variations. It is also well suited to implement in an existing two-channel infrastructure, common in the radio industry, due to being included in novel audio codecs. Blind source separation is found to best be used in moderation due to the risk of audio quality degradation, and is primarily suited for prerecorded material on account of the processing time needed. / Att skapa en optimal balans mellan dialognivå och bakgrundsljud är oerhört viktigt i medieproduktioner. Detta är dock i sig komplicerat på grund av människors olika förutsättningar och preferenser. Taluppfattbarheten påverkas av en mängd faktorer, såsom hörselnedsättningar, ljudkvalitet och lyssningsutrustning. Nya EU-direktiv om tillgänglighet ställer krav på förbättrade funktioner för ljudtydlighet i etermedia. För att tillgodose dessa krav behöver branschen utveckla funktionalitet för ökad dialogtydlighet och företrädesvis också stöd för att lyssnarna själva ska kunna styra dessa funktioner. Det finns många tekniker för att öka taluppfattbarheten, denna artikel använder Sveriges Radio som fallstudie för att utvärdera flera av dessa metoder. En studie om möjligheten till förbättrad taluppfattbarhet genom kontroll av ljudets dynamik (dynamic range control) och blindkallseparation (blind source separation) presenteras, och resultaten visar att båda metoderna kan ha en positiv inverkan. Dynamisk kontroll visar sig vara effektiv för att öka taluppfattbarheten genom att jämna ut dynamiskt innehåll. Tekniken lämpar sig också bra för implementering i en befintlig tvåkanals-infrastruktur, vilket är vanligt inom radioindustrin, på grund av att den inkluderas i nya ljud-kodekar. Blindkallseparation används bäst med måtta på grund av risk for ljudkvalitetsförsämring och är i första hand lämpad för förinspelat material på grund av den processeringstid som behövs.
134

An improved adaptive filtering approach for removing artifact from the electroencephalogram

Estepp, Justin Ronald 02 June 2015 (has links)
No description available.
135

RFI Mitigation and Discrete Digital Signal Processing RFSoC Algorithm Implementations for Radio Astronomy and Wideband Communication Systems

Ward, Devon Christopher 28 March 2024 (has links) (PDF)
Due to the massive increase of active transmitters broadcasting over wideband frequencies, such as 5G wireless systems, LEO/MEO satellites, satellite constellations, and the increase of IoT devices in the average home, the radio frequency spectrum is becoming more and more congested by interference. Passive receivers face additional challenges due to the growing use of wideband frequency transmissions aimed at boosting communication system throughput. As a result, passive receivers must adopt more robust and intricate techniques to mitigate radio frequency interference. A proposed RFI removal system, known as the true time delay Hadamard projection algorithm, has been introduced in previous work to eliminate a single RFI source while preserving a narrowband signal of interest. An RF frontend is developed to assess the effectiveness of the Hadamard projection algorithm implemented on an RFSoC ZCU216. Additionally, the TTD Hadamard projection algorithm is expanded to enable the cancellation of multiple RFI sources rather than just a single source for a uniform linear array and a uniform rectangular array. Over-the-air tests are conducted to verify the performance of the interference cancellation algorithms and demonstrate the algorithms' ability to preserve the signals of interest while removing the wideband interference. Multiple algorithms are proposed to estimate the time delays used by the interference cancellation algorithm to effectively eliminate wideband interference. These algorithms address diverse scenarios encompassing interference sources ranging from strong to weak SNR. Detailed reports of algorithm performance provide insights into their effectiveness and suitability across specific interference conditions.
136

Contributions à la localisation et à la séparation de sources / Contributions to source localization and separation

Boudjellal, Abdelouahab 17 September 2015 (has links)
Les premières recherches en détection, localisation et séparation de signaux remontent au début du 20ème siècle. Ces recherches sont d’actualité encore aujourd’hui, notamment du fait de la croissance rapide des systèmes de communications constatée ces deux dernières décennies. Par ailleurs, la littérature du domaine consacre très peu d’études relatives à certains contextes jugés difficiles dont certains sont traités dans cette thèse. Ce travail porte sur la localisation de signaux par détection des temps d’arrivée ou estimation des directions d’arrivée et sur la séparation de sources dépendantes ou à module constant. L’idée principale est de tirer profit de certaines informations a priori disponibles sur les signaux sources telles que la parcimonie, la cyclostationarité, la non-circularité, le module constant, la structure autoregressive et les séquences pilote dans un contexte coopératif. Une première partie détaille trois contributions : (i) un nouveau détecteur pour l’estimation des temps d’arrivée basé sur la minimisation de la probabilité d’erreur ; (ii) une estimation améliorée de la puissance du bruit, basée sur les statistiques d’ordre ; (iii) une quantification de la précision et de la résolution de l’estimation des directions d’arrivée au regard de certains a priori considérés sur les sources. Une deuxième partie est consacrée à la séparation de sources exploitant différentes informations sur celles-ci : (i) la séparation de signaux de communication à module constant ; (ii) la séparation de sources dépendantes connaissant la nature de la dépendance et (iii) la séparation de sources autorégressives dépendantes connaissant la structure autorégressive. / Signal detection, localization, and separation problems date back to the beginning of the twentieth century. Nowadays, this subject is still a hot topic receiving more and more attention, notably with the rapid growth of wireless communication systems that arose in the last two decades and it turns out that many challenging aspects remain poorly addressed by the available literature relative to this subject. This thesis deals with signal detection, localization using temporal or directional measurements, and separation of dependent source signals. The main objective is to make use of some available priors about the source signals such as sparsity, cyclo-stationarity, non-circularity, constant modulus, autoregressive structure or training sequences in a cooperative framework. The first part is devoted to the analysis of (i) signal’s time-of-arrival estimation using a new minimum error rate based detector, (ii) noise power estimation using an improved order-statistics estimator and (iii) side information impact on direction-of-arrival estimation accuracy and resolution. In the second part, the source separation problem is investigated at the light of different priors about the original sources. Three kinds of prior have been considered : (i) separation of constant modulus communication signals, (ii) separation of dependent source signals knowing their dependency structure and (iii) separation of dependent autoregressive sources knowing their autoregressive structure.
137

Integration of magnetic resonance spectroscopic imaging into the radiotherapy treatment planning / Intégration des cartes métaboliques d'imagerie spectroscopique à la planification de radiothérapie

Laruelo Fernandez, Andrea 24 May 2016 (has links)
L'objectif de cette thèse est de proposer de nouveaux algorithmes pour surmonter les limitations actuelles et de relever les défis ouverts dans le traitement de l'imagerie spectroscopique par résonance magnétique (ISRM). L'ISRM est une modalité non invasive capable de fournir la distribution spatiale des composés biochimiques (métabolites) utilisés comme biomarqueurs de la maladie. Les informations fournies par l'ISRM peuvent être utilisées pour le diagnostic, le traitement et le suivi de plusieurs maladies telles que le cancer ou des troubles neurologiques. Cette modalité se montre utile en routine clinique notamment lorsqu'il est possible d'en extraire des informations précises et fiables. Malgré les nombreuses publications sur le sujet, l'interprétation des données d'ISRM est toujours un problème difficile en raison de différents facteurs tels que le faible rapport signal sur bruit des signaux, le chevauchement des raies spectrales ou la présence de signaux de nuisance. Cette thèse aborde le problème de l'interprétation des données d'ISRM et la caractérisation de la rechute des patients souffrant de tumeurs cérébrales. Ces objectifs sont abordés à travers une approche méthodologique intégrant des connaissances a priori sur les données d'ISRM avec une régularisation spatio-spectrale. Concernant le cadre applicatif, cette thèse contribue à l'intégration de l'ISRM dans le workflow de traitement en radiothérapie dans le cadre du projet européen SUMMER (Software for the Use of Multi-Modality images in External Radiotherapy) financé par la Commission européenne (FP7-PEOPLE-ITN). / The aim of this thesis is to propose new algorithms to overcome the current limitations and to address the open challenges in the processing of magnetic resonance spectroscopic imaging (MRSI) data. MRSI is a non-invasive modality able to provide the spatial distribution of relevant biochemical compounds (metabolites) commonly used as biomarkers of disease. Information provided by MRSI can be used as a valuable insight for the diagnosis, treatment and follow-up of several diseases such as cancer or neurological disorders. Obtaining accurate and reliable information from in vivo MRSI signals is a crucial requirement for the clinical utility of this technique. Despite the numerous publications on the topic, the interpretation of MRSI data is still a challenging problem due to different factors such as the low signal-to-noise ratio (SNR) of the signals, the overlap of spectral lines or the presence of nuisance components. This thesis addresses the problem of interpreting MRSI data and characterizing recurrence in tumor brain patients. These objectives are addressed through a methodological approach based on novel processing methods that incorporate prior knowledge on the MRSI data using a spatio-spectral regularization. As an application, the thesis addresses the integration of MRSI into the radiotherapy treatment workflow within the context of the European project SUMMER (Software for the Use of Multi-Modality images in External Radiotherapy) founded by the European Commission (FP7-PEOPLE-ITN framework).
138

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.
139

Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsie

Hofmanis, Janis 20 November 2013 (has links) (PDF)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
140

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.

Page generated in 0.0931 seconds