431 |
Développement d’un traitement acoustique basses-fréquences à base d’écrans micro-perforés pour application aéronautiqueTebbeb, Majdi January 2017 (has links)
Les traitements acoustiques jouent un rôle important dans la réduction du bruit des avions
et doivent satisfaire de nombreuses contraintes de conception et d’exploitation. Ils sont
utilisés depuis longtemps au niveau de l’isolation. Le concept étudié dans ce projet est
basé sur l’ajout ou l’intégration d’un écran résistif ou microperforé dans les traitements
usuels à base de fibre de verre ou de mousse afin d’optimiser l’absorption des traitements
acoustiques et améliorer l’isolation en configurations double-paroi dans une bande étroite
en basses fréquences et sans la détruire en hautes fréquences. Cette étude a pour objectif
final de définir les propriétés physiques et mécaniques d’un traitement acoustique à base
d’écrans avec performance maximale pour un ajout de poids minimal. Les résultats de
cette étude visent donc à améliorer le confort des passagers dans les avions.
|
432 |
Estimation robuste de la matrice de covariance en traitement du signal / Robust covariance matrix estimation in signal processingMahot, Mélanie 06 December 2012 (has links)
De nombreuses applications de traitement de signal nécessitent la connaissance de la matrice de covariance des données reçues. Lorsqu'elle n'est pas directement accessible, elle est estimée préalablement à l'aide de données d'apprentissage. Traditionnellement, le milieu est considéré comme gaussien. L'estimateur du maximum de vraisemblance est alors la sample covariance matrix (SCM). Cependant, dans de nombreuses applications, notamment avec l'arrivée des techniques haute résolution, cette hypothèse n'est plus valable. De plus, même en milieu gaussien, il s'avère que la SCM peut-être très influencée par des perturbations (données aberrantes, données manquantes, brouilleurs...) sur les données. Dans cette thèse nous nous proposons de considérer un modèle plus général, celui des distributions elliptiques. Elles permettent de représenter de nombreuses distributions et des campagnes de mesures ont montré leur bonne adéquation avec les données réelles, dans de nombreuses applications telles que le radar ou l'imagerie hyperspectrale. Dans ce contexte, nous proposons des estimateurs plus robustes et plus adaptés : les M-estimateurs et l'estimateur du point-fixe (FPE). Leurs performances et leur robustesse sont étudiées et comparées à celles de la SCM. Nous montrons ainsi que dans de nombreuses applications, ces estimateurs peuvent remplacer très simplement la SCM, avec de meilleures performances lorsque les données sont non-gaussiennes et des performances comparables à la SCM lorsque les données sont gaussiennes. Les résultats théoriques développés dans cette thèse sont ensuite illustrés à partir de simulations puis à partir de données réels dans le cadre de traitements spatio-temporels adaptatifs. / In many signal processing applications, the covariance matrix of the received data must be known. If unknown, it is firstly estimated with some training data. Classically, the background is considered as Gaussian. In such a case, the maximum likelihood estimator is the Sample Covariance Matrix (SCM). However, due to high resolution methods or other new technics, the Gaussian assumption is not valid anymore. Moreover, even when the data are Gaussian, the SCM can be strongly influenced by some disturbances such as missing data and/or outliers. In this thesis, we use a more general model which encompasses a large panel of distributions: the elliptical distributions. Many campagns of measurement have shown that this model leads to a better modelling of the data. In this context, we present more robust and adapted estimators: the M-estimators and Fixed Point Estimator (FPE). Their properties are derived in terms of performance and robustness, and they are compared to the SCM. We show that these estimators can be used instead of the SCM with nearly the same performance when the data are Gaussian, and better performance when the data are non-Gaussian. Theoretical results are emphasized on simulations and on real data in a context of Space Time Adaptive Processing.
|
433 |
Reconnaissance d'implications textuelles à forte composante linguistique / Linguistic-Based Computational Treatment of Textual Entailment RecognitionAmoia, Marilisa 07 November 2008 (has links)
Dans cette thèse, j'étudie la manière dont les ressources lexicales basées sur l'organisation de la connaissance lexicale dans des classes qui partagent des propriétés communes (syntactiques, sémantiques, etc.) permettent le traitement automatique de la langue naturelle et en particulier la reconnaissance symbolique d'implications textuelles. Tout d'abord, je présente une approche robuste et à large couverture sur la reconnaissance de paraphrases verbales lexico-structurelle basée sur la classification de verbes anglais par Levin (1993). Puis, je montre qu'en étendant le cadre proposé par Levin pour traiter les modèles d'inférence généraux, on obtient une classification d'adjectifs anglais qui, comparée à des approches antérieures, propose une caractérisation sémantique à grain plus fin de leurs propriétés déductives. De plus, je développe un cadre sémantique compositionnel pour assigner à des adjectifs une représentation sémantique sur la base d'une approche ontologiquement variée (Hobbs, 1985) et qui permet ainsi l'inférence de premier ordre pour tous les types d'adjectifs, y compris les adjectifs extensionnels. Enfin, je présente un corpus de test pour l'inférence basée sur les adjectifs que j'ai développée comme ressource pour l'évaluation de systèmes de traitement automatique de l'inférence de la langue naturelle. / In this thesis, I investigate how lexical resources based on the organisation of lexical knowledge in classes which share common (syntactic, semantic, etc. features support natural language processing and in particular symbolic recognition of textual entailment. First, I present a robust and wide coverage approach to lexico-structural verb paraphrase recognition based on Levin's (1993) classification of English verbs. Then, I show that by extending Levin's framework to general inference patterns, a classification of English adjectives can be obtained that compared with previous approaches, provides a more fine grained semantic characterisation of their inferential properties. Further, I develop a compositional semantic framework to assign a semantic representation to adjectives based on an ontologically promiscuous approach (Hobbs, 1985) and thereby supporting first order inference for all types of adjectives including extensional ones. Finally, I present a test suite for adjectival inference I developed as a resource for the evaluation of computational systems handling natural language inference.
|
434 |
Two problems of digital image formation : recovering the camera point spread function and boosting stochastic renderers by auto-similarity filtering / Deux problèmes dans la formation des images numériques : l'estimation du noyau local de flou d'une caméra et l'accélération de rendus stochastiques par filtrage auto-similaireDelbracio, Mauricio 25 March 2013 (has links)
Cette thèse s'attaque à deux problèmes fondamentaux dans la formation des images numériques : la modélisation et l'estimation du flou introduit par une caméra numérique optique, et la génération rapide des images de synthèse photoréalistes. L'évaluation précise du flou intrinsèque d'une caméra est un problème récurrent en traitement d'image. Des progrès technologiques récents ont eu un impact significatif sur la qualité de l'image. Donc, une amélioration de la précision des procédures de calibration est impérative pour pousser plus loin cette évolution. La première partie de cette thèse présente une théorie mathématique de l'acquisition physique de l’image par un appareil photo numérique. Sur la base de cette mo\-dé\-li\-sa\-tion, deux algorithmes automatiques pour estimer le flou intrinsèque de la l’appareil sont proposés. Pour le premier, l'estimation est effectuée à partir d'une photographie d'une mire d’étallonnage spécialement conçue à cet effet. L'une des principales contributions de cette thèse est la preuve qu’une mire portant l’image d’un bruit blanc est proche de l'optimum pour estimer le noyau de flou. Le deuxième algorithme évite l'utilisation d'une mire d’étallonnage, procédure qui peut devenir un peu encombrante. En effet, nous montrons que deux photos d'une scène plane texturée, prises à deux distances différentes avec la même configuration de l’appareil photo, suffisent pour produire une estimation précise. Dans la deuxième partie de cette thèse, nous proposons un algorithme pour accélérer la synthèse d'images réalistes. Plusieurs heures, et même plusieurs jours peuvent être nécessaires pour produire des images de haute qualité. Dans un rendu typique, les pixels d'une image sont formés en établissant la moyenne de la contribution des rayons stochastiques lancés à partir d'une caméra virtuelle. Le principe d'accélération, simple mais puissant, consiste à détecter les pixels similaires en comparant leurs histogrammes de rayons et à leur faire partager leurs rayons. Les résultats montrent une accélération significative qui préserve la qualité de l’image. / This dissertation contributes to two fundamental problems of digital image formation: the modeling and estimation of the blur introduced by an optical digital camera and the fast generation of realistic synthetic images. The accurate estimation of the camera's intrinsic blur is a longstanding problem in image processing. Recent technological advances have significantly impacted on image quality. Thus improving the accuracy of calibration procedures is imperative to further push this development. The first part of this thesis presents a mathematical theory that models the physical acquisition of digital cameras. Based on this modeling, two fully automatic algorithms to estimate the intrinsic camera blur are introduced. For the first one, the estimation is performed from a photograph of a specially designed calibration pattern. One of the main contributions of this dissertation is the proof that a pattern with white noise characteristics is near optimal for the estimation purpose. The second algorithm circumvents the tedious process of using a calibration pattern. Indeed, we prove that two photographs of a textured planar scene, taken at two different distances with the same camera configuration, are enough to produce an accurate estimation. In the second part of this thesis, we propose an algorithm to accelerate realistic image synthesis. Several hours or even days may be necessary to produce high-quality images. In a typical renderer, image pixels are formed by averaging the contribution of stochastic rays cast from a virtual camera. The simple yet powerful acceleration principle consists of detecting similar pixels by comparing their ray histograms and letting them share their rays. Results show a significant acceleration while preserving image quality.
|
435 |
Approche translationnelle de la recherche sur la prise en charge des endocardites infectieusesThuny, Franck 15 November 2011 (has links)
L’endocardite infectieuse est une maladie grave dont sont victimes chaque année près de 2000 personnes en France et 17000 aux Etats-Unis. Malgré les progrès thérapeutiques, le taux de décès reste encore élevé avec des chiffres d’environ 20% pour la seule période hospitalière. Ces échecs sont en partie la conséquence d’un diagnostic souvent trop tardif et d’une évaluation pronostique insuffisante. En effet, il semble que la stratégie pour réduire la mortalité repose sur l’utilisation de nouveaux outils pour un diagnostic et une stratification du risque plus rapides, une diminution du délai d’instauration du traitement antibiotique, un transfert des patients à haut risque vers des centres médico-chirurgicaux spécialisés, des indications chirurgicales plus larges et un suivi prolongé.Depuis plusieurs années nous avons développé un programme de recherche basé sur une étroite collaboration entre les chercheurs de l’UMR 6236-CNRS et les médecins et chirurgiens des services de cardiologie et de chirurgie cardiaque. Cette thèse rapporte les résultats de cette recherche translationnelle sur la prise en charge des endocardites, synthèse de l’expérience clinique et fondamentale acquise par notre équipe. Nous avons démontré que la standardisation des processus de diagnostic et de décisions chirurgicales au sein d’une équipe multidisciplinaire permet de réduire la mortalité. Afin d’améliorer encore cette prise en charge, des innovations telles que l’utilisation de nouveaux marqueurs biologiques représente une approche importante. A partir d’une analyse du profil transcriptionnel propre à l’endocardite, nous avons pu identifier plusieurs gènes fortement impliqués dans la physiopathologie de la maladie. Ainsi, ces travaux montrent que la métalloproteinase-9 de la matrice extracellulaire, la S100A11 et l’aquaporine-9 constitueraient de nouveaux biomarqueurs pour le diagnostic et la prédiction des complications des endocardites. / Infective endocarditis is a serious disease affecting around 2000 patients in France and 17000 in the United-States. Despite therapeutic progress, in-hospital mortality remains high, around 20%. This is mainly the consequence of a too late diagnosis and insufficiencies in the risk stratification. In fact, novel perspectives on the management of endocarditis are emerging and offer a hope for decreasing the rate of residual deaths by accelerating the process of diagnosis and risk stratification, a reduction of delays of instauration of antimicrobial therapy, the rapid transfer of high-risk patients to specialised medio-surgical centres, the development of new surgical modalities, and close long-term follow-up.Since many years, we have developed, in our institution, a research program based on a close collaboration between the researchers of the UMR 6236-CNRS and the physicians and the surgeons of the Cardiology and Cardiac Surgery Departments. This thesis reports the results of this translational research on the management of endocarditis. We have demonstrated that the standardization of the diagnostic process and of the surgical indications reduces infective endocarditis-related mortality in infective endocarditis. To improve the management, innovations such as the use of new biomarkers represent a critical new approach for this disease. From a transcriptional based approach, we have identified several new genes strongly involved in the pathophysiology of infective endocarditis. Thus, our works shows that the matrix metalloproteinase-9, S100A11 and aquaporin-9 would be potential new biomarkers for the diagnosis and the prediction of complications during infective endocarditis.
|
436 |
Caractérisation du canal pour un système de transmission optique sous-marine et analyse des performances / Channel characterization and performance analysis for an underwater optical transmission systemGabriel, Chadi 24 May 2013 (has links)
Dans cette thèse, nous nous intéressons à des liens de transmission optique sans-fil utilisés dans un réseau de capteurs sous-marin. Dans un premier temps, nous étudions les propriétés optiques de l'eau de mer dans le but de définir les équations qui régissent la propagation des ondes optiques dans l'eau. Nous proposons d'utiliser le modèle d'Henyey-Greenstein à deux termes pour modéliser la diffusion d'angle et montrons qu'il décrit mieux la propagation d'ondes, comparé au modèle classique d'Henyey-Greenstein. Ensuite, nous caractérisons le canal optique sous-marin en nous basant sur des simulations de Monte Carlo et présentons la réponse impulsionnelle du canal pour différents paramètres d'émetteur-récepteur et de canal. Nous démontrons que, sauf dans le cas des eaux turbides, la dispersion temporelle du canal est négligeable sur des distances de quelques dizaines de mètres et pour des débits allant jusqu'à1Gbps. Dans un deuxième temps, nous nous intéressons aux problèmes liés à la mise en œuvre de tels liens. Nous commençons par étudier l'effet de désalignement entre l'émetteur et le récepteur, en particulier, en prenant en compte le champ de vue limité du récepteur. De plus, nous étudions le choix du photo-détecteur et aussi comparons les performances de différents schémas de modulation d'intensité en vue d'utilisation dans un système de communication optique sous-marin. Enfin, nous présentons une série des résultats que nous avons obtenus avec une maquette expérimentale dans une piscine pour valider une partie de nos résultats théoriques. / In this thesis, we consider optical wireless communication as a promising solution for high rate data transmission in power restricted underwater wireless sensor networks. A propagating light beam in seawater is subject to absorption and scattering due to the interaction with the particles within water. This practically limits the transmission range to a few tens of meters. In view of characterizing the underwater optical channel, we first study the inherent optical properties of the seawater and provide a model for underwater optical beam propagation. Concerning angle scattering, we propose to use the two-term Henyey-Greenstein model and show that it is more accurate than the commonly used Henyey-Greenstein model, especially in pure sea waters. Then, based on Monte Carlo simulations, we obtain the channel impulse response and quantify the channel time dispersion for different transmitter/receiver parameters and link distances. Through the numerical results that we present, we show that, except for highly turbid waters, the channel time dispersion can be neglected when working over moderate distances. Next, as a practical limitation, we focus on transmitter-receiver misalignment and evaluate its effect, in particular, by taking into account the limited receiver's field-of-view. Afterwards, we investigate the choice of the photo-detector, and furthermore contrast the performance of different intensity modulation techniques and discuss their suitability for use in the underwater optical communication system. Lastly, we provide a series of experimental measurement results that we have conducted inside a pool in order to validate a part of our theoretical studies.
|
437 |
Compressed sensing and dimensionality reduction for unsupervised learning / Échantillonnage compressé et réduction de dimension pour l'apprentissage non superviséBourrier, Anthony 13 May 2014 (has links)
Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé afin de réduire le coût de tâches d'apprentissage. Après avoir rappelé les bases de l'échantillonnage compressé et mentionné quelques techniques d'analyse de données s'appuyant sur des idées similaires, nous proposons un cadre de travail pour l'estimation de paramètres de mélange de densités de probabilité dans lequel les données d'entraînement sont compressées en une représentation de taille fixe. Nous instancions ce cadre sur un modèle de mélange de Gaussiennes isotropes. Cette preuve de concept suggère l'existence de garanties théoriques de reconstruction d'un signal pour des modèles allant au-delà du modèle parcimonieux usuel de vecteurs. Nous étudions ainsi dans un second temps la généralisation de résultats de stabilité de problèmes inverses linéaires à des modèles tout à fait généraux de signaux. Nous proposons des conditions sous lesquelles des garanties de reconstruction peuvent être données dans un cadre général. Enfin, nous nous penchons sur un problème de recherche approchée de plus proche voisin avec calcul de signature des vecteurs afin de réduire la complexité. Dans le cadre où la distance d'intérêt dérive d'un noyau de Mercer, nous proposons de combiner un plongement explicite des données suivi d'un calcul de signatures, ce qui aboutit notamment à une recherche approchée plus précise. / This thesis is motivated by the perspective of connecting compressed sensing and machine learning, and more particularly by the exploitation of compressed sensing techniques to reduce the cost of learning tasks. After a reminder of compressed sensing and a quick description of data analysis techniques in which similar ideas are exploited, we propose a framework for estimating probability density mixture parameters in which the training data is compressed into a fixed-size representation. We instantiate this framework on an isotropic Gaussian mixture model. This proof of concept suggests the existence of theoretical guarantees for reconstructing signals belonging to models beyond usual sparse models. We therefore study generalizations of stability results for linear inverse problems for very general models of signals. We propose conditions under which reconstruction guarantees can be given in a general framework. Finally, we consider an approximate nearest neighbor search problem exploiting signatures of the database vectors in order to save resources during the search step. In the case where the considered distance derives from a Mercer kernel, we propose to combine an explicit embedding of data followed by a signature computation step, which principally leads to a more accurate approximate search.
|
438 |
Elaboration de matériaux composites photocatalytiquement actifs pour des applications environnementales / Elaboration of photocatalytically active composite materials for environmental applicationsPaušová, Šárka 25 September 2014 (has links)
Ce travail décrit la synthèse et le comportement de nouveaux photocatalyseurs à base de dioxyde de titane utilisés pour des applications environnementales. Dans la première partie, la pertinence des composés modèles testés, le colorant acide orange 7 (AO7) et le 4-Chlorophénol (4-CP), pour des traitements photocatalytiques à base de TiO2 a été étudiée et validée. Cette étude a été centrée sur l’effet de la concentration initiale en composé et sur la vitesse d’agitation pendant la réaction photocatalytique. La deuxième partie est consacrée principalement à la synthèse et la caractérisation des suspensions de particules colloïdales de TiO2. Leur séparation puis leur récupération après le traitement étant pratiquement impossible l’immobilisation de ces particules sur des supports de type hydroxydes doubles lamellaires (HDL) a été étudiée afin de préparer un matériau composite TiO2/HDL présentant une activité photocatalytique comparable à celle du dioxyde de titane pur. Un deuxième type de composite basé sur des mélanges de TiO2/SiO2 a également été envisagé et utilisé dans la préparation de fines couches efficaces pour la photodégradation de l’hexane. Enfin, le comportement photocatalytique d’HDL pur à base de zinc et de chrome, sans addition de TiO2, a également été étudié et est présenté dans la partie finale de cette thèse. Les matériaux préparés ont été caractérisés par différentes analyses chimiques, diffraction et fluorescence des rayons X, microscopie électronique à transmission et à balayage, spectroscopie IR à transformé de Fourier, analyse thermogravimétrique, mesure du potentiel Zeta, diffusion de la lumière, mesure d’adsorption N2. Les différents matériaux ont été testés photocatalytiquement via la photo-Oxydation en solution aqueuse de l’acide orange 7 (AO7), du 4-Chlorophénol (4-CP) ou du bleu de méthylène à différents pH. L’activité photocatalytique du matériau composite à base de TiO2/SiO2 sous forme de film fin a été évaluée en phase gaz en présence d’hexane. / This work describes the behaviour and fabrication of new photocatalysts based on titaniumdioxide for the purpose of environmental applications. It consists of five closely connectedparts. In the first part the suitability of chosen model compounds, azo dye Acid Orange 7(AO7) and 4-Chlorophenol (4-CP), for photocatalytic activity assessment of TiO2 was studied.This study was focused on the effect of different initial concentrations of model compoundand different rates of stirring during photocatalytic reaction. The second part then focusedmainly on the synthesis and characterization of aqueous colloidal suspensions of TiO2. Theseparation of TiO2 particles in the form of colloidal suspensions and their regeneration afterthe reaction, while keeping the same photocatalytic properties, is almost not possible.Therefore, it was necessary to find an appropriate method how to immobilize these particleson the support or in the form of composite. The layered double hydroxides (LDH) werechosen as one of suitable supports for TiO2 photocatalyst. The focus was kept on thepreparation of TiO2/LDH composites with the same or higher photocatalytic activity as purecolloidal titanium dioxide. The second chosen type of composite was based on twocomponentTiO2/SiO2 material and these composites were used for the preparation of thinlayers. Photocatalytic behaviour of pure LDHs and their possible use as photocatalyst withoutTiO2 addition was also studied and described in a final part of this work. Prepared materials were characterized by chemical analysis, X-Ray diffraction andflorescence, transmition electron microscopy, scanning electron microscopy, Fouriertransform infrared spectroscopy, thermogravimetric analysis, dynamic light scattering, zetapotential measurement and N2 adsorption. As another step, materials were tested asphotocatalyst by the photooxidation of Acid Orange 7, 4-Chlorophenol and Methylene Blue indifferent pH in aqueous medium. Photocatalytic activity of TiO2/SiO2 composites in the formof thin films was tested in gaseous phase using hexane as a model pollutant. It was found that quantum yields of 4-CP degradation for all prepared alkaline colloidalsuspensions of TiO2 were lower than those obtained for acidic TiO2 colloidal suspensions. Inthe contrary to the quantum yield of acidic TiO2, the quantum yield of alkaline suspensionsdecreased during the aging. Prepared TiO2/Mg2Al1.5 nanocomposites exhibited higherphotocatalytic activity than the original TiO2 in basic conditions and also it was much easierto recover the photocatalyst after reaction by simple sedimentation. In the case of TiO2/SiO2composites, it was found that composite prepared with TiO2:SiO2 ratio 1:1 has higherphotocatalytic activity in aqueous media than starting pure TiO2 but with increasing SiO2content reaction rate of AO7 degradation decreases. Thin layers of TiO2:SiO2 compositeprepared from simultaneously co-Precipitated particles (they have improved crystallinity inrelation to pure TiO2) are able to photocatalyticaly degrade hexane. In the case of pure LDH,it was proved that even noncalcined Zn2CrCO3 LDH can produce HO• radicals. However,mixed oxides (containing ZnO) prepared by LDH calcination at temperatures higher than500°C, showed higher efficiency.
|
439 |
Flicker Removal and Color Correction for High Speed Videos / Dé-flicker et Correction colorimétrique temps-réel pour les vidéos haute vitesseKanj, Ali 07 July 2017 (has links)
Le deflickering consiste à supprimer le scintillement présent dans les séquences d’images afin de réduire les variations lumineuses entre chacune des images de la vidéo. Il s’agit d’une tâche essentielle, nécessaire dans plusieurs applications, en particulier dans les séquences de films archivés, les vidéos comprimées et les vidéos time-lapse. Au cours de ces dernières années, avec le développement des technologies d’acquisition à haute vitesse, il y a eu un regain d’intérêt pour le problème de suppression de flicker, en particulier le flicker périodique. Dans ce contexte, le flicker correspond à des variations indésirables de luminosité et des couleurs dues à l’interaction entre la vitesse d’acquisition d’une part, et d’autre part le courant alternatif alimentant les sources lumineuses. La présente thèse formule le problème du déflickering périodique dans les vidéos à haute vitesse, étudie les propriétés physiques du flicker et propose à la fois des solutions théoriques et expérimentales pour sa suppression des séquences d’images. Enfin, une nouvelle approche est proposée permettant d’effectuer simultanément le suivi de mouvement et la correction des couleurs / Deflickering consists of removing rapid, artifactual changes of luminosity and colorimetry from image sequences and improving luminosity consistency between video frames. It is a necessary and fundamental task in multiple applications, for instance in archived film sequences, compressed videos and time-lapse videos. In recent years, there has been a renewal of interest for improving luminosity consistency acquisition technology in the flicker removal problem, in particular for periodic flickering. In this context, flicker corresponds to undesirable intensity and chroma variations due to the interaction between the acquisition frequencies on the one hand, and the alternating current powering the light sources on the other hand. The present thesis formulates the periodic deflickering problem in high speed videos, studies the physical properties of flicker and suggests both theoretical and experimental solutions for its removal from image sequences. Finally, a new flicker removal approach is proposed performing jointly motion tracking and color correction
|
440 |
Applications des grandes matrices aléatoires aux traitements du signal de grandes dimensions / Applications of large random matrix to high dimensional statistical signalprocessingPham, Gia-Thuy 28 February 2017 (has links)
A definir / A definir
|
Page generated in 0.0821 seconds