• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Cartographie de l'occupation des sols à partir de séries temporelles d'images satellitaires à hautes résolutions : identification et traitement des données mal étiquetées / Land cover mapping by using satellite image time series at high resolutions : identification and processing of mislabeled data

Pelletier, Charlotte 11 December 2017 (has links)
L'étude des surfaces continentales est devenue ces dernières années un enjeu majeur à l'échelle mondiale pour la gestion et le suivi des territoires, notamment en matière de consommation des terres agricoles et d'étalement urbain. Dans ce contexte, les cartes d'occupation du sol caractérisant la couverture biophysique des terres émergées jouent un rôle essentiel pour la cartographie des surfaces continentales. La production de ces cartes sur de grandes étendues s'appuie sur des données satellitaires qui permettent de photographier les surfaces continentales fréquemment et à faible coût. Le lancement de nouvelles constellations satellitaires - Landsat-8 et Sentinel-2 - permet depuis quelques années l'acquisition de séries temporelles à hautes résolutions. Ces dernières sont utilisées dans des processus de classification supervisée afin de produire les cartes d'occupation du sol. L'arrivée de ces nouvelles données ouvre de nouvelles perspectives, mais questionne sur le choix des algorithmes de classification et des données à fournir en entrée du système de classification. Outre les données satellitaires, les algorithmes de classification supervisée utilisent des échantillons d'apprentissage pour définir leur règle de décision. Dans notre cas, ces échantillons sont étiquetés, \ie{} la classe associée à une occupation des sols est connue. Ainsi, la qualité de la carte d'occupation des sols est directement liée à la qualité des étiquettes des échantillons d'apprentissage. Or, la classification sur de grandes étendues nécessite un grand nombre d'échantillons, qui caractérise la diversité des paysages. Cependant, la collecte de données de référence est une tâche longue et fastidieuse. Ainsi, les échantillons d'apprentissage sont bien souvent extraits d'anciennes bases de données pour obtenir un nombre conséquent d'échantillons sur l'ensemble de la surface à cartographier. Cependant, l'utilisation de ces anciennes données pour classer des images satellitaires plus récentes conduit à la présence de nombreuses données mal étiquetées parmi les échantillons d'apprentissage. Malheureusement, l'utilisation de ces échantillons mal étiquetés dans le processus de classification peut engendrer des erreurs de classification, et donc une détérioration de la qualité de la carte produite. L'objectif général de la thèse vise à améliorer la classification des nouvelles séries temporelles d'images satellitaires à hautes résolutions. Le premier objectif consiste à déterminer la stabilité et la robustesse des méthodes de classification sur de grandes étendues. Plus particulièrement, les travaux portent sur l'analyse d'algorithmes de classification et la sensibilité de ces algorithmes vis-à-vis de leurs paramètres et des données en entrée du système de classification. De plus, la robustesse de ces algorithmes à la présence des données imparfaites est étudiée. Le second objectif s'intéresse aux erreurs présentes dans les données d'apprentissage, connues sous le nom de données mal étiquetées. Dans un premier temps, des méthodes de détection de données mal étiquetées sont proposées et étudiées. Dans un second temps, un cadre méthodologique est proposé afin de prendre en compte les données mal étiquetées dans le processus de classification. L'objectif est de réduire l'influence des données mal étiquetées sur les performances de l'algorithme de classification, et donc d'améliorer la carte d'occupation des sols produite. / Land surface monitoring is a key challenge for diverse applications such as environment, forestry, hydrology and geology. Such monitoring is particularly helpful for the management of territories and the prediction of climate trends. For this purpose, mapping approaches that employ satellite-based Earth Observations at different spatial and temporal scales are used to obtain the land surface characteristics. More precisely, supervised classification algorithms that exploit satellite data present many advantages compared to other mapping methods. In addition, the recent launches of new satellite constellations - Landsat-8 and Sentinel-2 - enable the acquisition of satellite image time series at high spatial and spectral resolutions, that are of great interest to describe vegetation land cover. These satellite data open new perspectives, but also interrogate the choice of classification algorithms and the choice of input data. In addition, learning classification algorithms over large areas require a substantial number of instances per land cover class describing landscape variability. Accordingly, training data can be extracted from existing maps or specific existing databases, such as crop parcel farmer's declaration or government databases. When using these databases, the main drawbacks are the lack of accuracy and update problems due to a long production time. Unfortunately, the use of these imperfect training data lead to the presence of mislabeled training instance that may impact the classification performance, and so the quality of the produced land cover map. Taking into account the above challenges, this Ph.D. work aims at improving the classification of new satellite image time series at high resolutions. The work has been divided into two main parts. The first Ph.D. goal consists in studying different classification systems by evaluating two classification algorithms with several input datasets. In addition, the stability and the robustness of the classification methods are discussed. The second goal deals with the errors contained in the training data. Firstly, methods for the detection of mislabeled data are proposed and analyzed. Secondly, a filtering method is proposed to take into account the mislabeled data in the classification framework. The objective is to reduce the influence of mislabeled data on the classification performance, and thus to improve the produced land cover map.
82

Modèles graphiques pour la classification et les séries temporelles / Graphical models for classification and time series

Jebreen, Kamel 28 September 2017 (has links)
Dans cette thèse nous nous intéressons aux méthodes de classifications supervisées utilisant les réseaux bayésiens. L'avantage majeur de ces méthodes est qu'elles peuvent prendre en compte les interactions entre les variables explicatives. Dans une première partie nous proposons une procédure de discrétisation spécifique et une procédure de sélection de variables qui permettent d'améliorer considérablement les classifieurs basés sur des réseaux bayésiens. Cette procédure a montré de très bonnes performances empiriques sur un grand choix de jeux de données connus de l’entrepôt d'apprentissage automatique (UCI Machine Learning repository). Une application pour la prévision de type d’épilepsie à partir de de caractéristiques des patients extraites des images de Tomographie par émission de positrons (TEP) confirme l’efficacité de notre approche comparé à des approches communes de classifications supervisées. Dans la deuxième partie de cette thèse nous nous intéressons à la modélisation des interactions entre des variables dans le contexte de séries chronologiques en grande dimension. Nous avons proposé deux nouvelles approches. La première, similaire à la technique "neighborhood Lasso" remplace la technique Lasso par des machines à vecteurs de supports. La deuxième approche est un réseau bayésien restreint: les variables observées à chaque instant et à l’instant précédent sont utilisées dans un réseau dont la structure est restreinte. Nous montrons l’efficacité de ces approches par des simulations utilisant des donnés simulées issues de modèles linéaires, non-linéaires et un mélange des deux. / First, in this dissertation, we will show that Bayesian networks classifiers are very accurate models when compared to other classical machine learning methods. Discretising input variables often increase the performance of Bayesian networks classifiers, as does a feature selection procedure. Different types of Bayesian networks may be used for supervised classification. We combine such approaches together with feature selection and discretisation to show that such a combination gives rise to powerful classifiers. A large choice of data sets from the UCI machine learning repository are used in our experiments, and the application to Epilepsy type prediction based on PET scan data confirms the efficiency of our approach. Second, in this dissertation we also consider modelling interaction between a set of variables in the context of time series and high dimension. We suggest two approaches; the first is similar to the neighbourhood lasso where the lasso model is replaced by Support Vector Machines (SVMs); the second is a restricted Bayesian network for time series. We demonstrate the efficiency of our approaches simulations using linear and nonlinear data set and a mixture of both.
83

Modélisation de séries temporelles multidimensionnelles. Application à l'évaluation générique et automatique du geste sportif / Multidimensional time-series averaging. Application to automatic and generic evaluation of sport gestures

Morel, Marion 07 November 2017 (has links)
Qu'il tente de prévenir la chute d'une personne âgée, de traduire la langue des signes ou de contrôler un humain virtuel, l'analyse de gestes est un vaste domaine de recherche qui s'attelle à reconnaître, classifier, segmenter, indexer ou encore évaluer différents types de mouvements. Cependant, peu de travaux se concentrent sur cette dernière approche d'évaluation. Ce travail de thèse propose de mettre en place un outil d’évaluation automatique et générique d’un geste sportif, reposant sur l’utilisation d’une base de données de gestes experts acquis via un système de capture de mouvements. Afin d’extraire un mouvement de référence, l’algorithme de déformation temporelle dynamique (DTW) est considéré pour aligner puis moyenner les gestes. Les méthodes d’alignements et de moyennage de séries temporelles se confrontant aux conséquences néfastes de chemins de déformation du DTW pathologiques, des contraintes locales sont ajoutées et donnent lieu à un nouvel algorithme appelé CDBA. La qualité d’un geste est estimée spatialement et temporellement à chaque instant et pour chaque membre par comparaison avec le geste de référence et pondérée par la dispersion des données expertes autour de ce geste moyen. Le processus ainsi mis en place est validé à partir de gestes de karaté et de tennis annotés par des entraîneurs. Un premier prototype d’outil d’entraînement en ligne est finalement proposé et laisse entrevoir les potentialités d’usage qui pourraient être menées à la suite de ce travail. / Either to reduce falling risks in elderly people, to translate the sign language or to control a virtual human being, gesture analysis is thriving research field that aims at recognizing, classifying, segmenting, indexing and evaluating different types of motions. As few studies tackle the evaluation process, this PhD focuses on the design of an autonomous system for the generic evaluation of sport-related gestures. The tool is trained on the basis of experts’ motions recorded with a motion capture system. Dynamic Time Warping (DTW) is deployed to obtain a reference gesture thanks to data alignment and averaging. Nevertheless, this standard method suffers from pathological paths issues that reduce its effectiveness. For this reason, local constraints are added to the new DTW-based algorithm, called CDBA (Constrained DTW Barycenter Averaging). At each time step and for each limb, the quality of a gesture is spatially and temporally assessed. Each new motion is compared to the reference gesture and weighted in terms of data dispersion around the reference.The process is validated on annotated karate and tennis databases. A first online training prototype is given in order to prompt further research on this subject.
84

Analyse InSAR des déformations de volcans actifs : le Piton de la Fournaise (Réunion) et Llaima (Chili) / InSAR analysis of ground deformation at active volcanoes : piton de la Fournaise (Reunion) and Llaima (Chile)

Chen, Yu 16 March 2017 (has links)
Les études des déformations de surface en relation avec l'activité volcanique permettent de quantifier les phénomènes de transfert de magma qui s'opèrent dans les structures superficielles et profondes d'un édifice volcanique. Ces études s'appuient essentiellement sur l'utilisation de séries temporelles acquises par des réseaux de récepteurs GNSS installés sur les flancs de l'édifice volcanique et sur l'utilisation d'images acquises par des satellites équipés de capteurs à ouverture de synthèse. Les objectifs de ce travail ont été de mettre en œuvre sur deux des volcans les plus actifs du monde des méthodes numériques pour détecter, analyser et interpréter les déformations du sol associées à l'activité. Sur le Piton de la Fournaise, nous avons analysé l'évolution spatiale et temporelle du champ de déplacement entre l'éruption historique d'avril 2007 et octobre 2014 à partir de l'analyse de mesures continues acquises par les stations GNSS et de longues séries temporelles d'images radar Cosmos-Skymed et TerraSAR acquises en bande X. Pour le traitement des données radars, nous avons adopté une approche classique qui exploite la redondance d'information dans les interférogrammes et nous avons mis en œuvre une méthode originale de correction des effets troposphériques reposant sur la décomposition des signaux radars en valeurs singulières. La complexité spatiale et temporelle du champ de déplacement obtenu indique qu'une partie importante de l'édifice volcanique est affectée par des déformations d'origines diverses qui se superposent spatialement et temporellement. Ainsi, on observe des processus de subsidence qui ne s'accompagnent pas de déplacements horizontaux sur les coulées de lave récentes. Nous montrons qu'il existe une relation linéaire entre cette subsidence et l'épaisseur de la coulée et que son amplitude décroit avec le temps. Ces relations nous permettent de construire une loi empirique pour estimer la contribution de ce processus dans le champ de déformation. Nous observons également que le cône central subside de manière persistante durant la période étudiée. Nous interprétons cette subsidence comme l'expression d'une relaxation des contraintes provoquée par l'effondrement de plus de 350 m du Dolomieu survenu lors de l'éruption d'avril 2007. Enfin, nous montrons qu'une large partie du flanc est de l'édifice volcanique est affectée d'un mouvement lent le long de la pente entre 2007 et 2014. L'absence d'évidences sur la structure et sur la rhéologie de l'édifice nous amène à explorer différentes hypothèses pour expliquer l'origine de ce glissement qui pourrait être contrôlé par les propriétés frictionnelles des roches le long d'un ou de plusieurs plans de faille, ou bien être l'expression d'une déformation ductile dépendante de la viscosité du milieu. Le Llaima est un large strato-volcans andin dont les processus de déformations sont mal compris à cause principalement de la complexité de son mode de fonctionnement mais, également, aussi par l'absence de réseaux d'observation au sol. Dans ce contexte, les potentialités des données radar pour le suivi des déformations de surface de ces volcans constituent un intérêt scientifique majeur. / We address in this dissertation the use of Interferometric Synthetic Aperture Radar (InSAR) to measure and characterize the ground surface deformation at two volcanoes - Piton de la Fournaise (La Réunion Island, France) and Llaima (Chile). For Piton de la Fournaise, we analyzed the spatial pattern and temporal evolution of the ground displacement between the historical March-April 2007 eruption and October 2014, based on continuous measurements recorded by GNSS stations and X band COSMO-SkyMed and TerraSAR-X/TanDEM-X time series analysis. For the processing of radar data, we adopted a classical InSAR time series approach that exploits the information redundancy in the interferograms and we implemented an original method for correcting artifacts based on the principal component decomposition. The spatial and temporal complexity of the obtained deformation field indicates that an important part of the volcanic edifice is affected by deformations of various origins that overlap spatially and temporally. We observe also subsidence processes that are not accompanied by horizontal displacements in recent lava fields. We show that there exists a linear relationship between the subsidence and the thickness of lava and that the amplitude of subsidence decreases with time. These relationships allow us to construct an empirical law to estimate the contribution of post-lava emplacement process in the deformation field. We also observe that the Central Cone subsides persistently during the study period. We interpret this subsidence as the expression of a relaxation of the stresses caused by the Dolomieu collapse during the March-April 2007 eruption. Finally, we show that a widespread time-dependent moving sector on the Eastern Flank is affected by downslope motion during the 2007-2014 period. The uncertainties on both the structure and rheology parameters of the edifice leads us to explore different hypotheses to explain the origin of this flank motion which could be controlled by the frictional properties of the rocks along one or more fault planes, or be the expression of a dependent ductile deformation of the viscosity of the medium. Llaima is a large Andean stratospheric volcano whose deformation processes are poorly understood not only because of the complexity of its functioning mode but also because of the absence of observation networks on the ground. In this context, the potential of radar data for monitoring the ground deformations of these volcanoes is a main scientific interest. However, the complex environment conditions (steep slopes, snow- or ice-capped summit, dense vegetation cover, and strong tropospheric artifacts) and limited amount of available radar data make it challenging to accurately measure ground displacement with InSAR.
85

Ecological monitoring of semi-natural grasslands : statistical analysis of dense satellite image time series with high spatial resolution / Suivi écologique des prairies semi-naturelles : analyse statistique de séries temporelles denses d'images satellite à haute résolution spatiale

Lopes, Maïlys 24 November 2017 (has links)
Les prairies représentent une source importante de biodiversité dans les paysages agricoles qu’il est important de surveiller. Les satellites de nouvelle génération tels que Sentinel-2 offrent de nouvelles opportunités pour le suivi des prairies grâce à leurs hautes résolutions spatiale et temporelle combinées. Cependant, le nouveau type de données fourni par ces satellites implique des problèmes liés au big data et à la grande dimension des données en raison du nombre croissant de pixels à traiter et du nombre élevé de variables spectro-temporelles. Cette thèse explore le potentiel des satellites de nouvelle génération pour le suivi de la biodiversité et des facteurs qui influencent la biodiversité dans les prairies semi-naturelles. Des outils adaptés à l’analyse statistique des prairies à partir de séries temporelles d’images satellites (STIS) denses à haute résolution spatiale sont proposés. Tout d’abord, nous montrons que la réponse spectrotemporelle des prairies est caractérisée par sa variabilité au sein des prairies et parmi les prairies. Puis, pour les analyses statistiques, les prairies sont modélisées à l’échelle de l’objet pour être cohérent avec les modèles écologiques qui représentent les prairies à l’échelle de la parcelle. Nous proposons de modéliser la distribution des pixels dans une prairie par une loi gaussienne. A partir de cette modélisation, des mesures de similarité entre deux lois gaussiennes robustes à la grande dimension sont développées pour la classification des prairies en utilisant des STIS denses: High-Dimensional Kullback-Leibler Divergence et -Gaussian Mean Kernel. Cette dernière est plus performante que les méthodes conventionnelles utilisées avec les machines à vecteur de support (SVM) pour la classification du mode de gestion et de l’âge des prairies. Enfin, des indicateurs de biodiversité des prairies issus de STIS denses sont proposés à travers des mesures d’hétérogénéité spectro-temporelle dérivées du clustering non supervisé des prairies. Leur corrélation avec l’indice de Shannon est significative mais faible. Les résultats suggèrent que les variations spectro-temporelles mesurées à partir de STIS à 10 mètres de résolution spatiale et qui couvrent la période où ont lieu les pratiques agricoles sont plus liées à l’intensité des pratiques qu’à la diversité en espèces. Ainsi, bien que les propriétés spatiales et temporelles de Sentinel-2 semblent limitées pour estimer directement la diversité en espèces des prairies, ce satellite devrait permettre le suivi continu des facteurs influençant la biodiversité dans les prairies. Dans cette thèse, nous avons proposé des méthodes qui prennent en compte l’hétérogénéité au sein des prairies et qui permettent l’utilisation de toute l’information spectrale et temporelle fournie par les satellites de nouvelle génération. / Grasslands are a significant source of biodiversity in farmed landscapes that is important to monitor. New generation satellites such as Sentinel-2 offer new opportunities for grassland’s monitoring thanks to their combined high spatial and temporal resolutions. Conversely, the new type of data provided by these sensors involves big data and high dimensional issues because of the increasing number of pixels to process and the large number of spectro-temporal variables. This thesis explores the potential of the new generation satellites to monitor biodiversity and factors that influence biodiversity in semi-natural grasslands. Tools suitable for the statistical analysis of grasslands using dense satellite image time series (SITS) with high spatial resolution are provided. First, we show that the spectro-temporal response of grasslands is characterized by its variability within and among the grasslands. Then, for the statistical analysis, grasslands are modeled at the object level to be consistent with ecological models that represent grasslands at the field scale. We propose to model the distribution of pixels in a grassland by a Gaussian distribution. Following this modeling, similarity measures between two Gaussian distributions robust to the high dimension are developed for the lassification of grasslands using dense SITS: the High-Dimensional Kullback-Leibler Divergence and the -Gaussian Mean Kernel. The latter outperforms conventional methods used with Support Vector Machines for the classification of grasslands according to their management practices and to their age. Finally, indicators of grassland biodiversity issued from dense SITS are proposed through spectro-temporal heterogeneity measures derived from the unsupervised clustering of grasslands. Their correlation with the Shannon index is significant but low. The results suggest that the spectro-temporal variations measured from SITS at a spatial resolution of 10 meters covering the period when the practices occur are more related to the intensity of management practices than to the species diversity. Therefore, although the spatial and spectral properties of Sentinel-2 seem limited to assess the species diversity in grasslands directly, this satellite should make possible the continuous monitoring of factors influencing biodiversity in grasslands. In this thesis, we provided methods that account for the heterogeneity within grasslands and enable the use of all the spectral and temporal information provided by new generation satellites.
86

Méthodes d'investigation de l'intrusion marine dans les aquifères volcaniques (La Réunion et La Grande Comore) / Methods for investigating the marine intrusion in volcanic aquifers - cases studies : Reunion and Grande Comore

Bourhane, Anli 18 December 2014 (has links)
En contexte insulaire volcanique, les aquifères du domaine côtier présentent de très fortes hétérogénéités liées à leur structure, à la disparité de leurs recharges et à l'influence des conditions en aval. Les travaux envisagés ici consistent à élaborer une méthodologie adaptée à différentes configurations hydrogéologiques dans l'optique de mieux imager et comprendre l'évolution du biseau salé. L'acquisition des données est effectuée sur différents sites présentant des configurations hydrogéologiques variées sur le plan de la recharge, de la structure de l'aquifère et de la géomorphologie de la limite en aval. Un réseau d'observation est mis en place sur la côte ouest de l'île de La Réunion, dans la zone littorale allant de L'Ermitage à Saint-Leu. Cette zone est particulièrement intéressante dans le sens où elle présente les types de limites en aval les plus communes aux îles volcaniques à savoir, des côtes rocheuses, des plaines d'arrière-récif et des plaines d'accumulation fluviomarine. Sur La Réunion et la Grande Comore, le milieu volcanique est investigué au moyen de méthodes géophysiques et par une analyse de séries temporelles hydrogéologiques. Les outils géophysiques employés confirment la présence d’un milieu souterrain hétérogène, avec la présence sporadique de chenaux d'écoulement souterrain préférentiel susceptibles de contrôler la dynamique des intrusions marines. Les simulations numériques effectuées par la suite corroborent ces observations. L'analyse des signaux enregistrés indique une forte influence des forçages hydro-climatiques externes sur les nappes côtières. Elle permet aussi de distinguer deux familles de comportement selon le contexte géologique des ouvrages instrumentés. Les résultats de ces travaux mettent en avant une méthodologie de gestion des nappes côtières adaptée au milieu volcanique. Ils contribuent également à l'orientation des programmes de prospection de la ressource en eau souterraine dans ces contextes très complexes. / In volcanic islands context, the aquifers of coastal areas have very strong heterogeneities related to their structure, the disparity of their recharge and the influence of the downstream boundaries (rocky coasts, detritic cones...). The works considered here consist to develop a methodology adapted to different hydrogeological configurations in the aim to better understanding the development of saltwater intrusions. Time series recording and geophysical investigations are carried out on various sites, with different hydrogeological conditions, on the west coast of Reunion Island and throughout Grande Comore Island. The groundwater observatory tested in the pilot study area of Reunion was exported to three others experimental sites situated in Grande Comore Island (Indian Ocean). The geophysical investigations reveal a very important lateral heterogeneity along the shoreline due to the existence of 3D volcanic structures such as palaeovalleys filled by recent lava flows. In coastal areas, these structures exert an important role towards the marine intrusion dynamics, like it was confirmed by numerical simulations. Time series recording has allowed the hydrodynamic characterisation of the coastal groundwater and has enhanced the understanding of low and high frequency variations of the groundwater resources quality
87

Classification audio sous contrainte de faible latence / Audio classification under low latency constraint

Flocon-Cholet, Joachim 29 June 2016 (has links)
Cette thèse porte sur la classification audio sous contrainte de faible latence. La classification audio est un sujet qui a beaucoup mobilisé les chercheurs depuis plusieurs années. Cependant, on remarque qu’une grande majorité des systèmes de classification ne font pas état de contraintes temporelles : le signal peut être parcouru librement afin de rassembler les informations nécessaires pour la prise de décision (on parle alors d’une classification hors ligne). Or, on se place ici dans un contexte de classification audio pour des applications liées au domaine des télécommunications. Les conditions d’utilisation sont alors plus sévères : les algorithmes fonctionnent en temps réel et l’analyse du signal et le traitement associé se font à la volée, au fur et à mesure que le signal audio est transmis. De fait, l’étape de classification audio doit également répondre aux contraintes du temps réel, ce qui affecte son fonctionnement de plusieurs manières : l’horizon d’observation du signal se voit nécessairement réduit aux instants présents et à quelques éléments passés, et malgré cela, le système doit être fiable et réactif. Dès lors, la première question qui survient est : quelle stratégie de classification peut-on adopter afin de faire face aux exigences du temps réel ? On retrouve dans littérature deux grandes approches permettant de répondre à des contraintes temporelles plus ou moins fortes : la classification à la trame et la classification sur segment. Dans le cadre d’une classification à la trame, la décision est prise en se basant uniquement sur des informations issues de la trame audio courante. La classification sur segment, elle, exploite une information court-terme en utilisant les informations issues de la trame courante et de quelques trames précédentes. La fusion des données se fait via un processus d’intégration temporelle qui consiste à extraire une information pertinente basée sur l’évolution temporelle des descripteurs audio. À partir de là, on peut s’interroger pour savoir quelles sont les limites de ces stratégies de classification ? Une classification à la trame et une classification sur segment peuvent-elles être utilisées quel que soit le contexte ? Est-il possible d’obtenir des performances convenables avec ces deux approches ? Quelle mode de classification permet de produire le meilleur rapport entre performance de classification et réactivité ? Aussi, pour une classification sur segment, le processus d’intégration temporelle repose principalement sur des modélisation statistiques mais serait-il possible de proposer d’autres approches ? L’exploration de ce sujet se fera à travers plusieurs cas d’étude concrets. Tout d’abord, dans le cadre des projets de recherche à Orange Labs, nous avons pu contribuer au développement d’un nouvel algorithme de protection acoustique, visant à supprimer très rapidement des signaux potentiellement dangereux pour l’auditeur. La méthode mise au point, reposant sur la proposition de trois descripteurs audio, montre un taux de détection élevé tout en conservant un taux de fausse alarme très bas, et ce, quelles que soient les conditions d’utilisation. Par la suite, nous nous sommes intéressés plus en détail à l’utilisation de l’intégration temporelle des descripteurs dans un cadre de classification audio faible latence. Pour cela, nous avons proposé et évalué plusieurs méthodologies d’utilisation de l’intégration temporelle permettant d’obtenir le meilleur compromis entre performance globale et réactivité. Enfin, nous proposons une autre manière d’exploiter l’information temporelle des descripteurs. L’approche proposée s’appuie sur l’utilisation des représentations symboliques permettant de capter la structure temporelle des séries de descripteurs. L’idée étant ensuite de rechercher des motifs temporels caractéristiques des différentes classes audio. Les expériences réalisées montrent le potentiel de cette approche. / This thesis focuses on audio classification under low-latency constraints. Audio classification has been widely studied for the past few years, however, a large majority of the existing work presents classification systems that are not subject to temporal constraints : the audio signal can be scanned freely in order to gather the needed information to perform the decision (in that case, we may refer to an offline classification). Here, we consider audio classification in the telecommunication domain. The working conditions are now more severe : algorithms work in real time and the analysis and processing steps are now operated on the fly, as long as the signal is transmitted. Hence, the audio classification step has to meet the real time constraints, which can modify its behaviour in different ways : only the current and the past observations of the signal are available, and, despite this fact the classification system has to remain reliable and reactive. Thus, the first question that occurs is : what strategy for the classification can we adopt in order to tackle the real time constraints ? In the literature, we can find two main approaches : the frame-level classification and the segment-level classification. In the frame-level classification, the decision is performed using only the information extracted from the current audio frame. In the segment-level classification, we exploit a short-term information using data computed from the current and few past frames. The data fusion here is obtained using the process of temporal feature integration which consists of deriving relevant information based on the temporal evolution of the audio features. Based on that, there are several questions that need to be answered. What are the limits of these two classification framework ? Can an frame-level classification and a segment-level be used efficiently for any classification task ? Is it possible to obtain good performance with these approaches ? Which classification framework may lead to the best trade-off between accuracy and reactivity ? Furthermore, for the segment-level classification framework, the temporal feature integration process is mainly based on statistical models, but would it be possible to propose other methods ? Throughout this thesis, we investigate this subject by working on several concrete case studies. First, we contribute to the development of a novel audio algorithm dedicated to audio protection. The purpose of this algorithm is to detect and suppress very quickly potentially dangerous sounds for the listener. Our method, which relies on the proposition of three features, shows high detection rate and low false alarm rate in many use cases. Then, we focus on the temporal feature integration in a low-latency framework. To that end, we propose and evaluate several methodologies for the use temporal integration that lead to a good compromise between performance and reactivity. Finally, we propose a novel approach that exploits the temporal evolution of the features. This approach is based on the use of symbolic representation that can capture the temporal structure of the features. The idea is thus to find temporal patterns that are specific to each audio classes. The experiments performed with this approach show promising results.
88

Mixed-Frequency Modeling and Economic Forecasting / De la modélisation multifréquentielle pour la prévision économique

Marsilli, Clément 06 May 2014 (has links)
La prévision macroéconomique à court terme est un exercice aussi complexe qu’essentiel pour la définition de la politique économique et monétaire. Les crises financières récentes ainsi que les récessions qu’ont endurées et qu’endurent aujourd’hui encore, en ce début d’année 2014, nombre de pays parmi les plus riches, témoignent de la difficulté d’anticiper les fluctuations économiques, même à des horizons proches. Les recherches effectuées dans le cadre de la thèse de doctorat qui est présentée dans ce manuscrit se sont attachées à étudier, analyser et développer des modélisations pour la prévision de croissance économique. L’ensemble d’informations à partir duquel construire une méthodologie prédictive est vaste mais également hétérogène. Celle-ci doit en effet concilier le mélange des fréquences d’échantillonnage des données et la parcimonie nécessaire à son estimation. Nous évoquons à cet effet dans un premier chapitre les éléments économétriques fondamentaux de la modélisation multi-fréquentielle. Le deuxième chapitre illustre l’apport prédictif macroéconomique que constitue l’utilisation de la volatilité des variables financières en période de retournement conjoncturel. Le troisième chapitre s’étend ensuite sur l’inférence bayésienne et nous présentons par ce biais un travail empirique issu de l’adjonction d’une volatilité stochastique à notre modèle. Enfin, le quatrième chapitre propose une étude des techniques de sélection de variables à fréquence multiple dans l’optique d’améliorer la capacité prédictive de nos modélisations. Diverses méthodologies sont à cet égard développées, leurs aptitudes empiriques sont comparées, et certains faits stylisés sont esquissés. / Economic downturn and recession that many countries experienced in the wake of the global financial crisis demonstrate how important but difficult it is to forecast macroeconomic fluctuations, especially within a short time horizon. The doctoral dissertation studies, analyses and develops models for economic growth forecasting. The set of information coming from economic activity is vast and disparate. In fact, time series coming from real and financial economy do not have the same characteristics, both in terms of sampling frequency and predictive power. Therefore short-term forecasting models should both allow the use of mixed-frequency data and parsimony. The first chapter is dedicated to time series econometrics within a mixed-frequency framework. The second chapter contains two empirical works that sheds light on macro-financial linkages by assessing the leading role of the daily financial volatility in macroeconomic prediction during the Great Recession. The third chapter extends mixed-frequency model into a Bayesian framework and presents an empirical study using a stochastic volatility augmented mixed data sampling model. The fourth chapter focuses on variable selection techniques in mixed-frequency models for short-term forecasting. We address the selection issue by developing mixed-frequency-based dimension reduction techniques in a cross-validation procedure that allows automatic in-sample selection based on recent forecasting performances. Our model succeeds in constructing an objective variable selection with broad applicability.
89

La bioluminescence : un proxy d'activité biologique en milieu profond ? Etude au laboratoire et in situ de la bioluminescence en relation avec les variables environnementales / Bioluminescence : a proxy of biological activity in the deep sea? Study in the laboratory and in situ of bioluminescence linked to the environmental variables.

Martini, Severine 06 December 2013 (has links)
La bioluminescence est l’émission de lumière par des organismes vivants. En milieu bathypélagique, où l’absence de lumière est une caractéristique majeure, ce phénomène semble avoir un rôle écologique primordial dans les interactions biologiques ainsi que dans le cycle du carbone. Ce travail cherche à déterminer si la bioluminescence peut être définie comme un proxy de l’activité biologique en milieu profond. Cette étude multidisciplinaire développe à la fois une approche in situ et en laboratoire. Le télescope ANTARES, immergé en Méditerranée, à 2475 m de profondeur, a joué le rôle d’un observatoire océanographique enregistrant la bioluminescence ainsi que les variables environnementales à haute fréquence. L’analyse de ces séries temporelles, non-linéaires et non-stationnaires a permis de mettre en évidence deux périodes de forte activité de bioluminescence en 2009 et 2010. Ces évènements ont été expliqués par des phénomènes de convection dans le Golfe du Lion, impactant indirectement la bioluminescence enre- gistrée sur ANTARES. En laboratoire, la bioluminescence bactérienne a été décrite sur une souche modèle piezophile, isolée au cours d’un évènement de forte bioluminescence. La pression hydrostatique liée à la profondeur in situ (22 MPa) induit une plus forte bioluminescence qu’à pression atmosphérique (0.1 MPa). Enfin, le suivi des communautés procaryotiques profondes a été réalisé, sur le site ANTARES, au cours de l’année 2011. Ce suivi a montré la présence de 0.1 à 1% de bactéries bioluminescentes dans une période enregistrant une faible activité de bioluminescence. Ces cellules ont été définies comme majoritairement actives. / Bioluminescence is the emission of light by living organisms. In the bathypelagic waters, where darkness is one of the main characteristic, this phenomenon seems to play a major role for biological interactions and in the carbon cycle. This work aims to determine if bioluminescence can be considered as a proxy of biological activity in the deep sea. This multidisciplinary study develops both in situ and laboratory approaches. The ANTARES telescope immersed in the Mediterranean Sea at 2,475 m depth has been used as an oceanographic observatory recording bioluminescence as well as environmen- tal variables at high frequency. This time series analysis, defined as non linear and non stationary, highlighted two periods of high bioluminescence intensity in 2009 and 2010. These events have been explained by convection phenomena in the Gulf of Lion, indi- rectly impacting the bioluminescence sampled at this station. In the laboratory, bacterial bioluminescence has been described using a piezophilic bacterial model isolated during a high-bioluminescence-intensity event. Hydrostatic pressure linked to the in situ depth (22 MPa) induces a higher bioluminescence activity than under atmospheric pressure (0.1 MPa). Then, the survey of the deep prokaryotic communities has been done at the AN- TARES station, over the year 2011. This survey shows the presence of about 0.1 to 1% of bioluminescent bacteria even during a low-bioluminescence-activity period. These cells were mainly actives.
90

Prise en compte des fluctuations spatio-temporelles pluies-débits pour une meilleure gestion de la ressource en eau et une meilleure évaluation des risques / Taking into account the space-time rainfall-discharge fluctuations to improve water resource management and risk assessment

Hoang, Cong Tuan 30 November 2011 (has links)
Réduire la vulnérabilité et accroître la résilience des sociétés d'aujourd'hui aux fortes précipitations et inondations exige de mieux caractériser leur très forte variabilité spatio-temporelle observable sur une grande gamme d'échelle. Nous mettons donc en valeur tout au long de cette thèse l'intérêt méthodologique d'une approche multifractale comme étant la plus appropriée pour analyser et simuler cette variabilité. Cette thèse aborde tout d'abord le problème de la qualité des données, qui dépend étroitement de la résolution temporelle effective de la mesure, et son influence sur l'analyse multifractale et la détermination de lois d'échelle des processus de précipitations. Nous en soulignons les conséquences pour l'hydrologie opérationnelle. Nous présentons la procédure SERQUAL qui permet de quantifier cette qualité et de sélectionner les périodes correspondant aux critères de qualité requise. Un résultat surprenant est que les longues chronologies de pluie ont souvent une résolution effective horaire et rarement de 5 minutes comme annoncée. Ensuite, cette thèse se penche sur les données sélectionnées pour caractériser la structure temporelle et le comportement extrême de la pluie. Nous analysons les sources d'incertitudes dans les méthodes multifractales « classiques » d'estimation des paramètres et nous en déduisons des améliorations pour tenir compte, par exemple, de la taille finie des échantillons et des limites de la dynamique des capteurs. Ces améliorations sont utilisées pour obtenir les caractéristiques multifractales de la pluie à haute résolution de 5 minutes pour plusieurs départements de la France (à savoir, les départements 38, 78, 83 et 94) et pour aborder la question de l'évolution des précipitations durant les dernières décennies dans le cadre du changement climatique. Cette étude est confortée par l'analyse de mosaïques radars concernant trois événements majeurs en région parisienne. Enfin, cette thèse met en évidence une autre application des méthodes développées, à savoir l'hydrologie karstique. Nous discutons des caractéristiques multifractales des processus de précipitation et de débit à différentes résolutions dans deux bassins versant karstiques au sud de la France. Nous analysons, en utilisant les mesures journalière, 30 minutes et 3 minutes, la relation pluie-débit dans le cadre multifractal. Ceci est une étape majeure dans la direction d'une définition d'un modèle multi-échelle pluie-débit du fonctionnement des bassins versants karstiques / To reduce vulnerability and to increase resilience of nowadays societies to heavy precipitations and floods require better understanding of their very strong spatio-temporal variability observable over a wide range of scales. Therefore, throughout this thesis we highlight the methodological interest of a multifractal approach as being most appropriate to analyze and to simulate such the variability. This thesis first discusses the problem of data quality, which strongly depends on the effective temporal resolution of the measurements, and its influence on multifractal analysis determining the scaling laws of precipitation processes. We emphasize the consequences for operational hydrology. We present the SERQUAL procedure that allows to quantify the data quality and to select periods corresponding to the required quality criteria. A surprising result is that long chronological series of rainfall often have an effective hourly data, rather than the pretended 5-minute rainfall data. Then, this thesis focuses on the selected data to characterize the temporal structure and extreme behaviour of rainfall. We analyze the sources of uncertainties of already "classical" multifractal methods for the parameter estimates, and we therefore developed their improvements considering e.g., the finite size of data samples and the limitation of sensor dynamics. These improvements are used to obtain proper multifractal characteristics of 5-minute high-resolution rainfall for several French departments (i.e., 38, 78, 83 and 94), and hence to raise the question of preicipitation evolution during the last decades in the context of climate change. This study is reinforced by the analysis of radar mosaics for three major events in the Paris region. Finally, this thesis highlights another application of the developed methods, i.e. for the karst hydrology. We discuss the multifractal characteristics of rainfall and runoff processes observed at the different resolutions in two karst watersheds on the south of France. Using daily, 30-minute and 3-minute measurements we analyse the rainfall-runoff relationships within the multifractal framework. This is a major step towards defining a rainfall-runoff multi-scale model of the karst watershed functioning

Page generated in 0.0686 seconds