• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1117
  • 547
  • 152
  • 3
  • Tagged with
  • 1795
  • 885
  • 376
  • 261
  • 257
  • 241
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 130
  • 128
  • 114
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude portant sur la recherche d'une procédure alternative pour la détection des cyanobactéries et des cyanotoxines

Audet-Lecouffe, José January 2013 (has links)
L'objectif de la présente étude était de proposer des outils de détection des cyanobactéries et des cyanotoxines pouvant être utilisés par les gestionnaires de l'eau directement sur le site dans le but d'améliorer la procédure de détection ainsi que de parfaire les connaissances liées à l'utilisation de méthodes alternatives. En premier lieu, une revue des méthodes de détection disponibles a permis d'évaluer le potentiel de chacune à être intégrée dans une procédure alternative de détection. La comparaison de ces méthodes à l'aide d'un tableau servant d'aide à la décision a permis d'identifier deux outils prometteurs : la fluorimétrie et les tests immunoenzymatiques. Le premier vise à évaluer l'abondance des cyanobactéries via la mesure de la concentration de phycocyanine (pigment associé aux cyanobactéries, alors que le deuxième vise à quantifier les toxines. Les critères retenus pour cette comparaison étaient la facilité d'utilisation, le coût du matériel, la rapidité des analyses, la sensibilité des tests ainsi que la fiabilité des résultats. En second lieu, une évaluation de quatre trousses de quantification des microcystines, toxines produites par les cyanobactéries, a été effectuée. Les trousses de microplaques des compagnies Abraxis et Envirologix ainsi que les trousses en éprouvettes des deux mêmes compagnies ont été comparées selon 14 critères divisés dans trois catégories : les critères de gestion, d'utilisation et d'analyse. Il en ressort que la trousse en microplaques d'Abraxis est la plus fiable et la plus ergonomique. Sa sensibilité élevée, le nombre élevé de variantes de microcystines détectées ainsi que la grande gamme de concentrations détectées par cette trousse ont également fait de celle-ci l'outil le plus adéquat pour la quantification des microcystines parmi les trousses étudiées. En troisième lieu, la présente étude met en relation les paramètres physicochimiques de l'eau ainsi que les mesures de la concentration de phycocyanine par fluorimétrie et de la concentration des microcystines par test immunoenzymatique afin d'identifier les paramètres importants à intégrer dans la procédure de détection des cyanobactéries et des microcystines. Selon les modèles quantitatifs créés, les deux paramètres qui expliquent le plus la concentration des microcystines sont la concentration de la phycocyanine et la saturation de l'oxygène mesurée à la surface de l'eau. Le modèle qualitatif, beaucoup plus intéressant et applicable sur le terrain, a permis de déterminer qu'à partir d'un seuil de concentration de phycocyanine de 0,02 RFU, il est possible de déterminer s'il est nécessaire d'analyser la concentration des microcystines de l'échantillon. L'utilisation du fluorimètre et l'intégration de ce dernier modèle dans le suivi des cyanobactéries et des microcystines permettraient aux gestionnaires de l'eau d'améliorer la procédure de détection autant sur le plan financier que sur celui de la qualité des données obtenues.
2

Approche monodimensionnelle de la mise en correspondance stéréoscopique par corrélation : application à la détection d'obstacles routiers / A 1D approach to correlation-based stereo matching : application to obstacle detection on a road

Lefebvre, Sébastien 03 July 2008 (has links)
En stéréovision, une carte dense des disparités peut être déterminée grâce à des méthodes locales exploitant la mise en correspondance des contenus de voisinages bidimensionnels. Toutefois, dans le contexte d'une application de métrologie 3D, il n'est pas nécessaire que la carte soit dense, mais elle doit être très précise. Par ailleurs, en présence d'un fort effet de perspective, d'importantes variations locales de la disparité apparaissent et les méthodes locales exploitant des fenêtres 2D ne garantissent plus une précision suffisante. Dans ce travail, nous proposons une méthode de mise en correspondance qui exploite des caractéristiques extraites d'un ensemble de courbes de similarité calculées sur des fenêtres 1D. Nous établissons une notion de confiance reliant directement la précision à la densité de la carte des disparités obtenue, entre lesquelles il est alors possible de fixer un compromis. La méthode proposée est évaluée en comparant ses résultats à ceux obtenus par six autres méthodes locales similaires. Nous montrons ainsi son efficacité, tout particulièrement quand la scène contient un plan fortement incliné. Nous testons finalement notre méthode dans le cadre d'une application de détection d'obstacles à l'avant d'un véhicule routier. Nous montrons qu'en segmentant notre carte des disparités par un procédé assez simple, la détection des obstacles est possible et surtout plus précise qu'avec des cartes des disparités calculées sur des voisinages 2D. / Ln stereovision, a dense disparity map can be computed thanks to local methods that match 2D image neighbourhoods. ln the context of 3D metrology, obtaining a dense disparity map is not mandatory, but high accuracy is required. Moreover, because of important local variations of disparity values due to high perspective conditions, we show that 2D methods do not reach a sufficient level of accuracy. ln this work, we propose a new matching method based on the analysis of several characteristics extracted from a set of similarity curves computed using ID neighbourhoods. We compute confidence values directly Iinked to accuracy and density properties of the disparity map. This confidence values are used to tu ne a tradeoff between density and accuracy of the disparity maps. The proposed method is evaluated by comparing its results with those computed with six similar local methods. ln this way, we show its efficiency, particularly with scenes having a strong perspective. FinaIly, we validate our ID method in an obstacle detection application. We show that a quite basic segmentation process applied to our disparity maps yields better results than with disparity maps computed using 2D neighbourhoods.
3

Localisation de véhicules et détection d'obstacles : apport d'un modèle virtuel 3D urbain / Vehicle localization and obstacles detection with a virtual 3D city model

Cappelle, Cindy 05 December 2008 (has links)
Cette thèse s'intéresse à l'apport d'un modèle virtuel 3D urbain pour l'égo-localisation de véhicules intelligents ainsi que la détection et la localisation d'obstacles. La localisation du véhicule s'appuie sur plusieurs sources d'information: un GPS, des capteurs proprioceptifs (odométres et gyromètre), une caméra et un modèle virtuel 3D de l'environnement. Les capteurs proprioceptifs permettent d'obtenir une estimation quasi continue de la pose relative du véhicule. Cette estimation de la pose est recalée par des mesures GPS lorsque celles-ci sont disponibles. Afin de palier la dérive de la localisation à l'estime lors de longues indisponibilités des informations GPS, on construit une observation cartographique 3D. Celle-ci est basée sur le recalage entre le modèle virtuel 3D urbain et les images acquises par la caméra. Des travaux expérimentaux illustrent l'approche développée. Par ailleurs, l'apport d'un modèle virtuel 3D urbain est également étudié pour la détection et la localisation des obstacles. Une fois localisé dans le modèle 3D, les obstacles de l'infrastructure tels que les bâtiments sont connus et localisés. Pour détecter les obstacles n'appartenant pas à l'infrastructure (véhicules, piétons ... ), on compare l'image réelle et l'image virtuelle en considérant que ce type d'obstacles est présent dans l'image réelle mais absent de l'image virtuelle. A partir de l'information de profondeur disponible grâce au modèle 3D, les obstacles détectés sont ensuite géolocalisés. Les résultats expérimentaux obtenus sont comparés et validés grâce à un télémètre laser. / This thesis deals with ego-Iocalization of intelligent vehicles and obstacles detection with virtual 3D city mode!. Vehicle localization uses several sources of infonnation : a GPS receiver, proprioceptive sensors (odometers and gyrometer), a video camera and a virtual 3D city mode!. The proprioceptive sensors allow to continuously estimate the dead-reckoning position and orientation of the vehicle. This dead-reckoning estimation of the pose is corrected by GPS measurements. Moreover, a 3D geographical observation is constructed to compensate the drift of the dead-reckoning localisation when GPS measurements are unavailable for a long time. The 3D geographical observation is based on the matching between the virtual 3D city model and the images acquired by the camera. Experimental results iIlustrate the developed approach. Moreover, the contribution of a virtual 3D city model is also studied for the detection and the localization of obstacles. Once the vehicle is localized in the 3D model, the obstacles of the infrastructure like buildings are known and localized. ln order to detect the other obstacles as vehicles, pedestrians, ... the real image acquired by the camera and the virtual image extracted from the virtual 3D model are compared, by considering that this kind of obstacles are in the real image but are absent from the virtual image. With the detph information available from the 3D model, the detccted obstacle are then localized. Experimental results are compared with Lidar measurements
4

Détection et suivi d’événements de surveillance / Surveillance Event Detection and Monitoring

Sharif, Md. Haidar 16 July 2010 (has links)
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d’événements liés à la sûreté et la sécurité publique. Par ailleurs, l’incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d’une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d’abord une analyse globale du mouvement dans les régions d’intérêt de chaque image afin d’obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d’autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l’importance de l’occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d’ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d’une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d’une zone d’ombre ou en cas de lueur soudaine. / Computer vision algorithms have played a vital role in video surveillance systems to detect surveillance events for public safety and security. Even so, a common demerit among these systems is their unfitness to handle divers crowded scenes. In this thesis, we have developed algorithms which accommodate some of the challenges encountered in videos of crowded environments (e.g., airports, malls, sporting events) to a certain degree. We have adopted approaches by first performing a global-level motion analysis within each frame’s region of interest that provides the knowledge of crowd’s multi-modal behaviors in the form of complex spatiotemporal structures. These structures are then employed in the detection of unusual surveillance events occurred in the crowds. To conduct experiments, we have heavily relied on three thought-provoking datasets. The results reflect some unique global excellences of the approaches. We have also developed a pseudo Euclidian distance. To show its usage, a methodology based on it has been employed in the detection of various usual surveillance events from theTRECVID2008. Some results report the robustness of the methodology, while the rest gives evidence of the difficulty of the problem at hand. Big challenges include, but are not limited to, massive population flow, heavy occlusion, reflection, shadow, fluctuation, varying target sizes, etc. Notwithstanding, we have got much useful insights and experience to the practical problems. In addition, the thesis explores an individual target tracking algorithm within miscellaneous crowded scenes. Video sequences from the PETS2009 Benchmark data have been used to evaluate its performance. Viewing its pros and cons, the algorithm is still highly accurate and its sensitivity to the effects of diversity in noise and lighting, which ascertains its high-quality performance on disappearances, targets moving in and out of the shadow, and flashes of light.
5

Smart system for water quality control : feedback from large-scale experimentation / Système Intelligent pour le contrôle de la qualité de l’eau : retour d’une expérimentation à grande échelle

Saab, Christine 02 July 2018 (has links)
Ce travail présente le contrôle en temps réel de la qualité de l’eau potable par la technologie intelligente. Le déploiement des capteurs dans les réseaux de distribution fournit une indication des risques de contamination. Cependant, l’utilisation de ces dispositifs innovants est récente et nécessite des expérimentations. Cette thèse vise à améliorer le retour d’expérience dans ce domaine. Elle présente la supervision en ligne de la qualité de l’eau dans le cadre des projets SunRise et “SmartWater4Europe”. La bibliographie montre l’impact de la contamination de l’eau sur la santé humaine et les inconvénients des méthodes conventionnelles de surveillance de la qualité de l’eau. Une expérimentation à grande échelle est menée dans le campus de l’Université de Lille, où deux types de capteurs (S::CAN and EventLab) sont implémentés. L’analyse des signaux enregistrés a montré l’occurrence de certains évènements, généralement corrélés avec la variation des paramètres hydrauliques ou des interventions sur le réseau. Différentes méthodologies pour la détection d’anomalie de l’eau sont présentées et appliquées aux données S::CAN. Les méthodes Statistiques et de l’Intelligence Artificielle (Machine à Vecteurs de Support) distinguent entre les mesures normales et inattendues. Un Système de Détection des Evènements (SDE), développé avec le logiciel Canary, a montré une bonne performance dans l’identification des anomalies de l’eau. La dernière partie propose une combinaison entre l’approche "Évaluation de risques" et "surveillance intelligente". La méthode développée détecte et classifie, en temps réel, le risque d’anomalie de l’eau, et identifie la priorité d’attention requise. / This works presents the real-time control of drinking water quality using the smart technology. The deployment of water quality sensors in the distribution networks provides indication of contamination risks. However, the use of these innovative devices is recent and yet requires field experimentations. This thesis enhances the feedback in this domain. It presents a field study of online supervision of water quality, within SunRise project. This work is also a part of the European project “SmartWater4Europe”. The literature review highlights the impact of water contamination on human health as well as the drawbacks of conventional water supervision methods. A large-scale experimentation is conducted at the Scientific Campus of Lille University, where two types of sensors (S::CAN and EventLab) are implemented. The detailed analysis of recorded water quality signals showed the occurrence of some events, generally correlated with the variation of hydraulic parameters or the network interventions. Different methodologies for the detection of water anomaly are presented and applied to S::CAN data. Statistical and Artificial Intelligence (Support Vector Machine) methods discriminate between normal and unexpected measurements. An Event Detection System (EDS), developed within Canary software, showed a good performance in the identification of water abnormalities. The last part proposes a combination between the risk assessment approach and the smart monitoring. The improved risk assessment methodology allows a real-time detection and classification of water anomaly risk as well as an identification of the priority attention required.
6

Recherche et détection des patterns d'attaques dans les réseaux IP à hauts débits / Search and detection of the attacks patter in high speed IP networks

Zaidi, Abdelhalim 14 January 2011 (has links)
Avec leur rôle important dans la protection des réseaux, les Systèmes de Détection d’Intrusion (IDS) doivent être capables d’adapter leurs modes de fonctionnement à toutes les innovations technologiques. L'IDS doit gérer une grande masse d’information et traiter un trafic réseau à une cadence très élevée à cause des vitesses de transfert et de la diversité des services offerts. Il doit aussi traiter un grand nombre d’attaques qui ne cesse d’augmenter. Par conséquent, améliorer les performances des IDS devient une tâche critique pour les concepteurs des mécanismes de protection. Dans notre thèse, nous nous focalisons sur les problèmes liés aux paramètres quantitatifs de l’utilisation des l’IDS. Nous proposons une approche pour la classification des signatures d’attaques en fonction de leurs sous-chaînes communes. Cette approche permet de réduire le nombre des signatures traitées et par conséquent réduire le temps d’exécution. Nous traitons aussi le problème de la masse de données analysée par l’IDS, nous proposons une architecture de détection basée sur la classification des connexions réseau. L’architecture proposée permet de décider de la nature d’une connexion : suspecte ou non. Dans le premier cas, la connexion doit être analysée par le système de détection d’intrusion. Sinon, si elle n’est pas suspecte nous pouvons décider de ne pas l’analyser par l’IDS. / With their important role in the networks protection, the Intrusion Detection Systems (IDS) must be able to adapt their functional modes to the new technologies. The IDS must manage a large mass of information and process network traffic at a very high rate because of transfer speeds and diversity of the provided services. It must also address an increasing number of attacks. Therefore improve the performance of IDS is a critical task for designers of protection mechanisms. In our thesis, we focus on the problems related to the quantitative parameters of the IDS. We propose a classification approach of the attacks signatures based on their common substrings. This approach reduces the number of signatures processed by the detection engine of the IDS and therefore reduces running time. We also discuss the problem of the mass of data analyzed by the IDS, we propose a detection architecture based on the classification of network connections. The proposed architecture allows decide on the nature of a connection: suspicious or not. In the first case, the connection must be analyzed by the intrusion detection system. Otherwise, if it is not suspect we can decide to ignore this connection and don’t analyze it by the IDS.
7

Contribution to concept detection on images using visual and textual descriptors / Contribution à la détection de concepts sur des images utilisant des descripteurs visuels et textuels

Zhang, Yu 15 May 2014 (has links)
Pas de résumé / This thesis is dedicated to the problem of training and integration strategies of several modalities (visual, textual), in order to perform an efficient Visual Concept Detection and Annotation (VCDA) task, which has become a very popular and important research topic in recent years because of its wide range of application such as image/video indexing and retrieval, security access control, video monitoring, etc. Despite a lot of efforts and progress that have been made during the past years, it remains an open problem and is still considered as one of the most challenging problems in computer vision community, mainly due to inter-class similarities and intra-class variations like occlusion, background clutter, changes in viewpoint, pose, scale and illumination. This means that the image content can hardly be described by low-level visual features. In order to address these problems, the text associated with images is used to capture valuable semantic meanings about image content. Moreover, In order to benefit from both visual models and textual models, we propose multimodal approach. As the typical visual models, designing good visual descriptors and modeling these descriptors play an important role. Meanwhile how to organize the text associated with images is also very important. In this context, the objective of this thesis is to propose some innovative contributions for the task of VCDA. For visual models, a novel visual features/descriptors was proposed, which effectively and efficiently represent the visual content of images/videos. In addition, a novel method for encoding local binary descriptors was present. For textual models, we proposed two kinds of novel textual descriptor. The first descriptor is semantic Bag-of-Words(sBoW) using a dictionary. The second descriptor is Image Distance Feature(IDF) based on tags associated with images. Finally, in order to benefit from both visual models and textual models, fusion is carried out by MKL efficiently embed. [...]
8

Estimation structurée de la covariance du bruit en détection adaptative

Pailloux, Guilhem 10 June 2010 (has links)
Dans le cadre de la détection radar en environnement gaussien comme non-gaussien, de nombreux détecteurs ont été développés en se basant sur des modèles de fouillis précis et des estimateurs de matrices adaptés à ces modèles. Les modèles gaussiens, simples d’utilisation, montrent rapidement leurs limites face à la réalité physique et laissent ainsi place aux SIRP, processus aléatoires sphériquement invariants qui rendent compte beaucoup plus fidèlement de la non-gaussianité du fouillis. Les détecteurs adaptés à ces environnements sont alors construits sur la base d’un estimateur de la matrice de covariance adapté. Or, dans de nombreuses applications, cette matrice de covariance présente une structure particulière dite persymétrique. L’objet de cette thèse est donc d’exploiter cette structure particulière de la matrice de covariance du fouillis afin d’en diminuer l’erreur d’estimation. Par cette exploitation, deux nouveaux estimateurs de la matrice ont été déterminés pour les environnements gaussiens et non-gaussiens. Ces détecteurs nommés PAMF et GLRT-PFP, ont été caractérisés statistiquement et une validation des travaux théoriques a été menée sur des données opérationnelles tant gaussiennes que non-gaussiennes. Une application de la persymétrie a également été effectuée dans le cadre des algorithmes spatio-temporels (STAP) ainsi que sur des algorithmes dits "à rang réduit". Les résultats probants en détection obtenus sur tous ces types de données confirment donc l’intérêt de la technique étudiée. Enfin, un élargissement de la structure persymétrique a été étudié par l’extension des détecteurs aux matrices dites de Toeplitz. Ces matrices obtenues dans le cas de traitements spatio-temporels présentent une structuration plus riche encore que la persymétrie et permettent d’envisager des développements futurs intéressants en vue de l’amélioration des performances des détecteurs. Les premiers résultats sont présentés pour conclure ce travail de thèse. / This thesis deals with Radar detection in Gaussian and non-Gaussian noise. In this context, the clutter covariance matrix commonly exhibits a particular persymmetric structure. This structure is exploited into a particular matrix transformation to provide two new covariance matrices estimates for Gaussian and non-gaussian noise. We use then this particular linear transformation in order to develop and to study the statistical property of the two new detectors based on these estimates for both Gaussian and non-Gaussian environments. The improvement in terms of detection performances of these new detectors is shown through a lots of simulations and validation on operational data, for both Gaussian and non- Gaussian noise. Moreover this exploitation is extended to space-time adaptive processing and reduced rank technical. All the results confirm then the high interest of taking into account this particular structure in radar detection process compared to classical detection schemes. The case of Toeplitz matrices is also studied. The Toeplitz matrices are a particular class of structured matrices obtain with space-time processing which theoretically allows to improve the performance of detectors based on this matrix assumption. In this context, some preliminary results are presented in order to conclude this thesis.
9

Detection and dynamic of local communities in large social networks / Détection et dynamique des communautés locales dans les grands réseaux sociaux

Ngonmang Kaledje, Christel Blaise 27 November 2014 (has links)
Les réseaux sont présents dans plusieurs contextes et applications : biologie, transports, réseaux sociaux en ligne, etc. De nombreuses applications récentes traitent d'immenses volumes de données personnelles. Les liens entre les personnes dans ces données peuvent traduire des liens d'amitiés, des échanges de messages, ou des intérêts communs. Les entités impliquées dans les réseaux, et spécialement les personnes, ont tendance à former des communautés. Dans ce contexte, une communauté peut être définie comme un ensemble d'entités qui interagissent beaucoup plus entre elles qu'avec le reste du réseau. La détection de communautés dans les grands réseaux a largement été étudiée pendant ces dernières années, suite aux travaux précurseurs de Newman qui a introduit le critère de modularité. Toutefois, la majorité des algorithmes de détection de communautés supposent que le réseau est complètement connu et qu'il n'évolue pas avec le temps. Dans cette thèse, nous commençons par proposer de nouvelles méthodes pour la détection de communautés locales (en considérant uniquement le voisinage d'un nœud donné et sans accéder à la totalité du réseau). Nos algorithmes sont plus efficaces que ceux de l'état de l'art. Nous montrons ensuite comment utiliser les communautés détectées pour améliorer la prévision de comportements utilisateurs. Dans un deuxième temps, nous proposons des approches pour prévoir l'évolution des communautés détectées. Ces méthodes sont basées sur des techniques d'apprentissage automatique. Enfin, nous proposons un framework général pour stocker et analyser les réseaux distribués dans un environnement "Big Data" . Les méthodes proposées sont validées en utilisant (entre autre) des données réelles issues d'un partenaire industriel fournissant un des réseaux en ligne les plus utilisés en France (40 millions d'utilisateurs). / Complex networks arises in many contexts and applications : biology, transports, online social networks (ONS). Many recent applications deal with large amount of personal data. The links between peoples may reflect freindship, messaging, or some common interests. Entities in complex network, and espacially persons, tend to form communities. Here, a community can be defined as a set of entities interacting more between each other than with the rest of the network. The topic of community detection in large networks as been extensively studied during the last decades, following the seminal work by newman, who popularized the modularity criteria. However, most community detection algorithms assume that the network is entirely known and that is does not evolve with time. This is usually not true in real world applications. In this thesis, we start by proposing novel methods for local community identification (considering only the vicinity of a given node, without accessing the whole graph). Our algorithms experimentally outperform the state-of-art methods. We show how to use the local communities to enhance the prediction of a user's behaviour. Secondly, we propose some approaches to predict the evolution of the detected communities based on machine learning methods. Finally we propose a framework for storing and processing distributed social networks in a Big Data environment. The proposed methods are validated using (among others) real world data, provided by a industrial partner operating a major social network platform in France (40 millions of users).
10

Mesures de confiance trame-synchrones et locales en reconnaissance automatique de la parole / Local and on-the-fly Confidence Measures for Automatic Speech Recognition

Razik, Joseph 09 October 2007 (has links)
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance. Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance grand vocabulaire en flux continu. Nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées. Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde. Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif. / In automatic speech recognition, confidence measures aim at estimating the confidence we can give to a result (phone, word, sentence) provided by the speech recognition engine. In this thesis, we propose several confidence measures which are able to provide this estimation for applications using large vocabulary and on-the-fly recognition, as keyword indexation, broadcast news transcription, and live teaching class transcription for hard of hearing childs. We have defined two types of confidence measures. The first, based on likelihood ratio, are frame-synchronous measures which can be computed simultaneously with the recognition process of the sentence. The second ones are based on an estimation of the posterior probability limited to a local neighborhood of the considered word, and need only a short delay before being computed on the sub word graph extracted from the recognition process. These measures were assessed and compared to a state-of-the-art one, which is also based on posterior probability but which requires the recognition of the whole sentence. Two evaluations were performed on a real broadcast news corpus. The first one used the Equal Error Rate criterion in an automatic transcription task. The second evaluation was performed in a keyword spotting task. We achieved performance close to our reference measure with our local measures and a delay of less than one second. We also integrated one of our frame-synchronous measures in the decoding process of the recognition engine in order to improve the solution provided by the system and then to decrease the word error rate. We achieved to decrease the word error rate of around 1%.

Page generated in 0.0728 seconds