• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection de textes générés automatiquement / Detection of automatically generated texts

Nguyen, Minh Tien 03 April 2018 (has links)
Le texte généré automatiquement a été utilisé dans de nombreuses occasions à des buts différents. Il peut simplement passer des commentaires générés dans une discussion en ligne à une tâche beaucoup plus malveillante, comme manipuler des informations bibliographiques. Ainsi, cette thèse introduit d'abord différentes méthodes pour générer des textes libres ayant trait à un certain sujet et comment ces textes peuvent être utilisés. Par conséquent, nous essayons d'aborder plusieurs questions de recherche. La première question est comment et quelle est la meilleure méthode pour détecter un document entièrement généré.Ensuite, nous irons un peu plus loin et montrer la possibilité de détecter quelques phrases ou un petit paragraphe de texte généré automatiquement en proposant une nouvelle méthode pour calculer la similarité des phrases en utilisant leur structure grammaticale. La dernière question est comment détecter un document généré automatiquement sans aucun échantillon, ceci est utilisé pour illustrer le cas d'un nouveau générateur ou d'un générateur dont il est impossible de collecter des échantillons dessus.Cette thèse étudie également l'aspect industriel du développement. Un aperçu simple d'un flux de travail de publication d'un éditeur de premier plan est présenté. À partir de là, une analyse est effectuée afin de pouvoir intégrer au mieux notre méthode de détection dans le flux de production.En conclusion, cette thèse a fait la lumière sur de multiples questions de recherche importantes concernant la possibilité de détecter des textes générés automatiquement dans différents contextes. En plus de l'aspect de la recherche, des travaux d'ingénierie importants dans un environnement industriel réel sont également réalisés pour démontrer qu'il est important d'avoir une application réelle pour accompagner une recherche hypothétique. / Automatically generated text has been used in numerous occasions with distinct intentions. It can simply go from generated comments in an online discussion to a much more mischievous task, such as manipulating bibliography information. So, this thesis first introduces different methods of generating free texts that resemble a certain topic and how those texts can be used. Therefore, we try to tackle with multiple research questions. The first question is how and what is the best method to detect a fully generated document.Then, we take it one step further to address the possibility of detecting a couple of sentences or a small paragraph of automatically generated text by proposing a new method to calculate sentences similarity using their grammatical structure. The last question is how to detect an automatically generated document without any samples, this is used to address the case of a new generator or a generator that it is impossible to collect samples from.This thesis also deals with the industrial aspect of development. A simple overview of a publishing workflow from a high-profile publisher is presented. From there, an analysis is carried out to be able to best incorporate our method of detection into the production workflow.In conclusion, this thesis has shed light on multiple important research questions about the possibility of detecting automatically generated texts in different setting. Besides the researching aspect, important engineering work in a real life industrial environment is also carried out to demonstrate that it is important to have real application along with hypothetical research.
2

Self-organizing map quantization error approach for detecting temporal variations in image sets / Détection automatisée de variations critiques dans des séries temporelles d'images par algorithmes non-supervisées de Kohonen

Wandeto, John Mwangi 14 September 2018 (has links)
Une nouvelle approche du traitement de l'image, appelée SOM-QE, qui exploite quantization error (QE) des self-organizing maps (SOM) est proposée dans cette thèse. Les SOM produisent des représentations discrètes de faible dimension des données d'entrée de haute dimension. QE est déterminée à partir des résultats du processus d'apprentissage non supervisé du SOM et des données d'entrée. SOM-QE d'une série chronologique d'images peut être utilisé comme indicateur de changements dans la série chronologique. Pour configurer SOM, on détermine la taille de la carte, la distance du voisinage, le rythme d'apprentissage et le nombre d'itérations dans le processus d'apprentissage. La combinaison de ces paramètres, qui donne la valeur la plus faible de QE, est considérée comme le jeu de paramètres optimal et est utilisée pour transformer l'ensemble de données. C'est l'utilisation de l'assouplissement quantitatif. La nouveauté de la technique SOM-QE est quadruple : d'abord dans l'usage. SOM-QE utilise un SOM pour déterminer la QE de différentes images - typiquement, dans un ensemble de données de séries temporelles - contrairement à l'utilisation traditionnelle où différents SOMs sont appliqués sur un ensemble de données. Deuxièmement, la valeur SOM-QE est introduite pour mesurer l'uniformité de l'image. Troisièmement, la valeur SOM-QE devient une étiquette spéciale et unique pour l'image dans l'ensemble de données et quatrièmement, cette étiquette est utilisée pour suivre les changements qui se produisent dans les images suivantes de la même scène. Ainsi, SOM-QE fournit une mesure des variations à l'intérieur de l'image à une instance dans le temps, et lorsqu'il est comparé aux valeurs des images subséquentes de la même scène, il révèle une visualisation transitoire des changements dans la scène à l'étude. Dans cette recherche, l'approche a été appliquée à l'imagerie artificielle, médicale et géographique pour démontrer sa performance. Les scientifiques et les ingénieurs s'intéressent aux changements qui se produisent dans les scènes géographiques d'intérêt, comme la construction de nouveaux bâtiments dans une ville ou le recul des lésions dans les images médicales. La technique SOM-QE offre un nouveau moyen de détection automatique de la croissance dans les espaces urbains ou de la progression des maladies, fournissant des informations opportunes pour une planification ou un traitement approprié. Dans ce travail, il est démontré que SOM-QE peut capturer de très petits changements dans les images. Les résultats confirment également qu'il est rapide et moins coûteux de faire la distinction entre le contenu modifié et le contenu inchangé dans les grands ensembles de données d'images. La corrélation de Pearson a confirmé qu'il y avait des corrélations statistiquement significatives entre les valeurs SOM-QE et les données réelles de vérité de terrain. Sur le plan de l'évaluation, cette technique a donné de meilleurs résultats que les autres approches existantes. Ce travail est important car il introduit une nouvelle façon d'envisager la détection rapide et automatique des changements, même lorsqu'il s'agit de petits changements locaux dans les images. Il introduit également une nouvelle méthode de détermination de QE, et les données qu'il génère peuvent être utilisées pour prédire les changements dans un ensemble de données de séries chronologiques. / A new approach for image processing, dubbed SOM-QE, that exploits the quantization error (QE) from self-organizing maps (SOM) is proposed in this thesis. SOM produce low-dimensional discrete representations of high-dimensional input data. QE is determined from the results of the unsupervised learning process of SOM and the input data. SOM-QE from a time-series of images can be used as an indicator of changes in the time series. To set-up SOM, a map size, the neighbourhood distance, the learning rate and the number of iterations in the learning process are determined. The combination of these parameters that gives the lowest value of QE, is taken to be the optimal parameter set and it is used to transform the dataset. This has been the use of QE. The novelty in SOM-QE technique is fourfold: first, in the usage. SOM-QE employs a SOM to determine QE for different images - typically, in a time series dataset - unlike the traditional usage where different SOMs are applied on one dataset. Secondly, the SOM-QE value is introduced as a measure of uniformity within the image. Thirdly, the SOM-QE value becomes a special, unique label for the image within the dataset and fourthly, this label is used to track changes that occur in subsequent images of the same scene. Thus, SOM-QE provides a measure of variations within the image at an instance in time, and when compared with the values from subsequent images of the same scene, it reveals a transient visualization of changes in the scene of study. In this research the approach was applied to artificial, medical and geographic imagery to demonstrate its performance. Changes that occur in geographic scenes of interest, such as new buildings being put up in a city or lesions receding in medical images are of interest to scientists and engineers. The SOM-QE technique provides a new way for automatic detection of growth in urban spaces or the progressions of diseases, giving timely information for appropriate planning or treatment. In this work, it is demonstrated that SOM-QE can capture very small changes in images. Results also confirm it to be fast and less computationally expensive in discriminating between changed and unchanged contents in large image datasets. Pearson's correlation confirmed that there was statistically significant correlations between SOM-QE values and the actual ground truth data. On evaluation, this technique performed better compared to other existing approaches. This work is important as it introduces a new way of looking at fast, automatic change detection even when dealing with small local changes within images. It also introduces a new method of determining QE, and the data it generates can be used to predict changes in a time series dataset.
3

Quest for new nuclear magic numbers with MINOS / Quête de nouveaux nombres magiques nucléaires avec MINOS

Santamaria, Clémentine 07 September 2015 (has links)
Le détecteur MINOS a été développé jusqu'à mi-2013 pour la spectroscopie γ prompte de noyaux très exotiques à partir de réactions d’arrachage de protons. Il est composé d'une cible épaisse d'hydrogène liquide pour augmenter la luminosité et d’une chambre à projection temporelle (TPC) pour reconstruire la position du vertex de réaction et de compenser l'effet de la cible épaisse sur la correction Doppler.La chambre à projection temporelle a été développée avec l'expertise du CEA-Irfu sur les détecteurs gazeux de type Micromegas. Dans un premier temps, différentes solutions pour la TPC ont été testées dans une chambre d'essai avec une source α et des mesures de rayons cosmiques. Des muons cosmiques ont été détectés pour la première fois en utilisant la chambre d'essai en début 2013 et ont validé l'utilisation d'un plan de détection Micromegas. Le premier prototype de TPC a été achevé en mai 2013 et nous avons utilisé un banc de rayons cosmiques pour estimer l’efficacité de la TPC.MINOS a ensuite été expédié au Japon et un test de performance sous faisceau a été réalisée à l'installation médicale HIMAC (Chiba, Japon) avec deux cibles minces au lieu de la cible épaisse d'hydrogène pour valider l'algorithme de reconstruction et la résolution de la position du vertex. Un algorithme de reconstruction de traces basé sur la transformée de Hough a été mis au point pour l'analyse des données, testé avec ces données, et comparé à des simulations.La première campagne de physique avec MINOS a eu lieu en mai 2014, avec SEASTAR. Elle s’est concentrée sur la première spectroscopie des ⁶ ⁶ Cr, ⁷⁰,⁷²Fe et ⁷⁸Ni. L'analyse de la spectroscopie du ⁶ ⁶Cr a révélé deux transitions, assignées aux deux premiers états excités. Une interprétation avec des calculs de modèle en couches montre que le maximum de collectivité quadripolaire se produit à N = 40 le long de la chaîne isotopique de chrome.Le ⁶ ⁶Cr est toujours placé dans la région de l’Îlot d’Inversion à N = 40 et les calculs de modèle en couches ainsi que la comparaison avec des calculs basés sur HFB suggèrent une extension de cet Îlot d’Inversion vers N = 50 en dessous du ⁷⁸Ni. L'analyse des ⁷⁰,⁷²Fe effectuée par C. Louchart (TU Darmstadt, Allemagne) révèle la même tendance que pour les isotopes de chrome. Les données et notre interprétation par le modèle en couches suggère une grande collectivité les Cr et Fe riches en neutrons, éventuellement jusqu'à N = 50, ce qui remettrait en cause la solidité de la fermeture de couche N = 50 en dessous du ⁷⁸Ni. / The MINOS device has been developed until mid-2013 for in-beam γ spectroscopy of very exotic nuclei from proton knockout reactions. It is composed of a thick liquid hydrogen target to achieve higher luminosities and a Time Projection Chamber (TPC) to reconstruct the vertex position and compensate for the thick target effect on the Doppler correction.The Time Projection Chamber has been developed with the expertise of CEA-IRFU in gas detectors and Micromegas detectors. At first, different solutions for the TPC were tested in a test chamber with an α source and cosmic-ray measurements. Cosmic rays were detected for the first time using the test chamber in early 2013 and validated the use of a Micromegas detection plane. The first TPC prototype was finished in May 2013, and we used a cosmic-ray bench to estimate the effiiciency of the TPC. The MINOS device was then shipped to Japan and an in-beam performance test was performed at the HIMAC medical facility (Chiba, Japan) with two thin targets instead of the thick hydrogen target to validate the tracking algorithm and the vertex position resolution. A tracking algorithm for the offline analysis based on the Hough transform has been developed, tested with the data, and compared with simulations.The first physics campaign using MINOS took place in May 2014 with SEASTAR. It focused on the first spectroscopy of ⁶ ⁶ Cr, ⁷⁰,⁷²Fe, and ⁷⁸Ni. The analysis of the ⁶⁶Cr spectroscopy revealed two transitions, assigned to the two first excited states. An interpretation with shell model calculations shows that the maximum of quadrupole collectivity occurs at N=40 along the Cr isotopic chain.⁶⁶Cr is still placed in the Island of Inversion region of N=40 and the shell model calculations as well as comparison with HFB-based calculations suggest an extension of this Island of Inversion towards N=50 below ⁷⁸Ni. The analysis of ⁷⁰,⁷²Fe performed by C. Louchart (TU Darmstadt, Germany) reveals the same trend as for Cr isotopes, with a maximum of deformation at N=42. The full data set and our shell-model interpretation suggests a large collectivity for neutron-rich Cr and Fe, possibly up to N=50, questioning the robustness of the N=50 shell closure below ⁷⁸Ni.

Page generated in 0.0532 seconds