Spelling suggestions: "subject:"apprentissage machine"" "subject:"pprentissage machine""
51 |
Dealing with heterogeneity in the prediction of clinical diagnosisLanglois Dansereau, Christian 08 1900 (has links)
No description available.
|
52 |
Segmentation automatique de la fibrose pulmonaire sur images de tomodensitométrie en radio-oncologieFréchette, Nicolas 08 1900 (has links)
La fibrose pulmonaire est une maladie pulmonaire interstitielle caractérisée par une production irréversible de tissus conjonctifs. Le pronostic de la maladie est plus faible que celui de plusieurs cancers. Dans les dernières années, cette pathologie a été identifiée comme un risque de complication suite à des traitements de radiothérapie. Développer une toxicité post-radique peut compromettre les bénéfices de la radiothérapie, ce qui fait de la fibrose pulmonaire une contre-indication relative. Localiser manuellement la présence de fibrose sur des images de tomodensitométrie (CT) est un problème difficile pouvant nécessiter l’intervention de plusieurs experts pour un seul patient. L’objectif de ce projet est de segmenter automatiquement la fibrose pulmonaire sur des images CT. Des réseaux de neurones complètement convolutifs ont été développés et implémentés pour effectuer une assignation automatique de tissus pulmonaires. Sur une coupe axiale donnée en entrée, l’assignation est réalisée pour l’ensemble des voxels pulmonaires en une seule inférence. L’optimisation des paramètres a été réalisée dans des contextes d’apprentissage supervisé et semi-supervisé en minimisant des variantes de l’entropie croisée entre les prédictions et des annotations manuelles d’experts. Les données utilisées consistent en des images CT haute résolution ainsi que des délinéations réalisées par des radiologistes et des radio-oncologues. Les cartes de segmentation prédites ont été comparées par rapport à des segmentations manuelles afin de valider les tissus assignés par les réseaux convolutifs. Les résultats obtenus suggèrent que des applications en radio-oncologie sont envisageables, telles que le dépistage de la fibrose avant la planification de traitements et l’évaluation de la progression de la fibrose pendant et suivant les traitements de radiothérapie. / Pulmonary fibrosis is an interstitial lung disease characterized by an irreversible
production of scarring tissue. Pulmonary fibrosis has a particularly poor
prognosis, with a mean survival after diagnosis lower than many cancers. This
pathology was recently identified as a risk for complication following radiation
therapy treatments. Pulmonary toxicity can lead to severe conditions that
compromise the benefits provided by radiation therapy, making pulmonary
fibrosis a relative contraindication to treatments. Manual segmentation of
fibrosis on computed tomography (CT) images is a difficult task that can
involve many experts for a single patient.
The aim of this project is to perform automatic segmentation of pulmonary
fibrosis on CT images. Fully convolutional neural networks were developed and
implemented to automatically assign lung tissues. For an input CT slice, every
lung voxel is assigned a tissue in a single inference. Parameters optimization was
performed in a supervised and semi-supervised manner by minimizing variants
of the cross-entropy between the prediction and manual annotations produced
by experts. The dataset employed consists of high resolution CT scans and
delineations made by radiologists and radiation oncologists. Predicted
segmentation maps were compared with manual segmentations to validate the
tissues assigned by the convolutional networks. Results suggest that radiation
oncology applications could be developed. Possible applications include
pulmonary fibrosis screening prior to treatment planning and assessment of
fibrosis progression during and post-treatment.
|
53 |
Spatial decision support in urban environments using machine learning, 3D geo-visualization and semantic integration of multi-source data / Aide à la décision spatiale dans les environnements urbains à l'aide du machine learning, de la géo-visualisation 3D et de l'intégration sémantique de données multi-sourcesSideris, Nikolaos 26 November 2019 (has links)
La quantité et la disponibilité sans cesse croissantes de données urbaines dérivées de sources variées posent de nombreux problèmes, notamment la consolidation, la visualisation et les perspectives d’exploitation maximales des données susmentionnées. Un problème prééminent qui affecte l’urbanisme est le choix du lieu approprié pour accueillir une activité particulière (service social ou commercial commun) ou l’utilisation correcte d’un bâtiment existant ou d’un espace vide. Dans cette thèse, nous proposons une approche pour aborder les défis précédents rencontrés avec les techniques d’apprentissage automatique, le classifieur de forêts aléatoires comme méthode dominante dans un système qui combine et fusionne divers types de données provenant de sources différentes, et les code à l’aide d’un nouveau modèle sémantique. qui peut capturer et utiliser à la fois des informations géométriques de bas niveau et des informations sémantiques de niveau supérieur et les transmet ensuite au classifieur de forêts aléatoires. Les données sont également transmises à d'autres classificateurs et les résultats sont évalués pour confirmer la prévalence de la méthode proposée. Les données extraites proviennent d’une multitude de sources, par exemple: fournisseurs de données ouvertes et organisations publiques s’occupant de planification urbaine. Lors de leur récupération et de leur inspection à différents niveaux (importation, conversion, géospatiale, par exemple), ils sont convertis de manière appropriée pour respecter les règles du modèle sémantique et les spécifications techniques des sous-systèmes correspondants. Des calculs géométriques et géographiques sont effectués et des informations sémantiques sont extraites. Enfin, les informations des étapes précédentes, ainsi que les résultats des techniques d’apprentissage automatique et des méthodes multicritères, sont intégrés au système et visualisés dans un environnement Web frontal capable d’exécuter et de visualiser des requêtes spatiales, permettant ainsi la gestion de trois processus. objets géoréférencés dimensionnels, leur récupération, transformation et visualisation, en tant que système d'aide à la décision. / The constantly increasing amount and availability of urban data derived from varying sources leads to an assortment of challenges that include, among others, the consolidation, visualization, and maximal exploitation prospects of the aforementioned data. A preeminent problem affecting urban planning is the appropriate choice of location to host a particular activity (either commercial or common welfare service) or the correct use of an existing building or empty space. In this thesis we propose an approach to address the preceding challenges availed with machine learning techniques with the random forests classifier as its dominant method in a system that combines, blends and merges various types of data from different sources, encode them using a novel semantic model that can capture and utilize both low-level geometric information and higher level semantic information and subsequently feeds them to the random forests classifier. The data are also forwarded to alternative classifiers and the results are appraised to confirm the prevalence of the proposed method. The data retrieved stem from a multitude of sources, e.g. open data providers and public organizations dealing with urban planning. Upon their retrieval and inspection at various levels (e.g. import, conversion, geospatial) they are appropriately converted to comply with the rules of the semantic model and the technical specifications of the corresponding subsystems. Geometrical and geographical calculations are performed and semantic information is extracted. Finally, the information from individual earlier stages along with the results from the machine learning techniques and the multicriteria methods are integrated into the system and visualized in a front-end web based environment able to execute and visualize spatial queries, allow the management of three-dimensional georeferenced objects, their retrieval, transformation and visualization, as a decision support system.
|
54 |
Astronomical image processing from large all-sky photometric surveys for the detection and measurement of type Ia supernovae / Traitement d'images astronomiques provenant de grands sondages photométriques du ciel pour la détection et la mesure d'objets transitoiresReyes Gomez, Juan Pablo 23 May 2019 (has links)
Cette thèse présente plusieurs contributions au software developé pour le traitement d’images dans le cadre du LSST. Notre objectif est d'utiliser le code et les algorithmes LSST existants, afin de créer un pipeline dédié à la détection des supernovae de type Ia. Pour la détection des supernovae nous utilisons une technique appelée soustraction optimale d'images qui implique la construction de coadditions. Nous étudions aussi le comportement des différents objets dans le temps et construisons des courbes de lumière qui représentent leur cycle de vie en fonction de l'intensité lumineuse de chaque détection sur plusieurs nuits. Enfin, pour analyser un nombre excessif de candidats, nous utilisons des algorithmes d'apprentissage machine.Notre première contribution concerne le développement des taches de coaddition automatisée adaptées pour construire des images de référence et de science avec un haut rapport signal-sur-bruit. La contribution suivante est lié à l’addition de mesures et l’étude de résidus des images d’analyse de différence, y-compris la sélection des seuils adaptés et l'étiquetage basée sur les valeurs quantitativess des résidus pour identifier les mauvaises détections, les artéfacts et les flux réellement significatifs. Notre suivante contribution est un algorithme pour sélectionner et générer les courbes de lumière candidates. Finalement, on applique une classification machine learning pour trouver des type Ia supernovae en utilisant la méthode random forest. Ces résultats ont permis l’identification des supernovae de type Ia simulées et réelles parmis les candidats avec une haute précision. / This thesis will present several contributions to the software developed for the LSST telescope with the purpose of contributing to the detection of type Ia supernovae. Our objective is to use the existing LSST code and algorithms, in order to create a type Ia supernovae detection dedicated pipeline.Since detecting supernovae requires a special type of processing, we use a technique known as the Optimal Image Subtraction which implies the construction of coadditions. Afterwards, we study the behavior of the different objects through time and build light curves that represent their life cycle in terms of the light intensity of each detection on several nights. Lastly, in order to analyze an excessive number of candidates, we employ machine learning algorithms to identify what curves are more probable to be type Ia supernovae. Our first contribution concerns the development of adapted and automatized coaddition tasks for building high signal-to-noise reference and science images. The next contribution is related to the addition of measurements and study of the residuals on difference image analysis, including the selection with adapted thresholding and the assignation of labels. We also propose, as contributions, an algorithm to select and generate the different candidate light curves through the selection of objects with recurrent detections through time and in the different bandpasses. Finally, we apply the machine learning classification approach to find type Ia supernovae by means of using a random forest classifier and based strictly on geometrical features that are present in the light curves.
|
55 |
Personnalisation non-invasive de modèles électrophysiologiques cardiaques à partir d'électrogrammes surfaciques / Non-invasive personalisation of cardiac electrophysiological models from surface electrogramsGiffard-Roisin, Sophie 11 December 2017 (has links)
L'objectif de cette thèse est d'utiliser des données non-invasives (électrocardiogrammes, ECG) pour personnaliser les principaux paramètres d'un modèle électrophysiologique (EP) cardiaque pour prédire la réponse à la thérapie de resynchronisation cardiaque. La TRC est un traitement utilisé en routine clinique pour certaines insuffisances cardiaques mais reste inefficace chez 30% des patients traités impliquant une morbidité et un coût importants. Une compréhension précise de la fonction cardiaque propre au patient peut aider à prédire la réponse à la thérapie. Les méthodes actuelles se basent sur un examen invasif au moyen d’un cathéter qui peut être dangereux pour le patient. Nous avons développé une personnalisation non-invasive du modèle EP fondée sur une base de données simulée et un apprentissage automatique. Nous avons estimé l'emplacement de l'activation initiale et un paramètre de conduction global. Nous avons étendu cette approche à plusieurs activations initiales et aux ischémies au moyen d'une régression bayésienne parcimonieuse. De plus, nous avons développé une anatomie de référence afin d'effectuer une régression hors ligne unique et nous avons prédit la réponse à différentes stimulations à partir du modèle personnalisé. Dans une seconde partie, nous avons étudié l'adaptation aux données ECG à 12 dérivations et l'intégration dans un modèle électromécanique à usage clinique. L'évaluation de notre travail a été réalisée sur un ensemble de données important (25 patients, 150 cycles cardiaques). En plus d'avoir des résultats comparables avec les dernières méthodes d'imagerie ECG, les signaux ECG prédits présentent une bonne corrélation avec les signaux réels. / The objective of this thesis is to use non-invasive data (body surface potential mapping, BSPM) to personalise the main parameters of a cardiac electrophysiological (EP) model for predicting the response to cardiac resynchronization therapy (CRT). CRT is a clinically proven treatment option for some heart failures. However, these therapies are ineffective in 30% of the treated patients and involve significant morbidity and substantial cost. The precise understanding of the patient-specific cardiac function can help to predict the response to therapy. Until now, such methods required to measure intra-cardiac electrical potentials through an invasive endovascular procedure which can be at risk for the patient. We developed a non-invasive EP model personalisation based on a patient-specific simulated database and machine learning regressions. First, we estimated the onset activation location and a global conduction parameter. We extended this approach to multiple onsets and to ischemic patients by means of a sparse Bayesian regression. Moreover, we developed a reference ventricle-torso anatomy in order to perform an common offline regression and we predicted the response to different pacing conditions from the personalised model. In a second part, we studied the adaptation of the proposed method to the input of 12-lead electrocardiograms (ECG) and the integration in an electro-mechanical model for a clinical use. The evaluation of our work was performed on an important dataset (more than 25 patients and 150 cardiac cycles). Besides having comparable results with state-of-the-art ECG imaging methods, the predicted BSPMs show good correlation coefficients with the real BSPMs.
|
56 |
Évolution intra-hôte de Vibrio cholerae et interactions avec le microbiome intestinalLevade, Inès 08 1900 (has links)
Le choléra est une infection diarrhéique aiguë qui représente encore aujourd’hui un grave problème de santé publique dans les pays où l’accès à l’eau potable et un système d’assainissement adéquat ne peut pas être garanti. Vibrio cholerae, le pathogène bactérien responsable de cette maladie, peut provoquer toute une série de symptômes chez les individus infectés, allant d’une diarrhée intense conduisant à une déshydratation sévère, au portage asymptomatique de la bactérie. Bien que notre compréhension du choléra à une échelle macro-épidémiologique a considérablement été améliorée par le développement des techniques de séquençage à haut débit et par les avancées dans le domaine de la génomique bactérienne, aucune étude n’a encore été menée pour caractériser son évolution à l’échelle des individus infectés. De plus, le rôle des porteurs asymptomatiques au sein d’une épidémie et la raison derrière l’absence de symptômes chez ces individus infectés sont encore méconnus. L’objectif principal de cette thèse est donc de (1) caractériser la diversité génomique de V. cholerae au niveau des individus et des cercles familiaux, mais aussi (2) d’évaluer le rôle potentiel du microbiome intestinal dans la susceptibilité de contracter cette maladie entérique aiguë et de présenter des symptômes sévères.
Dans un premier temps, nous caractérisons la diversité génomique de colonies isolées à partir de patients symptomatiques. Le séquençage de génomes entiers de souches provenant de patients du Bangladesh et d’Haïti révèle que cette diversité sous la forme de mutations ponctuelles reste limitée, mais détectable au sein des hôtes. Une grande partie de la variation du contenu génétique semble être surtout due au gain et à la perte de phages et de plasmides au sein de la population de V. cholerae, avec des échanges occasionnels entre le pathogène et d’autres membres commensaux du microbiote intestinal. Cela contredit l’hypothèse couramment acceptée que les infections par V. cholerae sont majoritairement clonales, et confirme que le transfert horizontal de gènes est un facteur important dans l’évolution de V. cholerae. De plus, nos résultats montrent que certains de ces variants peuvent avoir un effet phénotypique, impactant par exemple la formation de biofilms, et peuvent être sélectionnés au sein des individus infectés.
Par la suite, nous appliquons une association de méthodes de séquençage de génomes entiers et de méthodes métagénomiques afin d’améliorer la détection des variants intra-hôte, à la fois chez des patients symptomatiques, mais aussi chez des porteurs asymptomatiques. Notre étude montre que l’approche métagénomique offre une meilleure résolution dans la détection de la diversité dans la population microbienne, mais reste difficile à appliquer chez des patients asymptomatiques, en raison du faible nombre de cellules de V. cholerae chez ces patients. Dans l’ensemble, nous constatons que le niveau de diversité au sein de la population bactérienne intra-hôte est similaire entre les patients symptomatiques et asymptomatiques. Nous détectons aussi la présence de souches hypermutantes chez certains patients. De plus, alors que les mutations chez les patients porteurs de phénotypes d’hypermutations ne semblent pas sous l’effet de la sélection, des signes d'évolution parallèle sont détectés chez les patients présentant un plus faible nombre de mutations, suggérant des mécanismes d’adaptation au sein de l’hôte. Nos résultats soulignent la puissance de la métagénomique combinée au séquençage de génomes entiers pour caractériser la diversité intra-hôte dans le cas d’une infection aiguë du choléra, mais aussi dans le cas de portage asymptomatique, tout en identifiant pour la première fois le phénotype d’hypermutation chez des patients infectés.
Finalement, nous nous intéressons aux facteurs liés à la susceptibilité à la maladie et à la sévérité des symptômes. Basée sur une étude récente utilisant le séquençage 16S pour montrer le lien potentiel entre le microbiome intestinal et la susceptibilité à l’infection par V. cholerae, nos analyses utilisent les méthodes de séquençage métagénomique sur les mêmes échantillons de cette précédente étude afin de caractériser les profils taxonomiques et fonctionnels du microbiome intestinal de contacts familiaux exposés à V. cholerae. Les échantillons sont prélevés avant l’infection de ces contacts familiaux et l’apparition ou non de symptômes, et sont analysés pour identifier des prédicteurs à la maladie symptomatique. Grâce à un algorithme d’apprentissage machine, nous pouvons identifier des espèces, des familles de gènes et des voies métaboliques du microbiome au moment de l'exposition à V. cholerae pour détecter des biomarqueurs potentiels corrélés avec les risques d'infection et la gravité des symptômes. Nos résultats montrent que l’utilisation du séquençage métagénomique améliore la précision et l’exactitude des prévisions par rapport au séquençage 16S. Nos analyses permettent aussi de prédire la gravité de la maladie, bien qu’avec une plus grande incertitude que la prédiction de l’infection. Des taxons bactériens des genres Prevotella et Bifidobacterium ont été identifiées comme des marqueurs potentiels de protection contre l’infection, tout comme gènes impliqués dans le métabolisme du fer. Nos résultats soulignent le pouvoir de la métagénomique pour prédire l’évolution des maladies et identifient des espèces et des gènes spécifiques pouvant être impliqués dans des tests expérimentaux afin d’étudier les mécanismes liés au microbiome intestinal expliquant la potentielle protection contre le choléra. / Cholera is an acute diarrhoeal disease that remains a global threat to public health in countries where access to safe water and adequate sanitation cannot be guaranteed. Vibrio cholerae, the bacterial pathogen responsible for this disease, can cause a range of symptoms in infected individuals, from intense diarrhea leading to severe dehydration, to asymptomatic carriage of the bacteria. Although our understanding of cholera on a macro-epidemiological scale has been considerably improved by the development of high-throughput sequencing techniques and by advances in bacterial genomics, no studies have yet been conducted to characterize its evolution at the scale of infected individuals. Furthermore, the role of asymptomatic carriers in an epidemic and the reason behind the absence of symptoms in these infected individuals remains unknown. The main objective of this thesis is therefore to characterize the genomic diversity of V. cholerae at the level of individuals and households, but also to evaluate the potential role of the gut microbiome in the susceptibility to contract this acute enteric disease and to present severe symptoms. First, we characterize the genomic diversity of colonies isolated from symptomatic patients. The whole genome sequencing of strains from patients in Bangladesh and Haiti reveals that this diversity is detectable in the form of point mutations within hosts, but remains limited. Much of the variation detected within patients appears to be due to the gain and loss of phages and plasmids within the V. cholerae population, with occasional exchanges between the pathogen and other commensal members of the gut microbiota. These results challenge the commonly accepted assumption that V. cholerae infections are predominantly clonal, and confirm that horizontal gene transfer is an important factor in the evolution of V. cholerae. In addition, our results show that some of these variants may also have a phenotypic effect, for example by impacting biofilm formation, and can be selected within infected individuals.
Next, we apply a combination of whole genome sequencing and metagenomic approaches to improve the detection of intra-host variants, both in symptomatic patients and in asymptomatic carriers. Our study shows that the metagenomic approach offers a better resolution in the detection of the diversity in the microbial population, but remains difficult to apply in asymptomatic patients, due to the low number of V. cholerae cells in these individuals. Overall, we find that the level of diversity within the intra-host bacterial population is similar between symptomatic and asymptomatic patients. We also detect the presence of hypermutator strains in some patients. In addition, while mutations in patients with hypermutator phenotypes did not appear to be driven by selection, signs of parallel evolution are detected in patients with fewer mutations, suggesting adaptive mechanisms within the host. Our results underline the power of metagenomics combined with whole genome sequencing to characterize intra-host diversity in acute cholera infection, but also in asymptomatic carriers, while identifying for the first time an hypermutator phenotype in infected patients.
Finally, we are interested in factors related to susceptibility to the disease and related to the severity of symptoms. Based on a recent study using 16S rRNA amplicon sequencing to show the potential link between the intestinal microbiome and susceptibility to V. cholerae infection, our study uses metagenomic sequencing methods on the same samples from this previous study to characterize the taxonomic and functional profiles of the gut microbiome of household contacts exposed to V. cholerae. Samples are collected prior to infection of these household contacts, and used to identify predictors of symptomatic disease. Using a machine learning algorithm, we can identify species, gene families and metabolic pathways in the microbiome at the time of exposure to V. cholerae to detect potential biomarkers correlated with risk of infection and symptom severity. Our results show that the use of metagenomic sequencing improves the precision and accuracy of predictions compared to 16S rRNA amplicon sequencing. Our analyses also predict disease severity, although with greater uncertainty than the prediction of infection. Bacterial taxa from the genera Prevotella and Bifidobacterium have been identified as potential markers of protection against infection, as well as genes involved in iron metabolism. Our results highlight the power of metagenomics to predict disease progression and identify specific species and genes that could be involved in experimental tests to study the mechanisms related to the microbiome explaining potential protection against cholera.
|
57 |
Caractérisation du niveau d’amusement grâce à des techniques d’apprentissage machineToupin, Gabrielle 05 1900 (has links)
Introduction. L'humour est un processus cognitif complexe qui peut entraîner un état émotionnel
positif d’amusement. La réponse émotionnelle déclenchée par l'humour possède plusieurs
bénéfices pour la santé. Son utilisation en recherche et lors d’essais cliniques est d’ailleurs de plus
en plus fréquente. Malheureusement, l’appréciation de l’humour varie considérablement d’un
individu à l’autre, et entraîne des réponses émotionnelles très différentes. Cette variabilité,
rarement prise en compte dans les études de recherche, est donc importante à quantifier pour
pouvoir évaluer de manière robuste les effets de l’humour sur la santé. Objectifs. Ce projet de
maîtrise vise à explorer différentes modalités permettant d’établir une mesure objective de
l'appréciation de l'humour via des techniques d'apprentissage automatique et d'apprentissage
profond. Les caractéristiques de la vidéo, les expressions faciales et l'activité cérébrale ont été
testées comme prédicteur potentiels de l’intensité de l'amusement. Étude 1. Dans notre
première étude, les participants (n = 40) ont regardé et évalué des vidéos humoristiques et
neutres pendant que leurs expressions faciales étaient enregistrées. Pour chaque vidéo, nous
avons calculé le mouvement moyen, la saillance et deux scores sémantiques. L’algorithme
d’arbres aléatoire a été entraîné sur les caractéristiques des vidéos et le sourire des participants
afin de prédire à quel point le participant a évalué la vidéo comme étant drôle, et ce, à trois
moments durant la vidéo (début, milieu et fin). De plus, nous avons utilisé l'expression faciale du
participant pour explorer la dynamique temporelle de l'appréciation de l'humour tout au long de
la vidéo et ses impacts sur la vidéo suivante. Nos résultats ont montré que les caractéristiques
des vidéos permettent de bien classifier les vidéos neutres et les vidéos humoristiques, mais ne
permettent pas de différencier les intensités d'humour. À l’inverse, le sourire est un bon
prédicteur de l’intensité de l’amusement au sein des vidéos humoristiques (contribution=0.53) et
est la seule modalité à fluctuer dans le temps; montrant ainsi que l'appréciation de l'humour est
plus grande à la fin de la vidéo et après la vidéo. Étude 2. Notre deuxième étude a utilisé des
techniques d'apprentissage profond afin de prédire l’intensité de l’amusement ressenti par les
participants (n = 10) lorsqu’ils visionnaient des vidéos humoristiques avec un casque EEG
commercial. Nous avons utilisé un algorithme LSTM pour prédire les intensités d'amusement
vi
(faible, modéré, élevé, très élevé) en fonction d'une seconde d'activité cérébrale. Les résultats
ont montré une bonne transférabilité entre les participants et une précision de décodage
dépassant 80% d’exactitude. Conclusion. Les caractéristiques de la vidéo, les expressions faciales
des participants et l'activité cérébrale ont permis de prédire l'appréciation de l'humour. À partir
de ces trois modalités, nous avons trouvé que les réactions physiologiques (expression faciale et
activité cérébrale) prédisent mieux les intensités de l’amusement tout en offrant une meilleure
précision temporelle de la dynamique d'appréciation de l'humour. Les futures études employant
l'humour gagneraient à inclure le niveau d’appréciation, mesuré via le sourire ou l’activité
cérébrale, comme variable d’intérêt dans leurs protocoles expérimentaux. / Introduction. Humour is a complex cognitive process that can result in a positive emotional state of amusement. The emotional response triggered by humour has several health benefits and is used in many research and clinical trials as treatments. Humour appreciation varies greatly between participants and can trigger different levels of emotional response. Unfortunately, research rarely considers these individual differences, which could impact the implication of humour in research. These researches would benefit from having an objective method to detect humour appreciation. Objectives. This master's thesis seeks to provide an appropriate solution for an objective measure of humour appreciation by using machine learning and deep learning techniques to predict how individuals react to humorous videos. Video characteristics, facial expressions and brain activity were tested as potential predictors of amusement’s intensity. Study 1. In our first study, participants (n=40) watched and rated humorous and neutral videos while their facial expressions were recorded. For each video, we computed the average movement, saliency and semantics associated with the video. Random Forest Classifier was used to predict how funny the participant rated the video at three moments during the clip (begging, middle, end) based on the video's characteristics and the smiles of the participant. Furthermore, we used the participant's facial expression to explore the temporal dynamics of humour appreciation throughout the video and its impacts on the following video. Our results showed that video characteristics are better to classify between neutral and humorous videos but cannot differentiate humour intensities. On the other hand, smiling was better to determine how funny the humorous videos were rated. The proportion of smiles also had more significant fluctuations in time, showing that humour appreciation is greater at the end of the video and the moment just after. Study 2. Our second study used deep learning techniques to predict how funny participants (n=10) rated humorous videos with a commercial EEG headset. We used an LSTM algorithm to predict the intensities of amusement (low, medium, high, very high) based on one second of brain activity. Results showed good transferability across participants, and decoding accuracy reached over 80%. Conclusion. Video characteristics, participant's facial expressions and brain activity allowed us to predict humour appreciation. From these three, we found that physiological reactions (facial expression and brain activity) better predict funniness intensities while also offering a better temporal precision as to when humour appreciation occurs. Further studies using humour would benefit from adding physiological responses as a variable of interest in their experimental protocol.
|
58 |
Analysis of user popularity pattern and engagement prediction in online social networks / Analyse du modèle de popularité de l'utilisateur et de la prédiction d'engagement en les réseaux sociaux en ligneMohammadi, Samin 04 December 2018 (has links)
De nos jours, les médias sociaux ont largement affecté tous les aspects de la vie humaine. Le changement le plus significatif dans le comportement des gens après l'émergence des réseaux sociaux en ligne (OSNs) est leur méthode de communication et sa portée. Avoir plus de connexions sur les OSNs apporte plus d'attention et de visibilité aux gens, où cela s'appelle la popularité sur les médias sociaux. Selon le type de réseau social, la popularité se mesure par le nombre d'adeptes, d'amis, de retweets, de goûts et toutes les autres mesures qui servaient à calculer l'engagement. L'étude du comportement de popularité des utilisateurs et des contenus publiés sur les médias sociaux et la prédiction de leur statut futur sont des axes de recherche importants qui bénéficient à différentes applications telles que les systèmes de recommandation, les réseaux de diffusion de contenu, les campagnes publicitaires, la prévision des résultats des élections, etc. Cette thèse porte sur l'analyse du comportement de popularité des utilisateurs d'OSN et de leurs messages publiés afin, d'une part, d'identifier les tendances de popularité des utilisateurs et des messages et, d'autre part, de prévoir leur popularité future et leur niveau d'engagement pour les messages publiés par les utilisateurs. A cette fin, i) l'évolution de la popularité des utilisateurs de l'ONS est étudiée à l'aide d'un ensemble de données d'utilisateurs professionnels 8K Facebook collectées par un crawler avancé. L'ensemble de données collectées comprend environ 38 millions d'instantanés des valeurs de popularité des utilisateurs et 64 millions de messages publiés sur une période de 4 ans. Le regroupement des séquences temporelles des valeurs de popularité des utilisateurs a permis d'identifier des modèles d'évolution de popularité différents et intéressants. Les grappes identifiées sont caractérisées par l'analyse du secteur d'activité des utilisateurs, appelé catégorie, leur niveau d'activité, ainsi que l'effet des événements externes. Ensuite ii) la thèse porte sur la prédiction de l'engagement des utilisateurs sur les messages publiés par les utilisateurs sur les OSNs. Un nouveau modèle de prédiction est proposé qui tire parti de l'information mutuelle par points (PMI) et prédit la réaction future des utilisateurs aux messages nouvellement publiés. Enfin, iii) le modèle proposé est élargi pour tirer profit de l'apprentissage de la représentation et prévoir l'engagement futur des utilisateurs sur leurs postes respectifs. L'approche de prédiction proposée extrait l'intégration de l'utilisateur de son historique de réaction au lieu d'utiliser les méthodes conventionnelles d'extraction de caractéristiques. La performance du modèle proposé prouve qu'il surpasse les méthodes d'apprentissage conventionnelles disponibles dans la littérature. Les modèles proposés dans cette thèse, non seulement déplacent les modèles de prédiction de réaction vers le haut pour exploiter les fonctions d'apprentissage de la représentation au lieu de celles qui sont faites à la main, mais pourraient également aider les nouvelles agences, les campagnes publicitaires, les fournisseurs de contenu dans les CDN et les systèmes de recommandation à tirer parti de résultats de prédiction plus précis afin d'améliorer leurs services aux utilisateurs / Nowadays, social media has widely affected every aspect of human life. The most significant change in people's behavior after emerging Online Social Networks (OSNs) is their communication method and its range. Having more connections on OSNs brings more attention and visibility to people, where it is called popularity on social media. Depending on the type of social network, popularity is measured by the number of followers, friends, retweets, likes, and all those other metrics that is used to calculate engagement. Studying the popularity behavior of users and published contents on social media and predicting its future status are the important research directions which benefit different applications such as recommender systems, content delivery networks, advertising campaign, election results prediction and so on. This thesis addresses the analysis of popularity behavior of OSN users and their published posts in order to first, identify the popularity trends of users and posts and second, predict their future popularity and engagement level for published posts by users. To this end, i) the popularity evolution of ONS users is studied using a dataset of 8K Facebook professional users collected by an advanced crawler. The collected dataset includes around 38 million snapshots of users' popularity values and 64 million published posts over a period of 4 years. Clustering temporal sequences of users' popularity values led to identifying different and interesting popularity evolution patterns. The identified clusters are characterized by analyzing the users' business sector, called category, their activity level, and also the effect of external events. Then ii) the thesis focuses on the prediction of user engagement on the posts published by users on OSNs. A novel prediction model is proposed which takes advantage of Point-wise Mutual Information (PMI) and predicts users' future reaction to newly published posts. Finally, iii) the proposed model is extended to get benefits of representation learning and predict users' future engagement on each other's posts. The proposed prediction approach extracts user embedding from their reaction history instead of using conventional feature extraction methods. The performance of the proposed model proves that it outperforms conventional learning methods available in the literature. The models proposed in this thesis, not only improves the reaction prediction models to exploit representation learning features instead of hand-crafted features but also could help news agencies, advertising campaigns, content providers in CDNs, and recommender systems to take advantage of more accurate prediction results in order to improve their user services
|
59 |
Étude de la faisabilité d'une recherche de nouvelle physique dans l'expérience ATLAS à l'aide d'un auto-encodeur variationnelPilette, Jacinthe 04 1900 (has links)
Depuis la découverte du boson de Higgs en 2012, les physiciens et physiciennes des particules
tentent de trouver des signes de nouvelle physique. Bien que le modèle standard décrivant
les forces et particules aient été confirmé par les expériences telles que ATLAS au Grand
collisionneur de hadrons (LHC), ce modèle décrit seulement 5% de la matière de notre
Univers. Face à l’absence d’excès dans les recherches concentrées sur des modèles de nouvelle
physique, l’intelligence artificielle pourrait être la solution.
Ce mémoire s’inscrit dans une perspective novatrice de recherche générale de nouvelle
physique indépendante des modèles théoriques dans les données du détecteur ATLAS, par
l’utilisation de l’apprentissage machine. Ici, nous nous intéressons à l’application de réseaux
de neurones dans les données de simulation de collision proton-proton à \sqrt{s} = 13 TeV du
détecteur ATLAS. Nous étudierons la performance d’auto-encodeurs variationnels dans les
jets boostés, ces jets qui pourraient cacher des signes de nouvelle physique. Pour analyser
la performance de notre réseau, nous entraînons celui-ci sur les quadri-vecteurs de jets issus
de gluons et de quarks légers. Nous tentons de retrouver un signal test, les jets issus de
quarks top boostés, dans les données de simulation en effectuant des sélections sur les scores
d’anomalie retournés par le réseau.
Nos modèles d’auto-encodeurs variationnels atteignent une bonne discrimination entre
le bruit de fond et le signal du quark top. Nous devrons toutefois améliorer le rejet du bruit
de fond pour purifier notre signal en fonction de nos sélections. / Since the discovery of the Higgs boson in 2012, particle physicists are searching for signs of new physics. Although the standard model describing forces and particles has been confirmed by experiments like ATLAS at the Large Hadron Collider (LHC), it only describes 5% of the matter of the universe. Facing the absence of excess in searches for new physics
model, artificial intelligence could be the solution. This master thesis is part of a novel general model-independent search for new physics in the ATLAS detector data using machine learning. Here, we are interested in the application of neural networks in \sqrt{s} = 13 TeV proton-proton collision ATLAS simulation data. We study the performance of variational auto-encoders in boosted jets, who might be hiding signs of new physics. To analyze our network performance, we train the network on jets four-vectors coming from gluons and light quarks. We try to find a test signal, boosted top quark jets, in our simulation data by applying selections on the anomaly scores returned by our network. Our variational auto-encoder reach a good discrimination between the background and the top quark signal. However, we need to improve background rejection to purify our signal as a function of our selections.
|
60 |
Privacy evaluation of fairness-enhancing pre-processing techniquesTaillandier, Jean-Christophe 12 1900 (has links)
La prédominance d’algorithmes de prise de décision, qui sont souvent basés sur desmodèles issus de l’apprentissage machine, soulève des enjeux importants en termes de ladiscrimination et du manque d’équité par ceux-ci ainsi que leur impact sur le traitement degroupes minoritaires ou sous-représentés. Cela a toutefois conduit au développement de tech-niques dont l’objectif est de mitiger ces problèmes ainsi que les les difficultés qui y sont reliées.
Dans ce mémoire, nous analysons certaines de ces méthodes d’amélioration de l’équitéde type «pré-traitement» parmi les plus récentes, et mesurons leur impact sur le compromiséquité-utilité des données transformées. Plus précisément, notre focus se fera sur troistechniques qui ont pour objectif de cacher un attribut sensible dans un ensemble de données,dont deux basées sur les modèles générateurs adversériaux (LAFTR [67] et GANSan [6])et une basée sur une transformation déterministe et les fonctions de densités (DisparateImpact Remover [33]). Nous allons premièrement vérifier le niveau de contrôle que cestechniques nous offrent quant au compromis équité-utilité des données. Par la suite, nousallons investiguer s’il est possible d’inverser la transformation faite aux données par chacunde ces algorithmes en construisant un auto-encodeur sur mesure qui tentera de reconstruireles données originales depuis les données transformées. Finalement, nous verrons qu’unacteur malveillant pourrait, avec les données transformées par ces trois techniques, retrouverl’attribut sensible qui est censé être protégé avec des algorithmes d’apprentissage machinede base. Une des conclusions de notre recherche est que même si ces techniques offrentdes garanties pratiques quant à l’équité des données produites, il reste souvent possible deprédire l’attribut sensible en question par des techniques d’apprentissage, ce qui annulepotentiellement toute protection que la technique voulait accorder, créant ainsi de sérieuxdangers au niveau de la vie privée. / The prevalence of decision-making algorithms, based on increasingly powerful patternrecognition machine learning algorithms, has brought a growing wave of concern about dis-crimination and fairness of those algorithm predictions as well as their impacts on equity andtreatment of minority or under-represented groups. This in turn has fuelled the developmentof new techniques to mitigate those issues and helped outline challenges related to such issues.
n this work, we analyse recent advances in fairness enhancing pre-processing techniques,evaluate how they control the fairness-utility trade-off and the dataset’s ability to be usedsuccessfully in downstream tasks. We focus on three techniques that attempt to hide asensitive attribute in a dataset, two based onGenerative Adversarial Networksarchitectures(LAFTR [67] and GANSan [6]), and one deterministic transformation of dataset relyingon density functions (Disparate Impact Remover [33]). First we analyse the control overthe fairness-utility trade-off each of these techniques offer. We then attempt to revertthe transformation on the data each of these techniques applied using a variation of anauto-encoder built specifically for this purpose, which we calledreconstructor. Lastly wesee that even though these techniques offer practical guarantees of specific fairness metrics,basic machine learning classifiers are often able to successfully predict the sensitive attributefrom the transformed data, effectively enabling discrimination. This creates what we believeis a major issue in fairness-enhancing technique research that is in large part due to intricaterelationship between fairness and privacy.
|
Page generated in 0.081 seconds