• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Anomaly detection technique for sequential data / Technique de détection d'anomalies utilisant des données séquentielles

Pellissier, Muriel 15 October 2013 (has links)
De nos jours, beaucoup de données peuvent être facilement accessibles. Mais toutes ces données ne sont pas utiles si nous ne savons pas les traiter efficacement et si nous ne savons pas extraire facilement les informations pertinentes à partir d'une grande quantité de données. Les techniques de détection d'anomalies sont utilisées par de nombreux domaines afin de traiter automatiquement les données. Les techniques de détection d'anomalies dépendent du domaine d'application, des données utilisées ainsi que du type d'anomalie à détecter.Pour cette étude nous nous intéressons seulement aux données séquentielles. Une séquence est une liste ordonnée d'objets. Pour de nombreux domaines, il est important de pouvoir identifier les irrégularités contenues dans des données séquentielles comme par exemple les séquences ADN, les commandes d'utilisateur, les transactions bancaires etc.Cette thèse présente une nouvelle approche qui identifie et analyse les irrégularités de données séquentielles. Cette technique de détection d'anomalies peut détecter les anomalies de données séquentielles dont l'ordre des objets dans les séquences est important ainsi que la position des objets dans les séquences. Les séquences sont définies comme anormales si une séquence est presque identique à une séquence qui est fréquente (normale). Les séquences anormales sont donc les séquences qui diffèrent légèrement des séquences qui sont fréquentes dans la base de données.Dans cette thèse nous avons appliqué cette technique à la surveillance maritime, mais cette technique peut être utilisée pour tous les domaines utilisant des données séquentielles. Pour notre application, la surveillance maritime, nous avons utilisé cette technique afin d'identifier les conteneurs suspects. En effet, de nos jours 90% du commerce mondial est transporté par conteneurs maritimes mais seulement 1 à 2% des conteneurs peuvent être physiquement contrôlés. Ce faible pourcentage est dû à un coût financier très élevé et au besoin trop important de ressources humaines pour le contrôle physique des conteneurs. De plus, le nombre de conteneurs voyageant par jours dans le monde ne cesse d'augmenter, il est donc nécessaire de développer des outils automatiques afin d'orienter le contrôle fait par les douanes afin d'éviter les activités illégales comme les fraudes, les quotas, les produits illégaux, ainsi que les trafics d'armes et de drogues. Pour identifier les conteneurs suspects nous comparons les trajets des conteneurs de notre base de données avec les trajets des conteneurs dits normaux. Les trajets normaux sont les trajets qui sont fréquents dans notre base de données.Notre technique est divisée en deux parties. La première partie consiste à détecter les séquences qui sont fréquentes dans la base de données. La seconde partie identifie les séquences de la base de données qui diffèrent légèrement des séquences qui sont fréquentes. Afin de définir une séquence comme normale ou anormale, nous calculons une distance entre une séquence qui est fréquente et une séquence aléatoire de la base de données. La distance est calculée avec une méthode qui utilise les différences qualitative et quantitative entre deux séquences. / Nowadays, huge quantities of data can be easily accessible, but all these data are not useful if we do not know how to process them efficiently and how to extract easily relevant information from a large quantity of data. The anomaly detection techniques are used in many domains in order to help to process the data in an automated way. The anomaly detection techniques depend on the application domain, on the type of data, and on the type of anomaly.For this study we are interested only in sequential data. A sequence is an ordered list of items, also called events. Identifying irregularities in sequential data is essential for many application domains like DNA sequences, system calls, user commands, banking transactions etc.This thesis presents a new approach for identifying and analyzing irregularities in sequential data. This anomaly detection technique can detect anomalies in sequential data where the order of the items in the sequences is important. Moreover, our technique does not consider only the order of the events, but also the position of the events within the sequences. The sequences are spotted as anomalous if a sequence is quasi-identical to a usual behavior which means if the sequence is slightly different from a frequent (common) sequence. The differences between two sequences are based on the order of the events and their position in the sequence.In this thesis we applied this technique to the maritime surveillance, but this technique can be used by any other domains that use sequential data. For the maritime surveillance, some automated tools are needed in order to facilitate the targeting of suspicious containers that is performed by the customs. Indeed, nowadays 90% of the world trade is transported by containers and only 1-2% of the containers can be physically checked because of the high financial cost and the high human resources needed to control a container. As the number of containers travelling every day all around the world is really important, it is necessary to control the containers in order to avoid illegal activities like fraud, quota-related, illegal products, hidden activities, drug smuggling or arm smuggling. For the maritime domain, we can use this technique to identify suspicious containers by comparing the container trips from the data set with itineraries that are known to be normal (common). A container trip, also called itinerary, is an ordered list of actions that are done on containers at specific geographical positions. The different actions are: loading, transshipment, and discharging. For each action that is done on a container, we know the container ID and its geographical position (port ID).This technique is divided into two parts. The first part is to detect the common (most frequent) sequences of the data set. The second part is to identify those sequences that are slightly different from the common sequences using a distance-based method in order to classify a given sequence as normal or suspicious. The distance is calculated using a method that combines quantitative and qualitative differences between two sequences.
102

Fusion en ligne d'algorithmes de suivi visuel d'objet / On-line fusion of visual object tracking algorithms

Leang, Isabelle 15 December 2016 (has links)
Le suivi visuel d’objet est une fonction élémentaire de la vision par ordinateur ayant fait l’objet de nombreux travaux. La dérive au cours du temps est l'un des phénomènes les plus critiques à maîtriser, car elle aboutit à la perte définitive de la cible suivie. Malgré les nombreuses approches proposées dans la littérature pour contrer ce phénomène, aucune ne surpasse une autre en terme de robustesse face aux diverses sources de perturbations visuelles : variation d'illumination, occultation, mouvement brusque de caméra, changement d'aspect. L’objectif de cette thèse est d’exploiter la complémentarité d’un ensemble d'algorithmes de suivi, « trackers », en développant des stratégies de fusion en ligne capables de les combiner génériquement. La chaîne de fusion proposée a consisté à sélectionner les trackers à partir d'indicateurs de bon fonctionnement, à combiner leurs sorties et à les corriger. La prédiction en ligne de dérive a été étudiée comme un élément clé du mécanisme de sélection. Plusieurs méthodes sont proposées pour chacune des étapes de la chaîne, donnant lieu à 46 configurations de fusion possibles. Évaluées sur 3 bases de données, l’étude a mis en évidence plusieurs résultats principaux : une sélection performante améliore considérablement la robustesse de suivi ; une correction de mise à jour est préférable à une réinitialisation ; il est plus avantageux de combiner un petit nombre de trackers complémentaires et de performances homogènes qu'un grand nombre ; la robustesse de fusion d’un petit nombre de trackers est corrélée à la mesure d’incomplétude, ce qui permet de sélectionner la combinaison de trackers adaptée à un contexte applicatif donné. / Visual object tracking is an elementary function of computer vision that has been the subject of numerous studies. Drift over time is one of the most critical phenomena to master because it leads to the permanent loss of the target being tracked. Despite the numerous approaches proposed in the literature to counter this phenomenon, none outperforms another in terms of robustness to the various sources of visual perturbations: variation of illumination, occlusion, sudden movement of camera, change of aspect. The objective of this thesis is to exploit the complementarity of a set of tracking algorithms by developing on-line fusion strategies capable of combining them generically. The proposed fusion chain consists of selecting the trackers from indicators of good functioning, combining their outputs and correcting them. On-line drift prediction was studied as a key element of the selection mechanism. Several methods are proposed for each step of the chain, giving rise to 46 possible fusion configurations. Evaluated on 3 databases, the study highlighted several key findings: effective selection greatly improves robustness; The correction improves the robustness but is sensitive to bad selection, making updating preferable to reinitialization; It is more advantageous to combine a small number of complementary trackers with homogeneous performances than a large number; The robustness of fusion of a small number of trackers is correlated to the incompleteness measure, which makes it possible to select the appropriate combination of trackers to a given application context.
103

An Exploration of Word-Scale Visualizations for Text Documents / Une exploration des visualisations-mots pour du texte

Goffin, Pascal 03 October 2016 (has links)
Ma dissertation explore comment l'intégration de petites visualisations contextuelles basées sur des données peut complémenter des documents écrits. Plus spécifiquement, j'identifie et je définis des aspects importants et des directions de recherches pertinentes pour l'intégration de petites visualisations contextuelles basées sur des données textuelles. Cette intégration devra finalement devenir aussi fluide qu'écrire et aussi utile que lire un texte. Je définis les visualisations-mots (Word-Scale Visualizations) comme étant de petites visualisations contextuelles basées sur des données intégrées au texte de documents. Ces visualisations peuvent utiliser de multiples codages visuels incluant les cartes géographiques, les heatmaps, les graphes circulaires, et des visualisations plus complexes. Les visualisations-mots offrent une grande variété de dimensions toujours proches de l’échelle d’un mot, parfois plus grandes, mais toujours plus petites qu’une phrase ou un paragraphe. Les visualisations-mots peuvent venir en aide et être utilisées dans plusieurs formes de discours écrits tels les manuels, les notes, les billets de blogs, les rapports, les histoires, ou même les poèmes. En tant que complément visuel de textes, les visualisations-mots peuvent être utilisées pour accentuer certains éléments d'un document (comme un mot ou une phrase), ou pour apporter de l'information additionnelle. Par exemple, un petit diagramme de l'évolution du cours de l’action d’une entreprise peut être intégré à côté du nom de celle-ci pour apporter de l'information additionnelle sur la tendance passée du cours de l'action. Dans un autre exemple, des statistiques de jeux peuvent être incluses à côté du nom d'équipe de football ou de joueur dans les articles concernant le championnat d'Europe de football. Ces visualisations-mots peuvent notamment aider le lecteur à faire des comparaisons entre le nombre de passes des équipes et des joueurs. Le bénéfice majeur des visualisations-mots réside dans le fait que le lecteur peut rester concentré sur le texte, vu que les visualisations sont dans le texte et non à côté.Dans ma thèse j’apporte les contributions suivantes : j'explore pourquoi les visualisation-mots peuvent être utiles et comment promouvoir leur création. J’étudie différentes options de placement pour les visualisations-mots et je quantifie leurs effets sur la disposition du texte et sa mise en forme. Comme les visualisations-mots ont aussi des implications sur le comportement de lecture du lecteur, je propose une première étude qui étudie les différents placements de visualisations-mots sur le comportement de lecture. J'examine aussi comment combiner les visualisations-mots et l'interaction pour soutenir une lecture plus active en proposant des méthodes de collection, d’arrangement et de comparaison de visualisations-mots. Finalement, je propose des considérations de design pour la conception et la création de visualisations-mots et je conclus avec des exemples d'application.En résumé cette dissertation contribue à la compréhension de petites visualisations contextuelles basées sur des données intégrées dans le texte et à leur utilité pour la visualisation d'informations. / This dissertation explores how embedding small data-driven contextual visualizations can complement text documents. More specifically, I identify and define important aspects and relevant research directions for the integration of small data-driven contextual visualizations into text. This integration should eventually become as fluid as writing and as usable as reading a text. I define word-scale visualisations as small data-driven contextual visualizations embedded in text documents. These visualizations can use various visual encodings including geographical maps, heat maps, pie charts, and more complex visualizations. They can appear at a range of word scales, including sizes larger than a letter, but smaller than a sentence or paragraph. Word-scale visualisations can help support and be used in many forms of written discourse such as text books, notes, blog posts, reports, stories, or poems. As graphical supplements to text, word-scale visualisations can be used to emphasize certain elements of a document (e.g. a word or a sentence), or to provide additional information. For example, a small stock chart can be embedded next to the name of a company to provide additional information about the past trends of its stocks. In another example, game statistics can be embedded next to the names of soccer teams or players in daily reports from the UEFA European Championship. These word-scale visualisations can then for example allow readers to make comparison between number of passes of teams and players. The main benefit of word-scale visualisations is that the reader can remain focused on the text as the visualization are within the text rather than alongside it.In the thesis, I make the following main contributions: I explore why word-scale visualisations can be useful and how to support their creation. I investigate placement options to embed word-scale visualisations and quantify their effects on the layout and flow of the text. As word-scale visualisations also have implications on the reader's reading behavior I propose a first study that investigates different word-scale visualisation positions on the reading behavior. I also explore how word-scale visualisations can be combined with interaction to support a more active reading by proposing interaction methods to collect, arrange and compare word-scale visualisations. Finally, I propose design considerations for the authoring of word-scale visualisations and conclude with application examples.In summary, this dissertation contributes to the understanding of small data-driven contextual visualizations embedded into text and their value for Information Visualization.
104

Modélisation du dialogue homme-machine pour la recherche d'informations : approche questions-réponses / Dialogue system modeling for information retrieval with an issue-based approach

Loisel, Alain 20 October 2008 (has links)
Cette thèse décrit la conception d’un système de dialogue Homme- Machine pour la recherche d’informations capable d’interagir avec l’utilisateur en langue naturelle en utilisant des stratégies coopératives. Pour étudier les processus dialogiques impliqués dans la recherche d’informations, une méthodologie ascendante a été adoptée. Une série d’expérimentations a permis le recueil de corpus de dialogues humains présentant de telles recherches dans le cadre du système de documentation médicale CISMeF. L’analyse des dialogues recueillis a montré que leur structure correspond bien aux structures sémantiques de l’approche « questionsréponses ». Fondé sur un modèle existant nommé GoDIS, notre système y intègre de nombreux ajouts permettant d’améliorer la cohérence du dialogue et de proposer des exemples, des choix, des assistances. Une implémentation de ce modèle est réalisée et des pistes d’évaluation sont proposées. / This thesis describes the design of a computer-human dialog system for information search. This system is able to interact with the user in natural language using cooperative strategies. To study the dialog processes involved during information search, a bottom-up approach was adopted. Experiments have been set up to obtain human dialogs related to such searches in the context of the health information system CISMeF. It turns out that the structure arising from the analysis of the dialogs matches a semantic approach called “issue-based dialog”. Starting from the model GoDIS, our artificial agent model adds several enhancements that allow to propose examples, assistance and choices. The model is implemented and some elements of evaluation are discussed.
105

La production automatisée d'informations en appui aux pratiques journalistiques: Analyse des représentations, des conditions d'association et de la structuration des usages en Belgique francophone

Dierickx, Laurence 30 April 2020 (has links) (PDF)
Le phénomène de la production automatisée d'informations, caractérisé par un processus de transformation de données structurées en textes en langage naturel ou en toute autre forme de représentation visuelle, interroge la manière dont il se développe dans le monde du journalisme. S'il peut être envisagé comme un produit fini qui sera délivré aux audiences sans médiation journalistique, cette thèse s'intéresse à son autre versant :celui d'un appui aux pratiques journalistiques. Souvent désigné par la métaphore du "robot journaliste", ce phénomène nourrit des représentations duales qui reflètent ses enjeux :tantôt abordé en termes de menace sur l'emploi, voire sur l'identité professionnelle des journalistes ;tantôt perçu comme une opportunité, dans une vision enchantée d'un journalisme en réinvention. Ceci pose la question du rapport du journaliste à l'objet technique, dès lors que celui-ci est conçu comme un outil qui lui fera gagner du temps dans ses routines, ou qui se posera en tant que source d'information s'ajoutant à un arsenal existant. Les objectifs de cette thèse sont de comprendre les mécanismes de structuration des usages professionnels dans le contexte de la production automatisée d'informations, d'identifier les sources de résistance qui ne permettent pas de réaliser ces usages et, partant, de contribuer à une meilleure compréhension d'une relation homme-machine placée sous tension. Considérant que l'on ne peut faire usage d'une technologie sans se la représenter, de quelle manière les représentations sociales et les pratiques culturelles des journalistes vont-elles participer à la structuration des usages (et des non-usages) d'artefacts de la production automatisée d'informations lorsque ceux-ci sont envisagés en tant qu'outils du journalisme ?Cette question de recherche a été envisagée selon deux hypothèses :celle de l'impact de la métaphore du "robot" quant à des résistances contre l'intégration de l'objet dans les routines professionnelles, et celle de l'adéquation des productions matérielles de l'artefact avec les savoir-faire et exigences journalistiques. L'analyse mise en oeuvre s'appuie sur les cadres conceptuels et théoriques proposés par le modèle SCOT (Social Construction Of Technology) et l'école française de la sociologie des usages. Elle s'est déployée dans le cadre d'une étude empirique menée dans deux rédactions en Belgique francophone, lesquelles se distinguent tant par leur culture professionnelle que par leur structure organisationnelle. Dans ces deux expériences, il s'agissait de suivre le processus d'une construction sociotechnique qui a activement impliqué les journalistes dans la conception des artefacts. Bien que cette première forme d'usage ne garantisse pas des usages finaux, elle pose les premiers jalons d'usages d'adoption. Les résistances observées ne sont pas nécessairement liées à la nature de l'objet technique. Elles sont également à trouver dans un manque d'intérêt envers le domaine d'application, une forme de technophobie, un manque d'appétence pour une approche par données dans le journalisme, une mise en cause du management et de l'organisation, ou encore dans une représentation duale induite par la métaphore du robot. Le mécanisme de structuration des usages va donc relever d'un processus complexe dépendant à la fois de facteurs endogènes, liés au contexte organisationnel et aux routines journalistiques, et de facteurs exogènes, liés aux cadres plus larges de l'imaginaire technologique et de la relation homme-machine. / ABSTRACT The phenomenon of news automation, characterized by the process of transformation of structured data into texts in natural language or any other form of visual representation, asks the question about how it is integrated within newsrooms. If it can be considered as a finished product that will be delivered to audiences without journalistic mediation, this thesis is interested in its aspect related to the support of journalistic practices. Often associated with the metaphor of the "robot journalist," news automation encourages dual representations that reflect its challenges: either a threat against employment and professional identity or an opportunity through an enchanted vision of the reinvention of journalism. This thesis explores how journalists tackle this new form of relationship as an artefact, as a tool, that is supposed to free them from repetitive and time-consuming tasks or to provide them an additional source of information. The aims of this research project are, therefore, to understand how it will shape new professional uses, to identify the causes of resistance that could lead to non-uses, and to contribute to a better understanding of a man-machine relationship developed under tension. Considering that one cannot make use of a given technology without representing it, how will the social representations and cultural practices of journalists contribute to shaping the uses (and the non-uses) of news automation software when it is considered as a journalistic tool? This research question was examined according to two hypotheses: that of the impact of the robot metaphor, and that of the adequacy of the material productions of the artefact with journalistic know-how and requirements. The analysis is based on conceptual and theoretical frameworks proposed by the SCOT model (Social Construction of Technology) and by the French school of the sociology of uses. It is approached through an empirical study conducted within two newsrooms in French-speaking Belgium, which are radically different both in their professional culture and in their organizational structure. In these two experiences, we have followed the process of a socio-technical construction which involved journalists in the design process. Although this first form of use does not guarantee the end-use of the two automation artefacts, it does lay the groundwork for adoption. The reasons to explain the observed resistances are not necessarily related to the nature of the object. They are also to be found in a lack of interest, a form of technophobia, a lack of appetite for a data-driven approach, a questioning of the management, or the dual representation induced by the robot metaphor. The mechanism for structuring the use will, therefore, be developed through a complex process shaped by both endogenous factors linked to the organizational context and journalistic routines, and exogenous factors related to the broader frameworks of the technological imaginaries and the man-machine relationship. / Doctorat en Information et communication / info:eu-repo/semantics/nonPublished
106

Ensemble Methods for Pedestrian Detection in Dense Crowds / Méthodes d'ensembles pour la détection de piétons en foules denses

Vandoni, Jennifer 17 May 2019 (has links)
Cette thèse s’intéresse à la détection des piétons dans des foules très denses depuis un système mono-camera, avec comme but d’obtenir des détections localisées de toutes les personnes. Ces détections peuvent être utilisées soit pour obtenir une estimation robuste de la densité, soit pour initialiser un algorithme de suivi. Les méthodologies classiques utilisées pour la détection de piétons s’adaptent mal au cas où seulement les têtes sont visibles, de part l’absence d’arrière-plan, l’homogénéité visuelle de la foule, la petite taille des objets et la présence d’occultations très fortes. En présence de problèmes difficiles tels que notre application, les approches à base d’apprentissage supervisé sont bien adaptées. Nous considérons un système à plusieurs classifieurs (Multiple Classifier System, MCS), composé de deux ensembles différents, le premier basé sur les classifieurs SVM (SVM- ensemble) et le deuxième basé sur les CNN (CNN-ensemble), combinés dans le cadre de la Théorie des Fonctions de Croyance (TFC). L’ensemble SVM est composé de plusieurs SVM exploitant les données issues d’un descripteur différent. La TFC nous permet de prendre en compte une valeur d’imprécision supposée correspondre soit à une imprécision dans la procédure de calibration, soit à une imprécision spatiale. Cependant, le manque de données labellisées pour le cas des foules très denses nuit à la génération d’ensembles de données d’entrainement et de validation robustes. Nous avons proposé un algorithme d’apprentissage actif de type Query-by- Committee (QBC) qui permet de sélectionner automatiquement de nouveaux échantillons d’apprentissage. Cet algorithme s’appuie sur des mesures évidentielles déduites des fonctions de croyance. Pour le second ensemble, pour exploiter les avancées de l’apprentissage profond, nous avons reformulé notre problème comme une tâche de segmentation en soft labels. Une architecture entièrement convolutionelle a été conçue pour détecter les petits objets grâce à des convolutions dilatées. Nous nous sommes appuyés sur la technique du dropout pour obtenir un ensemble CNN capable d’évaluer la fiabilité sur les prédictions du réseau lors de l’inférence. Les réalisations de cet ensemble sont ensuite combinées dans le cadre de la TFC. Pour conclure, nous montrons que la sortie du MCS peut être utile aussi pour le comptage de personnes. Nous avons proposé une méthodologie d’évaluation multi-échelle, très utile pour la communauté de modélisation car elle lie incertitude (probabilité d’erreur) et imprécision sur les valeurs de densité estimées. / This study deals with pedestrian detection in high- density crowds from a mono-camera system. The detections can be then used both to obtain robust density estimation, and to initialize a tracking algorithm. One of the most difficult challenges is that usual pedestrian detection methodologies do not scale well to high-density crowds, for reasons such as absence of background, high visual homogeneity, small size of the objects, and heavy occlusions. We cast the detection problem as a Multiple Classifier System (MCS), composed by two different ensembles of classifiers, the first one based on SVM (SVM-ensemble) and the second one based on CNN (CNN-ensemble), combined relying on the Belief Function Theory (BFT) to exploit their strengths for pixel-wise classification. SVM-ensemble is composed by several SVM detectors based on different gradient, texture and orientation descriptors, able to tackle the problem from different perspectives. BFT allows us to take into account the imprecision in addition to the uncertainty value provided by each classifier, which we consider coming from possible errors in the calibration procedure and from pixel neighbor's heterogeneity in the image space. However, scarcity of labeled data for specific dense crowd contexts reflects in the impossibility to obtain robust training and validation sets. By exploiting belief functions directly derived from the classifiers' combination, we propose an evidential Query-by-Committee (QBC) active learning algorithm to automatically select the most informative training samples. On the other side, we explore deep learning techniques by casting the problem as a segmentation task with soft labels, with a fully convolutional network designed to recover small objects thanks to a tailored use of dilated convolutions. In order to obtain a pixel-wise measure of reliability about the network's predictions, we create a CNN- ensemble by means of dropout at inference time, and we combine the different obtained realizations in the context of BFT. Finally, we show that the output map given by the MCS can be employed to perform people counting. We propose an evaluation method that can be applied at every scale, providing also uncertainty bounds on the estimated density.
107

Applying game theory to interactions between individuals with asymmetrical roles : the case of online sex offender investigative interviews

Bergeron, Andreanne 05 1900 (has links)
La littérature sur les entrevues d’enquête du milieu policier a mis en évidence les facteurs associés à la confession. Des recherches ont montré que la confession est associée à des suspects plus jeunes (Deslauriers-Varin & St-Yves, 2010; Viljoen, et al., 2005); des personnes d'origine caucasienne (St-Yves, 2002; Viljoen, et al., 2005); des célibataires (St-Yves, 2002); et le type de crime (Moston et coll., 1992; Phillips et Brown, 1998). La recherche a également examiné le rôle de la quantité et la nature de la preuve (p.ex., Brimbal & Luke, 2019 ; Deslauriers-Varin, et al., 2011, 2020 ; Moston & Engelberg, 2011), la manière dont les preuves sont présentées (p.ex., l'utilisation stratégique des preuves; Clemens et al., 2020 ; Granhag et al., 2013), et le rôle des enquêteurs et des techniques d'enquête (p.ex., May, et al., 2017; Snook et al., 2015; Wachi, et al., 2014). Cependant, la littérature sur l'entrevue d’enquête a mis l'accent sur les mesures de corrélation entre la confession et les variables qui peuvent l'influencer comme si elle était stable dans le temps. Pourtant, il existe des preuves que la confession pourrait être un processus instable influencé par des éléments contextuels. Par exemple, des chercheurs ont évoqué le changement de décision (vers l'aveu ou vers le déni) qui s'opère avec les suspects dans le cadre d'un interrogatoire (Bull & Soukara, 2010; Deslauriers-Varin, et al., 2011a ; Walsh et Bull, 2012). Plus récemment, dans la littérature, les chercheurs se sont engagés dans un virage clair vers une analyse de l'entrevue d’enquête qui prenait en compte des différents aspects dynamiques de la situation tel que l’ordre des comportements dans le temps (p.ex., Kelly, et al., 2016 ; Yang, et al., 2017). Pour participer à ce virage et contribuer à la recherche dans le domaine, nous proposons une nouvelle conceptualisation de l'entrevue d’enquête à travers une nouvelle perspective théorique : la Théorie des Jeux. Une discussion sur la théorie et ses concepts est suivie de deux articles empiriques qui visent à mieux étudier les entrevues. Le premier article explore l'influence mutuelle des deux participants sur l’obtention d’information pertinente à l’enquête. Des entretiens enregistrés sur vidéo liés à l'exploitation sexuelle d'enfants sur internet (n = 130) ont été utilisés et les différents comportements des suspects et des enquêteurs ont été analysés pour déterminer s'ils impliquaient (1) l'établissement d'un rapport/le déni actif, (2) la collaboration, (3) la confrontation, (4) l’émotion/réponse, et (5) l’obtention d'informations liées à l’enquête. Les résultats ont montré que les informations pertinentes à l'enquête sont souvent fournies peu de temps après qu'un suspect a offert des informations supplémentaires ou s’est montré émotif (par exemple, pleure). Lorsque l’enquêteur présente des preuves, la probabilité que des informations supplémentaires soient fournies par le suspect augmente immédiatement. Cependant, établir un rapport avec le suspect est efficace à plus long terme alors qu’un effet positif n'est pas immédiatement observé. En utilisant le même échantillon, la deuxième étude explore l'hétérogénéité des stratégies et des comportements des suspects lors d’une entrevue d’enquête ainsi que la stabilité de ces profils dans le temps puisque les comportements des suspects est un sujet rarement abordé dans la littérature contrairement aux comportements de l’interviewer. L'analyse a permis d'identifier la présence de cinq profils différents : 1) Positif ; 2) Justifiant ; 3) Accepter ; 4) Contrôler ; 5) Irrité. L'analyse temporelle montre également que la majorité des suspects restent dans le même profil au cours de l'entretien. Cette thèse a permis d’instaurer une base théorique et méthodologique pour l'étude des interactions sociales asymétriques à travers l'utilisation de la perspective de la Théorie des Jeux. Plus particulièrement, le contexte de l'entrevue d’enquête des délinquants sexuels en ligne a été observé et les résultats pointent vers le fait que l'interaction sociale qui a lieu dans la salle d'interrogatoire est influencée par les stratégies de l’interviewer et du suspect. De plus, les décisions prises par le suspect aux cours de l’entrevue sont explorées et semblent être associés à leurs préférences. La thèse accorde également une attention particulière à la notion complexe de temps ainsi que son impact sur les comportements et propose une évaluation temporelle continue de l'interaction plutôt que de segmenter l’entrevue tel que vu dans la littérature. Les résultats visent à développer une nouvelle façon d’étudier l’entrevue d’enquête afin d’éventuellement fournir des outils pratiques aux policiers sur le type de stratégies à utiliser selon le temps dont ils disposent et sur le type de suspect avec lequel ils travaillent. Les résultats contribuent également à établir des méthodologies pour l’analyse de d'autres types d'interactions asymétriques qui sont courantes dans le domaine de la criminologie. Considérer l’entrevue d’enquête comme étant une interaction sociale représentant un processus qui évolue dans le temps fournit un point de départ pour la création de directives pratiques pour aider les praticiens à accroître la collaboration des suspects. / The literature on police investigative interviewing has highlighted the factors associated with confession. Research has shown that confession is associated with younger suspects (Deslauriers-Varin & St-Yves, 2010; Viljoen, et al., 2005); individuals of Caucasian origin (St-Yves, 2002; Viljoen, et al., 2005); single individuals (St-Yves, 2002); and individuals who have committed less serious crime (Moston et al., 1992; Phillips & Brown, 1998). Research also examines the role of evidence strength (e.g., Brimbal & Luke, 2019; Deslauriers-Varin, et al., 2011, 2020; Moston & Engelberg, 2011), the way in which evidence is presented (e.g., strategic use of evidence; Clemens et al., 2020; Granhag et al., 2013), and the role of police investigators and investigative techniques (e.g., May, et al., 2017; Snook et al., 2015; Wachi, et al., 2014). However, the literature on investigative interviewing has emphasized measures of correlation between confession and the variables that may influence it as if they were stable over time. Yet, there is evidence that confession could be an unstable process influenced by contextual elements. For example, researchers have raised the change in decision (towards confession or even towards denial) that operates with suspects in the context of an interrogation (Bull & Soukara, 2010, Deslauriers-Varin, et al., 2011a; Walsh & Bull, 2012; Verhoeven, 2018). More recently in the literature, researchers engaged in a clear shift toward a more dynamic analysis of investigative interview (e.g., Kelly, et al., 2016; Yang, et al., 2017). To contribute to the research in this field, we propose a new conceptualization of the investigative interview through a new theoretical perspective: Game Theory. A discussion on the theory and its concept leads to two empirical articles that aim to study interviews more effectively. The first one explores the dynamic influence of both participants, the interviewer and the suspect, on suspect's disclosure. Videotaped interviews related to online child sexual exploitation (n=130) were analyzed and the different behaviors of suspects and interviewers were analyzed to determine if they involved (1) rapport building/active denial, (2) collaboration, (3) confrontation, (4) emotion/response, and (5) elicitation of information related to the case. Results showed that information relevant to the investigation is often provided shortly after a suspect has offered additional information or given responses that meet emotional needs (e.g., justifications). The interviewer’s use of available evidence increases the likelihood that additional information will be provided, while the ability to build a rapport with the suspect is effective in the longer term, even if a positive effect is not immediately observed. The second study explores the heterogeneity of strategies and behaviors of suspects during an interview as well as the stability of those profiles as suspects behaviors is a subject that have been overlooked in the literature contrarily to interviewers behaviors. The analysis helped identify the presence of five different profiles: 1) Positive; 2) Justifying; 3) Accepting; 4) Controlling; 5) Irritated. The temporal analysis also shows that the probability that a suspect will continue to exhibit the same profile over the course of the interview is high. This thesis allows to set a theoretical and methodological basis to the study of asymmetrical interaction through the use of the Game Theory perspective. More particularly, the context of investigative interviewing of online sex offenders has been observed and the results point toward the fact that both the suspect and the interviewer influence the course of the social interaction that takes place in the interrogation room. Moreover, the decisions of the suspects have been explored and seems to be taken according to their preferences. The thesis also gives particular attention to the complex notion of time and its influence on behavior and proposes, in the fourth chapter, a continuous timeline evaluation of the interaction instead of a segmented analysis. The findings help develop a new line of research with innovative methods in order to eventually provide practical tools to police investigators on the matter of the type of strategies to use according to the amount of time they have and on the type of suspect they are working with. The findings also contribute to setting methodologies for other types of asymmetrical interaction which are common in the field of criminology. Seeing the interviews as being an interaction process provides a starting point for the creation of practical guidelines to help practitioners increase suspect collaboration during investigative interviews.
108

Approche légistique des définitions de renseignements et données personnels : étude comparée des systèmes canadien et français

Fardol Watod Dicken, Deng Alex 09 November 2023 (has links)
Titre de l'écran-titre (visionné le 6 novembre 2023) / Ce projet prend son initiative dans une simple maïeutique. Nous sommes dans une économie de l'information. L'information, surtout lorsqu'elle est relative à notre personne, représente à la fois une valeur pécuniaire et une forme de pouvoir. Du fait de cette réalité, nos données à caractère personnel et nos renseignements personnels font l'objet d'une collecte, d'une utilisation, d'une communication ou encore d'un traitement par de grands groupes. Ceux-ci sont devenus si forts qu'ils en arrivent même parfois à supplanter l'action étatique. De ce fait, une relation déséquilibrée naît entre nos intérêts de vie privée et des préoccupations économiques. Pour tenter de concilier ces intérêts divergents, un corpus juridique toujours de plus en plus long a vu le jour. Un véritable enchevêtrement juridique existe en la matière. Au Canada, cet enchevêtrement se fait par un ordonnancement spécifique du fait des différents législateurs en présence, mais également, par l'insertion de différents standards juridiques. De surcroît, il faut différencier le secteur privé, du secteur public tout en sauvegardant le secteur de la santé. Il peut alors, en théorie, exister autant de définitions de la notion de renseignement personnel que de secteurs et de législateurs. En France, il a fallu adjoindre à la préalable initiative française de protection des informations nominatives le corpus juridique européen qui s'est développé. Des corpus juridiques en présence, de grands principes de protection ont émergé. Par ailleurs, ceux-ci commencent déjà à s'infuser dans l'inconscient collectif. Néanmoins, et pour l'application des textes en présence, il faut toujours à titre liminaire se demander si la qualification de donnée à caractère personnel ou de renseignement personnel est possible. C'est précisément ici que l'un des premiers enjeux se joue. Il existe des définitions de renseignements personnels, et malgré un aspect harmonisé, il semblerait exister des visions différentes de la notion de donnée à caractère personnel. Partant, un prisme légistique tentera de démontrer cette affirmation en explorant la notion de définition à ses confins.
109

Un cadre possibiliste pour l'aide à la décision multicritère et multi-acteurs - Application au marketing et au benchmarking de sites e-commerce

Denguir, Afef 12 March 2007 (has links) (PDF)
Cette thèse se situe dans le cadre d'un processus d'aide à la décision multicritère et multi-acteurs. Elle porte sur la gestion de certains aspects de l'incertitude inhérente à l'évaluation multicritère dans un tel processus. Nous proposons à cet égard une modélisation et une formalisation mathématique de ce processus via une représentation possibiliste des évaluations. Nous avons également proposé de caractériser les distributions de possibilité relatives aux évaluations des différents critères par un ensemble d'indicateurs de description tels que l'imprécision, la divergence, etc., permettant ainsi une interprétation quantitative plus aisée pour le décideur. Nous avons considéré des opérateurs d'agrégation de la famille de l'intégrale de Choquet pour propager les distributions d'évaluations de critère ainsi que les indicateurs de description de distribution, en raison de leur capacité à prendre en compte des interactions entre les critères tout en gardant un caractère de moyenne “généralisée” aisément compréhensible par le décideur. Concernant la propagation des indicateurs, nous avons établi deux théorèmes clés, l'un portant sur l'union des valeurs supérieures et inférieures de l'intervalle moyen d'une distribution de possibilité et l'autre sur l'imprécision moyenne d'une distribution de possibilité la définissant comme la somme des imprécisions moyennes de distributions partielles adjacentes dont elle est l'union. Par ailleurs, Le concept d'explication de la décision a particulièrement constitué le noyau de notre modèle de processus d'aide à la décision. Ainsi à partir des théorèmes établis, nous avons proposé des fonctionnalités explicatives basées sur une quantification de la contribution d'indicateurs décisionnels des évaluations de critères à l'évaluation globale. Nous avons ainsi montré que chaque indicateur relatif à la distribution de l'évaluation globale s'écrit simplement comme une somme pondérée de contributions de critères. Sur le plan applicatif, nous nous sommes intéressés à la formalisation du processus de gestion de mesures de satisfaction de clients dans le contexte de la e-recommandation pour le e-commerce. Nous avons présenté une méthode d'évaluation multicritère des sites de e-commerce par une communauté d'internautes qui permet à la fois de prendre en compte l'importance relative des critères d'évaluation et les interactions entre ceux-ci, mais aussi de gérer différents aspects de l'incertitude inhérents à ce processus d'évaluation. Nous avons développé un prototype logiciel servant de support d'aide à la décision. Cet outil labellisé “Feedback Based Recommendation System” (FBRS) permet de fournir aux managers d'un site de e-commerce, en particulier les équipes marketing et benchmarking, des éléments qui leur permettent de comprendre les scores qui ont été attribués à leur site lors de l'évaluation par les clients. Nous avons montré comment il est alors possible d'identifier les critères les plus influents dans cette évaluation et comment utiliser cette analyse de contributions à des fins de suivi et de management des performances par les responsables marketing et benchmarking. Ces fonctionnalités sont ainsi une base de travail pour ces derniers pour améliorer les stratégies existantes.
110

Indexation des émotions dans les documents audiovisuels à partir de la modalité auditive

Lê, Xuân Hùng 01 July 2009 (has links) (PDF)
Cette thèse concerne la détection des émotions dans les énoncés audio multi-lingues. Une des applications envisagées est l'indexation des états émotionnels dans les documents audio-visuels en vue de leur recherche par le contenu. Notre travail commence par l'étude de l'émotion et des modèles de représentation de celle-ci : modèles discrets, continus et hybride. Dans la suite des travaux, seul le modèle discret sera utilisé pour des raisons pratiques d'évaluation mais aussi parce qu'il est plus facilement utilisable dans les applications visées. Un état de l'art sur les différentes approches utilisées pour la reconnaissance des émotions est ensuite présenté. Le problème de la production de corpus annoté pour l'entraînement et l'évaluation des systèmes de reconnaissance de l'état émotionnel est également abordé et un panorama des corpus disponibles est effectué. Une des difficultés sur ce point est d'obtenir des corpus réalistes pour les applications envisagées. Afin d'obtenir des données plus spontanées et dans des langues plus variées, deux corpus ont été créés à partir de films cinématographiques, l'un en Anglais, l'autre en Vietnamien. La suite des travaux se décompose en quatre parties : études et recherche des meilleurs paramètres pour représenter le signal acoustique pour la reconnaissance des émotions dans celui-ci, étude et recherche des meilleurs modèles et systèmes de classification pour ce même problème, expérimentation sur la reconnaissance des émotions inter-langues, et enfin production d'un corpus annoté en vietnamien et évaluation de la reconnaissance des émotions dans cette langue qui a la particularité d'être tonale. Dans les deux premières études, les cas mono-locuteur, multi-locuteur et indépendant du locuteur ont été considérés. La recherche des meilleurs paramètres a été effectuée sur un ensemble large de paramètres locaux et globaux classiquement utilisés en traitement automatique de la parole ainsi que sur des dérivations de ceux-ci. Une approche basée sur la sélection séquentielle forcée avant a été utilisée pour le choix optimal des combinaisons de paramètres acoustiques. La même approche peut être utilisée sur des types de données différents bien que le résultat final dépende du type considéré. Parmi, les MFCC, LFCC, LPC, la fréquence fondamentale, l'intensité, le débit phonétique et d'autres coefficients extraits du domaine temporel, les paramètres de type MFCC ont donné les meilleurs résultats dans les cas considérés. Une approche de normalisation symbolique a permis d'améliorer les performances dans le cas indépendant du locuteur. Pour la recherche du meilleur modèle et système de classification associé, une approche d'élimination successive selon des cas de complexité croissante (mono-locuteur, multi-locuteur et indépendant du locuteur) a été utilisée. Les modèle GMM, HMM, SVM et VQ (quantification vectorielle) on été étudiés. Le modèle GMM est celui qui donne les meilleurs résultats sur les données considérées. Les expérimentations inter-langue (Allemand et Danois) ont montré que les méthodes développées fonctionnent bien d'une langue à une autre mais qu'une optimisation des paramètres spécifique pour chaque langue ou chaque type de données est nécessaire pour obtenir les meilleurs résultats. Ces langues sont toutefois des langues non tonales. Des essais avec le corpus créé en Vietnamien ont montré une beaucoup moins bonne généralisation dans ce cas. Cela peut être du au fait que le Vietnamien est une langue tonale mais cela peut aussi être dû à la différence entre les conditions de création des corpus : acté dans les premiers cas et plus spontané pour le Vietnamien.

Page generated in 0.1177 seconds