• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 28
  • 5
  • 1
  • Tagged with
  • 80
  • 27
  • 12
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Indexation vidéo non-supervisée basée sur la caractérisation des personnes

El Khoury, Elie 03 June 2010 (has links) (PDF)
Cette thèse consiste à proposer une méthode de caractérisation non-supervisée des intervenants dans les documents audiovisuels, en exploitant des données liées à leur apparence physique et à leur voix. De manière générale, les méthodes d'identification automatique, que ce soit en vidéo ou en audio, nécessitent une quantité importante de connaissances a priori sur le contenu. Dans ce travail, le but est d'étudier les deux modes de façon corrélée et d'exploiter leur propriété respective de manière collaborative et robuste, afin de produire un résultat fiable aussi indépendant que possible de toute connaissance a priori. Plus particulièrement, nous avons étudié les caractéristiques du flux audio et nous avons proposé plusieurs méthodes pour la segmentation et le regroupement en locuteurs que nous avons évaluées dans le cadre d'une campagne d'évaluation. Ensuite, nous avons mené une étude approfondie sur les descripteurs visuels (visage, costume) qui nous ont servis à proposer de nouvelles approches pour la détection, le suivi et le regroupement des personnes. Enfin, le travail s'est focalisé sur la fusion des données audio et vidéo en proposant une approche basée sur le calcul d'une matrice de cooccurrence qui nous a permis d'établir une association entre l'index audio et l'index vidéo et d'effectuer leur correction. Nous pouvons ainsi produire un modèle audiovisuel dynamique des intervenants.
12

3D structure estimation from image stream in urban environment / Estimation de la structure 3D d'un environnement urbain à partir d'un flux vidéo

Nawaf, Mohamad Motasem 05 December 2014 (has links)
Dans le domaine de la vision par ordinateur, l’estimation de la structure d’une scène 3D à partir d’images 2D constitue un problème fondamental. Parmi les applications concernées par cette problématique, nous nous sommes intéressés dans le cadre de cette thèse à la modélisation d’un environnement urbain. Nous nous sommes intéressés à la reconstruction de scènes 3D à partir d’images monoculaires générées par un véhicule en mouvement. Ici, plusieurs défis se posent à travers les différentes étapes de la chaine de traitement inhérente à la reconstruction 3D. L’un de ces défis vient du fait de l’absence de zones suffisamment texturées dans certaines scènes urbaines, d’où une reconstruction 3D (un nuage de points 3D) trop éparse. De plus, du fait du mouvement du véhicule, d’une image à l’autre il n’y a pas toujours un recouvrement suffisant entre différentes vues consécutives d’une même scène. Dans ce contexte, et ce afin de lever les verrous ci-dessus mentionnés, nous proposons d’estimer, de reconstruire, la structure d’une scène 3D par morceaux en se basant sur une hypothèse de planéité. Nous proposons plusieurs améliorations à la chaine de traitement associée à la reconstruction 3D. D’abord, afin de structurer, de représenter, la scène sous la forme d’entités planes nous proposons une nouvelle méthode de reconstruction 3D, basée sur le regroupement de pixels similaires (superpixel segmentation), qui à travers une représentation multi-échelle pondérée fusionne les informations de couleur et de mouvement. Cette méthode est basée sur l’estimation de la probabilité de discontinuités locales aux frontières des régions calculées à partir du gradient (gradientbased boundary probability estimation). Afin de prendre en compte l’incertitude liée à l’estimation du mouvement, une pondération par morceaux est appliquée à chaque pixel en fonction de cette incertitude. Cette méthode génère des regroupements de pixels (superpixels) non contraints en termes de taille et de forme. Pour certaines applications, telle que la reconstruction 3D à partir d’une séquence d’images, des contraintes de taille sont nécessaires. Nous avons donc proposé une méthode qui intègre à l’algorithme SLIC (Simple Linear Iterative Clustering) l’information de mouvement. L’objectif étant d’obtenir une reconstruction 3D plus dense qui estime mieux la structure de la scène. Pour atteindre cet objectif, nous avons aussi introduit une nouvelle distance qui, en complément de l’information de mouvement et de données images, prend en compte la densité du nuage de points. Afin d’augmenter la densité du nuage de points utilisé pour reconstruire la structure de la scène sous la forme de surfaces planes, nous proposons une nouvelle approche qui mixte plusieurs méthodes d’appariement et une méthode de flot optique dense. Cette méthode est basée sur un système de pondération qui attribue un poids pré-calculé par apprentissage à chaque point reconstruit. L’objectif est de contrôler l’impact de ce système de pondération, autrement dit la qualité de la reconstruction, en fonction de la précision de la méthode d’appariement utilisée. Pour atteindre cet objectif, nous avons appliqué un processus des moindres carrés pondérés aux données reconstruites pondérées par les calculés par apprentissage, qui en complément de la segmentation par morceaux de la séquence d’images, permet une meilleure reconstruction de la structure de la scène sous la forme de surfaces planes. Nous avons également proposé un processus de gestion des discontinuités locales aux frontières de régions voisines dues à des occlusions (occlusion boundaries) qui favorise la coplanarité et la connectivité des régions connexes. L’ensemble des modèles proposés permet de générer une reconstruction 3D dense représentative à la réalité de la scène. La pertinence des modèles proposés a été étudiée et comparée à l’état de l’art. Plusieurs expérimentations ont été réalisées afin de démontrer, d’étayer, la validité de notre approche / In computer vision, the 3D structure estimation from 2D images remains a fundamental problem. One of the emergent applications is 3D urban modelling and mapping. Here, we are interested in street-level monocular 3D reconstruction from mobile vehicle. In this particular case, several challenges arise at different stages of the 3D reconstruction pipeline. Mainly, lacking textured areas in urban scenes produces low density reconstructed point cloud. Also, the continuous motion of the vehicle prevents having redundant views of the scene with short feature points lifetime. In this context, we adopt the piecewise planar 3D reconstruction where the planarity assumption overcomes the aforementioned challenges.In this thesis, we introduce several improvements to the 3D structure estimation pipeline. In particular, the planar piecewise scene representation and modelling. First, we propose a novel approach that aims at creating 3D geometry respecting superpixel segmentation, which is a gradient-based boundary probability estimation by fusing colour and flow information using weighted multi-layered model. A pixel-wise weighting is used in the fusion process which takes into account the uncertainty of the computed flow. This method produces non-constrained superpixels in terms of size and shape. For the applications that imply a constrained size superpixels, such as 3D reconstruction from an image sequence, we develop a flow based SLIC method to produce superpixels that are adapted to reconstructed points density for better planar structure fitting. This is achieved by the mean of new distance measure that takes into account an input density map, in addition to the flow and spatial information. To increase the density of the reconstructed point cloud used to performthe planar structure fitting, we propose a new approach that uses several matching methods and dense optical flow. A weighting scheme assigns a learned weight to each reconstructed point to control its impact to fitting the structure relative to the accuracy of the used matching method. Then, a weighted total least square model uses the reconstructed points and learned weights to fit a planar structure with the help of superpixel segmentation of the input image sequence. Moreover, themodel handles the occlusion boundaries between neighbouring scene patches to encourage connectivity and co-planarity to produce more realistic models. The final output is a complete dense visually appealing 3Dmodels. The validity of the proposed approaches has been substantiated by comprehensive experiments and comparisons with state-of-the-art methods
13

Analyse du comportement des programmes à l'aide des matrices d'adjacence

Rached, Samah January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Using event sequence alignment to automatically segment web users for prediction and recommendation / Alignement de séquences d'évènements pour la segmentation automatique d'internautes, la prédiction et la recommandation

Luu, Vinh Trung 16 December 2016 (has links)
Une masse de données importante est collectée chaque jour par les gestionnaires de site internet sur les visiteurs qui accèdent à leurs services. La collecte de ces données a pour objectif de mieux comprendre les usages et d'acquérir des connaissances sur le comportement des visiteurs. A partir de ces connaissances, les gestionnaires de site peuvent décider de modifier leur site ou proposer aux visiteurs du contenu personnalisé. Cependant, le volume de données collectés ainsi que la complexité de représentation des interactions entre le visiteur et le site internet nécessitent le développement de nouveaux outils de fouille de données. Dans cette thèse, nous avons exploré l’utilisation des méthodes d’alignement de séquences pour l'extraction de connaissances sur l'utilisation de site Web (web mining). Ces méthodes sont la base du regroupement automatique d’internautes en segments, ce qui permet de découvrir des groupes de comportements similaires. De plus, nous avons également étudié comment ces groupes pouvaient servir à effectuer de la prédiction et la recommandation de pages. Ces thèmes sont particulièrement importants avec le développement très rapide du commerce en ligne qui produit un grand volume de données (big data) qu’il est impossible de traiter manuellement. / This thesis explored the application of sequence alignment in web usage mining, including user clustering and web prediction and recommendation.This topic was chosen as the online business has rapidly developed and gathered a huge volume of information and the use of sequence alignment in the field is still limited. In this context, researchers are required to build up models that rely on sequence alignment methods and to empirically assess their relevance in user behavioral mining. This thesis presents a novel methodological point of view in the area and show applicable approaches in our quest to improve previous related work. Web usage behavior analysis has been central in a large number of investigations in order to maintain the relation between users and web services. Useful information extraction has been addressed by web content providers to understand users’ need, so that their content can be correspondingly adapted. One of the promising approaches to reach this target is pattern discovery using clustering, which groups users who show similar behavioral characteristics. Our research goal is to perform users clustering, in real time, based on their session similarity.
15

Modèles quantitatifs d'algorithmes parallèles

Kitajima, Joao-Paulo 20 October 1994 (has links) (PDF)
Cette thèse présente ANDES, une technique de modélisation quantitative d'algorithmes et de programmes parallèles. Le modèle est un graphe orienté et valué sans circuit composé de noeuds de calcul. Les arcs modélisent la précédence. Par le moyen de logiques d'entrée et de sortie, il est possible de modéliser le flot de données. ANDES prévoit la modélisation de certaines caractéristiques non-déterministes des algorithmes (e.g. branchement). Un support pour la description hiérarchique et regulière est aussi prevu. Des exemples de modèles ANDES sont présentés. La description du modèle est faite à partir d'une étude des autres techniques disponibles dans la littérature (e.g., GMB). La bibliothèque ANDES-C est utilisé pour la description de modèles ANDES. Avec cette bibliothèque, un modèle ANDES est décrit comme un programme C. L'avantage de cette représentation textuelle est, entre autres, la possibilité de décrire, de façon compacte, de modèles avec de milliers de noeuds de calcul. Le modèle ANDES peut être utilisé dans différents contextes d'évaluation de performances, principalement comme une forme de modélisation d'une charge de travail. Ce modèle de la charge de travail peut être donné, par exemple, à un simulateur ou à un modèle analytique (e.g., un système de files d'attente). Dans ce travail, nous utilisons ANDES afin de générer, à partir des modèles, des charges synthétiques exécutées par une vraie machine parallèle. Cet environnement de transformation et d'exécution d'une charge synthétique est appelé ANDES-Synth. A part le modèle de la charge de travail, il est possible de modéliser aussi une machine parallèle qui est "émulée" par la machine parallèle cible. ANDES-Synth est utilisé, dans ce travail de thèse, pour l'évaluation de stratégies de placement statique (quatre heuristiques gloutonnes et deux itératives). Un algorithme de regroupement (utilisé dans l'outil Pyrros) est utilisé afin de permettre l'application des stratégies de placement aux modèles ANDES.
16

Ordonnancement avec communications pour systèmes multiprocesseurs dans divers modèles d'exécution

Guinand, Frédéric 07 June 1995 (has links) (PDF)
En quelques dizaines d'années, l'informatique a vu naître et se développer des machines fonctionnant avec plusieurs processeurs. Les difficultés techniques rencontrées pour la conception de ces ordinateurs ont été surmontées et l'un des défis majeur d'aujourd'hui est de fournir une plateforme pour la programmation parallèle. Ce travail de thèse s'inscrit dans le cadre du projet IMAG APACHE qui a pour but la conception d'un tel environnement. Le modèle de graphes que nous manipulons est un graphe de tâches orienté sans cycle. Le processus consistant à paralléliser une application est découpé en trois phases principales, avec l'ordonnancement et le placement des différentes parties de l'application comme étape centrale. Dans ce contexte, nous avons concentrés nos efforts sur la recherche de stratégies d'ordonnancement présentant de réelles qualités de robustesse et d'efficacité pour des graphes de différentes granularités, et pour des ensembles d'hypothèses d'exécution différents. A partir d'un algorithme produisant des ordonnancements optimaux dans le cas de graphes à structure arborescente formés de tàches de durées unitaires et de communications unitaires, nous avons montré qu'il était possible d'obtenir des ordonnancements, dont l'écart par rapport à l'optimal est borné, pour des arbres de granularité différente. Nous avons montré également que ce même algorithme permettait d'obtenir dans certains cas des ordonnancements optimaux pour un modèle d'exécution totalement différent de celui pour lequel il avait été originellement conçu. Cette étude sur deux processeurs a été mené pour un nombre supérieur de processeurs identiques et pour deux processeurs uniformes. Enfin, une partie de ce travail est dédiée à la recherche de stratégies d'ordonnancement pour des graphes générés par l'environnement Athapascan (projet APACHE) qui présentent la particularité de permettre l'adaptation de la granularité en fonction de la machine cible.
17

La gestion des résistances au changement dans le processus de fusion municipale : le cas de la ville de Longueuil

Senay, Caroline January 2006 (has links) (PDF)
Le changement est une réalité organisationnelle qui ne laisse personne indifférent. Lorsque les gens apprennent que leur milieu sera changé, leur réflexe est de résister pour conserver une certaine stabilité. Bien que ce réflexe soit naturel, on remarque que les réactions devant un changement sont davantage vues comme étant négatives. Dans ce mémoire, nous avons voulu démontrer, à l'aide d'un cas, quelles sont les réactions des gens face au changement, pourquoi il s'avère important de les reconnaître et comment il est possible de gérer ces résistances. À la suite de notre revue de la littérature, nous avons étudié le cas de la fusion des villes de la Rive-Sud de Montréal. Pour cette recherche, nous avons interrogé des gestionnaires sur les stratégies de communication envisagées par le Comité de transition pour gérer les réactions au changement. L'analyse des propos recueillis lors des entrevues et des informations contenues dans les documents fournis par le Comité nous ont permis de constater qu'il n'y avait pas eu utilisation de stratégies de gestion des résistances, que plusieurs des éléments contenus dans le plan de gestion du changement n'avaient pas été mis en place et que les informations contenues dans les différentes publications restaient vagues et générales. À la lumière de notre recherche, nous avons constaté que la communication joue un rôle important dans la réussite d'une fusion, mais surtout dans la gestion des résistances au changement. De plus, il s'est avéré intéressant de voir que le rôle d'un agent dans la réussite du processus dépendra de sa crédibilité auprès des employés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fusions municipales, Communication d'entreprise, Fusions et acquisitions, Résistances au changement, Changement organisationnel.
18

Aide à la décision pour le dimensionnement et le pilotage de ressources humaines mutualisées en milieu hospitalier

Trilling, Lorraine 07 November 2006 (has links) (PDF)
Le regroupement des blocs opératoires au sein d'un Plateau Médico-Technique (PMT) présente des enjeux dans la phase de conception (dimensionnement des ressources et choix d'organisation) et dans la phase de pilotage (planification de l'activité et affectation des ressources humaines et matérielles) face auxquels les décideurs hospitaliers manquent d'outils. En réponse à ces besoins, cette thèse propose une démarche globale d'aide à la décision pour la conception du PMT et le pilotage des ressources humaines mutualisées de ce secteur. Cette démarche aborde trois principaux problèmes. Dans un premier temps, nous nous intéressons à la modélisation des processus de PMT existants, dont le but est de faire émerger un diagnostic et d'engager une démarche d'amélioration de la performance. Ces modèles sont réutilisés dans un second temps pour la modélisation des processus cibles qui nous permettent d'obtenir, par simulation de l'activité, les courbes de charge exprimant les besoins en personnel. Nous abordons la question du dimensionnement du personnel regroupé du PMT par la construction des vacations couvrant cette charge prévisionnelle, à l'aide de la Programmation Linéaire en Nombres Entiers (PLNE) couplée à la simulation de flux. Dans un troisième temps, nous étudions deux problèmes de planication d'horaires de travail : celui des infirmiers anesthésistes et celui des médecins anesthésistes, pour lesquels nous développons plusieurs approches de résolution basées sur la Programmation Linéaire Mixte (PLM) et sur la Programmation Par Contraintes (PPC), expérimentées et validées dans le cadre d'applications réelles.
19

Belief relational clustering and its application to community detection / Classification relationnelle crédibiliste : application à la détection de communautés

Zhou, Kuang 05 July 2016 (has links)
Les communautés sont des groupes de nœuds (sommets) qui partagent probablement des propriétés communes et/ou jouent des rôles similaires dans le graphe. Ils peuvent extraire des structures spécifiques des réseaux complexes, et par conséquent la détection de ces communautés a été étudiée dans de nombreux domaines où les systèmes sont souvent représentés sous forme de graphes. La détection de communautés est en fait un problème de classification (ou clustering) sur les graphes, et l'information disponible dans ce problème est souvent sous la forme de similitudes ou de différences (entre les nœuds). Nous commençons par une situation de base où les nœuds dans le graphe sont regroupés selon leurs similarités et proposons une nouvelle approche de clustering enc-partition nommée algorithme Median Evidential C-Means (MECM). Cette approche étend la méthode de classification par médiane dans le cadre de la théorie des fonctions de croyance. En outre, une détection de communautés fondée sur l'approche MECM est également présentée. L'approche proposée permet de fournir des partitions crédales selon des similarités avec seulement des données connues. La mesure de dissimilarité pourrait être ni symétrique et même ne comporter aucune exigences de métriques.Elle est simplement intuitive. Ainsi, elle élargit la portée d'applications des partitions crédales. Afin de saisir les divers aspects des structures de communautés, nous pouvons avoir besoin de plusieurs nœuds plutôt qu'un seul pour représenter un prototype représentant un groupe d'individus. Motivée par cette idée, une approche de détection de communautés fondée sur le Similarity-based Multiple Prototype (SMP) est proposée.Les valeurs de centralité sont utilisées comme critère pour sélectionner plusieurs nœuds(prototypes) pour caractériser chaque communauté, et les poids des prototypes sont considérés pour décrire le degré de représentativité des objets liés à leur propre communauté. Ensuite, la similarité entre chaque nœud et les communautés est définie. Les nœuds sont divisés pour former des communautés selon leurs similarités. Les partitions nettes et floues peuvent être obtenues par l'approche SMP. Ensuite, nous étendons l'approche SMP au cadre des fonctions de croyance pour obtenir des partitions crédales de sorte que l'on puisse obtenir une meilleure compréhension de la structure des données. Les poids du prototype sont incorporés dans la fonction d’objectif de la communauté. La composition de masse et les poids des prototypes ont pu être mis à jour alternativement pendant le processus d'optimisation. Dans ce cas,chaque groupe peut être décrit en utilisant de multiples prototypes pondérés. Comme nous allons le montrer, les poids des prototypes peuvent également nous fournir des informations utiles pour l'analyse des données. la règle de mise à jour et le critère de propagation du LPA sont étendus aux fonctions de croyance. Une nouvelle approche de détection de communautés, appelée Semisupervised Evidential Label Propagation (SELP) est proposée comme une version améliorée de la méthode LPA conventionnelle. L'un des avantages de l'approche SELP est quelle permet de tenir compte de la connaissance préalable disponible sur les étiquettes des communautés de certains individus. Ceci est tr` es courant dans la pratique réelle. Dans la méthode SELP, les nœuds sont divisés en deux partis. Certains contiennent des nœuds labellisés et les autres des nœuds non labellisés. Les labels sont propagés depuis les nœuds labellisés à ceux non labellisés, étape par étape en utilisant la règle crédibiliste de propagation de labels proposée. Les performances des approches proposées sont évaluées en utilisant les graphes de référence des ensembles de données et des graphes générés. Nos résultats expérimentaux illustrent l'efficacité des algorithmes de classification proposés et des méthodes de détection de communautés. / Communities are groups of nodes (vertices) which probably share common properties and/or play similar roles within the graph. They can extract specific structures from complex networks, and consequently community detection has attracted considerable attention crossing many areas where systems are often represented as graphs. We consider in this work to represent graphs as relational data, and propose models for the corresponding relational data clustering. Four approaches are brought forward to handle the community detection problem under different scenarios. We start with a basic situation where nodes in the graph are clustered based on the dissimilarities and propose a new c-partition clustering approach named Median Evidential C-Means (MECM) algorithm. This approach extends the median clustering methods in the framework of belief function theory. Moreover, a community detection scheme based on MECM is presented. The proposed approach could provide credal partitions for data sets with only known dissimilarities. The dissimilarity measure could be neither symmetric nor fulfilling any metric requirements. It is only required to be of intuitive meaning. Thus it expands application scope of credal partitions. In order to capture various aspects of the community structures, we may need more members rather than one to be referred as the prototypes of an individual group. Motivated by this idea, a Similarity-based Multiple Prototype (SMP) community detection approach is proposed. The centrality values are used as the criterion to select multiple prototypes to characterize each community. The prototype weights are derived to describe the degree of representativeness of objects for their own communities. Then the similarity between each node and community is defined, and the nodes are partitioned into divided communities according to these similarities. Crisp and fuzzy partitions could be obtained by the application of SMP. Following, we extend SMP in the framework of belief functions to get credal partitions so that we can gain a better understanding of the data structure. The prototype weights are incorporate into the objective function of evidential clustering. The mass membership and the prototype weights could be updated alternatively during the optimization process. In this case, each cluster could be described using multiple weighted prototypes. As we will show, the prototype weights could also provide us some useful information for structure analysis of the data sets. Lastly, the original update rule and propagation criterion of LPA are extended in the framework of belief functions. A new community detection approach, called Semi-supervised Evidential Label Propagation (SELP), is proposed as an enhanced version of the conventional LPA. One of the advantages of SELP is that it could take use of the available prior knowledge about the community labels of some individuals. This is very common in real practice. In SELP, the nodes are divided into two parts. One contains the labeled nodes, and the other includes the unlabeled ones. The community labels are propagated from the labeled nodes to the unlabeled ones step by step according to the proposed evidential label propagation rule. The performance of the proposed approaches is evaluated using benchmark graph data sets and generated graphs. Our experimental results illustrate the effectiveness of the proposed clustering algorithms and community detection approaches.
20

On salience and non-accidentalness : comparing human vision to a contrario algorithms / Saillance et non-accidentalité : la vision humaine comparée à des algorithmes a-contrario

Blusseau, Samy 22 September 2015 (has links)
Dans cette thèse, nous comparons la vision humaine à des algorithmes de vision par ordinateur, basés sur un modèle mathématique appelé théorie a-contrario. Pour cela, nous nous concentrons sur deux taches visuelles dont la modélisation d'une part, et l'expérimentation psychophysique d'autre part, sont simples. Celles-ci consistent dans le groupement perceptuel d'éléments orientés appelés patchs de Gabor. Dans la première tache il s'agit de détecter des alignements, et dans la seconde des courbes, soit des configurations plus générales d'éléments en bonne continuation. Dans les deux cas, des expériences psychophysiques ont été menées afin de collecter des données sur la perception visuelle humaine dans un contexte de masquage.Le principe de non-accidentalité désigne le fait que les relations spatiales entre des éléments prennent un sens pour la perception lorsqu'il semble invraisemblable qu'elles soient le fruit du hasard. Ce principe trouve une formalisation dans la théorie a-contrario, qui est utilisée en vision par ordinateur pour déterminer des seuils de détection en accord avec la non-accidentalité. Dans cette thèse, les méthodes a-contrario sont appliquées dans l'implémentation de deux algorithmes conçus pour détecter respectivement des alignements et des courbes non-accidentels. Ces algorithmes ont joué le role de sujets artificiels dans nos expériences.Les données expérimentales des sujets humains ont donc été comparées aux algorithmes sur les memes taches, conduisant à deux principaux résultats. Premièrement, le Nombre de Fausses Alarmes (NFA), qui est la mesure scalaire de non-accidentalité dans la théorie a-contrario, est en forte corrélation avec les taux de détection obtenus par lessujets humains sur un large éventail de stimuli. Deuxièmement, les réponses des algorithmes ressemblent précisément à celles de la moyenne des sujets humains.La contribution de cette thèse est donc double. D'une part, elle valide de façon rigoureuse la pertinence des méthodes a-contrario dans l'estimation de seuils perceptuels, et leur application en vision par ordinateur. D'autre part, elle souligne l'importance du principe de non-accidentalité dans la vision humaine.Dans le but de rendre ces recherches reproductibles, les méthodes décrites dans la thèse ont été publiées dans le journal IPOL. Ces publications fournissent le détail des algorithmes, leur code source commenté, ainsi qu'une démonstration en ligne pour chacun d'eux. / The present dissertation compares the human visual perception to computer vision algorithms based on a mathematical model called a-contrario theory. To this aim, it focuses on two visual tasks that are at the same time easy to model and convenient to test in psychophysical experiments. Both tasks consist in the perceptual grouping of oriented elements, namely Gabor patches. The first one is the detection of alignments and the second one extends to curves, that is to say to more general arrangements of elements in good continuation. In both cases, alignments and curves, psychophysical experiments were set up to collect data on the human visual perception in a masking context.The non-accidentalness principle states that spatial relations are perceptually relevant when their accidental occurrence is unlikely. The a-contrario theory is a formalization of this principle, and is used in computer vision to set detection thresholds accordingly. In this thesis, the a-contrario framework is applied in two practical algorithms designed to detect non-accidental alignments and curves respectively. These algorithms play the part of artificial subjects for our experiments.The experimental data of human subjects is then compared to the detection algorithms on the very same tasks, yielding two main results. First, this procedure shows that the Number of False Alarms (NFA), which is the scalar measure of non-accidentalness in the a-contrario theory, strongly correlates with the detection rates achieved by human subjects on a large variety of stimuli. Secondly,the algorithms' responses match very well the average behavior of human observers.The contribution of this thesis is therefore two-sided. On the one hand, it provides a rigorous validation of the a-contrario theory's relevance to estimate visual thresholds and implement visual tasks in computer vision. On the other hand, it reinforces the importance of the non-accidentalness principle in human vision.Aiming at reproducible research, all the methods are submitted to IPOL journal, including detailed descriptions of the algorithms, commented reference source codes, and online demonstrations for each one.

Page generated in 0.0895 seconds