• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Système d'identification à partir de l'image d'iris et détermination de la localisation des informations / Iris identification system and determination of characteristics location

Hilal, Alaa 21 October 2013 (has links)
Le système d’identification d’iris est considéré comme l’une des meilleures technologies biométriques. Toutefois, des problèmes liés à la segmentation de l’iris et à la normalisation de la texture de l’iris sont généralement signalés comme principales origines des reconnaissances incorrectes. Dans notre travail, trois contributions principales sont proposées pour améliorer le système d’identification d’iris. Une nouvelle méthode de segmentation est développée. Elle détecte la frontière externe de l’iris par un contour circulaire et la pupille, d’une manière précise, à l’aide d’un modèle de contour actif. Ensuite, une nouvelle méthode de normalisation est proposée. Elle assure une représentation plus robuste et un meilleur échantillonnage de la texture de l’iris comparée aux méthodes traditionnelles. Enfin en utilisant le système d’identification d’iris proposé, la localisation des caractéristiques discriminantes dans une région d’iris est identifiée. Nous vérifions que l’information la plus importante de la région de l’iris se trouve à proximité de la pupille et que la capacité discriminante de la texture diminue avec la distance à la pupille. Les méthodes de segmentation et de normalisation développées sont testées et comparées à un système de référence sur une base de données contenant 2639 images d’iris. Une amélioration des performances de reconnaissance valide l’efficacité du système proposé / Iris identification system is considered among the best biometric technologies. However problems related to the segmentation of the iris and to the normalization of iris templates are generally reported and induce loss of recognition performance. In this work three main contributions are made to the progress of the iris identification system. A new segmentation method is developed. It approximates the outer iris boundary with a circle and segments accurately the inner boundary of the iris by use of an active contour model. Next, a new normalization method is proposed. It leads to a more robust characterization and a better sampling of iris textures compared to traditional normalization methods. Finally using the proposed iris identification system, the location of discriminant characteristics along iris templates is identified. It appears that the most discriminant iris characteristics are located in inner regions of the iris (close to the pupil boundary) and that the discriminant capabilities of these characteristics decreases as outer regions of the iris are considered. The developed segmentation and normalization methods are tested and compared to a reference iris identification system over a database of 2639 iris images. Improvement in recognition performance validates the effectiveness of the proposed system
302

Segmentation and indexation of complex objects in comic book images / Segmentation et indexation d'objets complexes dans les images de bandes dessinées

Rigaud, Christophe 11 December 2014 (has links)
Dans ce manuscrit de thèse, nous détaillons et illustrons les différents défis scientifiques liés à l'analyse automatique d'images de bandes dessinées, de manière à donner au lecteur tous les éléments concernant les dernières avancées scientifiques en la matière ainsi que les verrous scientifiques actuels. Nous proposons trois approches pour l'analyse d'image de bandes dessinées. La première approche est dite "séquentielle'' car le contenu de l'image est décrit progressivement et de manière intuitive. Dans cette approche, les extractions se succèdent, en commençant par les plus simples comme les cases, le texte et les bulles qui servent ensuite à guider l'extraction d'éléments plus complexes tels que la queue des bulles et les personnages au sein des cases. La seconde approche propose des extractions indépendantes les unes des autres de manière à éviter la propagation d'erreur due aux traitements successifs. D'autres éléments tels que la classification du type de bulle et la reconnaissance de texte y sont aussi abordés. La troisième approche introduit un système fondé sur une base de connaissance a priori du contenu des images de bandes dessinées. Ce système permet de construire une description sémantique de l'image, dirigée par les modèles de connaissances. Il combine les avantages des deux approches précédentes et permet une description sémantique de haut niveau pouvant inclure des informations telles que l'ordre de lecture, la sémantique des bulles, les relations entre les bulles et leurs locuteurs ainsi que les interactions entre les personnages. / In this thesis, we review, highlight and illustrate the challenges related to comic book image analysis in order to give to the reader a good overview about the last research progress in this field and the current issues. We propose three different approaches for comic book image analysis that are composed by several processing. The first approach is called "sequential'' because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel. The second approach addresses independent information extraction to recover the main drawback of the first approach : error propagation. This second method is called “independent” because it is composed by several specific extractors for each elements of the image without any dependence between them. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven and scalable system of comics image understanding. This system called “expert system” is composed by an inference engine and two models, one for comics domain and another one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification.
303

Milieux granulaires réactifs : dynamique et structure autour de grains en transformation / Reactive granular media : structure and dynamics around transforming grains

Merceron, Aymeric 12 December 2016 (has links)
Les transformations physiques et chimiques qui apparaissent au sein de milieux granulaires réactifs induisent des réorganisations dynamiques et structurelles importantes. Largement utilisés pour des applications industrielles, le comportement de ces matériaux en évolution doit être compris. Dans ce travail, nous étudions expérimentalement les réarrangements d'un empilement granulaire modèle soumis à des transformations localisées d'un ou plusieurs grains. Les dispositifs expérimentaux mis au point permettent un suivi bidimensionnel de la structure environnante alors qu'un ou plusieurs grains réduisent de tailles et/ou sont tirés hors de l'empilement. La réponse moyenne du matériau aux temps longs s'apparentent aux écoulements quasi-statiques couramment observés dans les silos. Le comportement instantané de l'empilement est quant à lui très hétérogène dans l'espace et dans le temps. Il présente une dynamique intermittente avec des évènements décorrélés en temps et des ampleurs distribuées en loi de puissance. Les tailles des grains en évolution jouent un rôle important sur la réponse dynamique de l'empilement granulaire notamment en lien avec l'apparition de phénomènes de structuration pour les plus petits intrus. Par ailleurs, la présence d'un second grain en évolution à proximité d'un premier génère des effets coopératifs. Une distance caractéristique de séparation pour l'émergence de ces phénomènes est mise en évidence, elle ne dépend que de l'empilement et non de la taille des grains en évolution. Enfin, les évolutions instantanées des fractions volumiques locales montrent des distributions similaires suggérant un unique mécanisme de réarrangements structuraux. / Physical and chemical transformations appearing in reactive granular media yield strong dynamical and structural reorganizations. Widely used for industrial applications, the behavior of these evolving materials needs to be understood. In this work, we experimentally study the rearrangements of a model granular packing undergoing localized transformations of one or several grains. The experimental setups allow a two-dimensional tracking of the surrounding structure while one or several grains are either reducing in size or being pulled out of the packing. The average long-term response of the material is similar to quasi-static flows commonly observed in silos. The instantaneous behavior of the packing is heterogeneous in space and time. It shows an intermittent dynamic with events decorrelated in time whose amplitudes are power-law distributed. The sizes of the evolving grains play an important role on the dynamical response of the granular packing by the appearance of arches for the smallest intruders. Moreover, the presence of a second evolving grain generates cooperative effects. A characteristic distance between the two intruders is found, it does depend on the packing properties and not on the size of the evolving grains. Finally, instantaneous evolutions of local densities show similar distributions suggesting a unique mechanism in terms of structural reorganizations.
304

Application d'un langage de programmation de type flot de données à la synthèse haut-niveau de système de vision en temps-réel sur matériel reconfigurable / Application of a dataflow programming language to the high level synthesis of real time vision systems on reconfigurable hardware

Ahmed, Sameer 24 January 2013 (has links)
Les circuits reconfigurables de type FPGA (Field Programmable Gate Arrays) peuvent désormais surpasser les processeurs généralistes pour certaines applications offrant un fort degré de parallélisme intrinsèque. Ces circuits sont traditionnellement programmés en utilisant des langages de type HDL (Hardware Description Languages), comme Verilog et VHDL. L'usage de ces langages permet d'exploiter au mieux les performances offertes par ces circuits mais requiert des programmeurs une très bonne connaissance des techniques de conception numérique. Ce pré-requis limite fortement l'utilisation des FPGA par la communauté des concepteurs de logiciel en général. Afin de pallier cette limitation, un certain nombre d'outils de plus haut niveau ont été développés, tant dans le monde industriel qu'académique. Parmi les approches proposées, celles fondées sur une transformation plus ou moins automatique de langages de type C ou équivalent, largement utilisés dans le domaine logiciel, ont été les plus explorées. Malheureusement, ces approches ne permettent pas, en général, d'obtenir des performances comparables à celles issues d'une formulation directe avec un langage de type HDL, en raison, essentiellement, de l'incapacité de ces langages à exprimer le parallélisme intrinsèque des applications. Une solution possible à ce problème passe par un changement du modèle de programmation même. Dans le contexte qui est le notre, le modèle flot de données apparaît comme un bon candidat. Cette thèse explore donc l'adoption d'un modèle de programmation flot de données pour la programmation de circuits de type FPGA. Plus précisément, nous évaluons l'adéquation de CAPH, un langage orienté domaine (Domain Specific Language) à la description et à l'implantation sur FPGA d'application opérant à la volée des capteurs (stream processing applications). L'expressivité du langage et l'efficacité du code généré sont évaluées expérimentalement en utilisant un large spectre d'applications, allant du traitement d'images bas niveau (filtrage, convolution) à des applications de complexité réaliste telles que la détection de mouvement, l'étiquetage en composantes connexes ou l'encodage JPEG. / Field Programmable Gate Arrays (FPGAs) are reconfigurable devices which can outperform General Purpose Processors (GPPs) for applications exhibiting parallelism. Traditionally, FPGAs are programmed using Hardware Description Languages (HDLs) such as Verilog and VHDL. Using these languages generally offers the best performances but the programmer must be familiar with digital design. This creates a barrier for the software community to use FPGAs and limits their adoption as a computing solution. To make FPGAs accessible to both software and hardware programmers, a number of tools have been proposed both by academia and industry providing high-level programming environment. A widely used approach is to convert C-like languages to HDLs, making it easier for software programmers to use FPGAs. But these approaches generally do not provide performances on the par with those obtained with HDL languages. The primary reason is the inability of C-like approaches to express parallelism. Our claim is that in order to have a high level programming language for FPGAs as well as not to compromise on performance, a shift in programming paradigm is required. We think that the Dataflowow / actor programming model is a good candidate for this. This thesis explores the adoption of Dataflow / actor programming model for programming FPGAs. More precisely, we assess the suitability of CAPH, a domain-specific language based on this programming model for the description and implementation of stream-processing applications on FPGAs. The expressivity of the language and the efficiency of the generated code are assessed experimentally using a set of test bench applications ranging from very simple applications (basic image filtering) to more complex realistic applications such as motion detection, Connected Component Labeling (CCL) and JPEG encoder.
305

Two Bayesian learning approaches to image processing / Traitement d’images par deux approches d’apprentissage Bayésien

Wang, Yiqing 02 March 2015 (has links)
Cette thèse porte sur deux méthodes à patch en traitement d’images dans le cadre de minimisation du risque Bayésien. Nous décrivons un mélange d’analyses factorielles pour modéliser la loi à priori des patchs dans une seule image et l’appliquons au débruitage et à l’inpainting. Nous étudions aussi les réseaux de neurones à multi-couches d’un point de vue probabiliste comme un outil permettant d’approcher l’espérance conditionnelle, ce qui ouvre quelques voies pour réduire leurs tailles et coût d’apprentissage. / This work looks at two patch based image processing methods in a Bayesian risk minimization framework. We describe a Gaussian mixture of factor analyzers for local prior modelling and apply it in the context of image denoising and inpainting. We also study multilayer neural networks from a probabilistic perspective as a tool for conditional expectation approximation, which suggests ways to reduce their sizes and training cost.
306

Aide à la détection et à la reconnaissance de défauts structurels dans les pipelines par analyse automatique des images XtraSonic / Helping Smart Detection and Recognition of pipeline structure failures based on automatic "XTraSonic Images" Processing and Analysis

Fouquet, Clément 13 June 2014 (has links)
TRAPIL est une société Française ayant à charge l'exploitation et l'entretien de pipelines d'hydrocarbures. L'entretien de pipelines enterrés nécessite le passage de racleurs équipés de sondes ultrasons réalisant une cartographie de la structure du pipeline, qui est ensuite analysée à la main afin de détecter et d'identifier les différents défauts pouvant apparaître ou évoluer.L'objectif de ce travail de thèse est d'apporter une solution algorithmique permettant d'accélérer et de compléter le travail des analystes à l'aide des méthodes modernes de traitement d'images et du signal.Notre approche suit le mode opératoire des experts et est découpée en trois partie.Tout d'abord nous réalisons une détection des soudures d'aboutage permettant de séparer le pipelines en les différents tubes qui le composent. Les signaux de sondes représentant la circonférence du tube sont regroupés et compressés dans une détection de rupture par comparaison de moyenne à court et long terme, puis les signaux résultants sont fusionnés à l'aide d'une pondération unique permettant une augmentation majeure du contraste entre bruit et soudure, offrant une détection et une localisation presque sans faille.Les tubes subissent ensuite une première segmentation visant à éliminer le plus grand nombre de pixels sains. Usant de modélisation d'histogramme des valeurs d'épaisseur par un algorithme EM initialisé pour notre problématique, l'algorithme suit un principe récursif comparable aux méthodes de type split and merge pour détecter et isoler les zones dangereuses.Enfin, Les zones dangereuses sont identifiées à l'aide d'une foret aléatoire, apprise sur un grand nombre d'exemples de défauts. Cette troisième partie est centrée sur l'étude de différentes méthodes de reconnaissance de forme appliquées à notre nouvelle problématique.Au travers de ces différentes étapes, les solutions que nous avons apportées permettent à TRAPIL un gain de temps significatif sur les tâches les plus fastidieuses du processus d'analyse (par exemple 30% sur la détection de soudures) et leur offre de nouvelles possibilités commerciales, par exemple la possibilité de fournir un pré-rapport à leur clientèle en quelques jours pendant que l'analyse manuelle est réalisée pouvant prendre plus d'un mois. / TRAPIL is a French society who is in charge of exploitation and maintenance of oil pipelines. Maintenance of buried pipeline implies the use of ultrasonic sensor-equipped devices, providing thickness and structural maps of the pipe, which are analysed by experts in order to detect and identify defects that may appear or evolve.The objective of this work is to provide an algoritmic solution allowing to accelerate and aid the experts's work with modern image and signal processing methods.Our approach follows the experts's operating mode and is divided in three sections.First, a weld detection is realized allowing to split the pipe in tubes. The signals of probes representing the circumference of the pipe are regrouped and compressed through an abrupt change detection, using short and long-term average comparison, then the resulting signals are merged using a unique weightening function allowing a massive increase of the contrast between welds and noise, offering near-perfect detection and localization.The tubes then undergoes a first segmentation aiming at eliminating a large amount of sane pixels. Using histogram modelization through an EM algorithm tuned specially for our purpose, the algorithm follows a recursive approach comparable to split and merge methods to detect and isolate dangerous areas.Finally, those dangerous areas are identified with a Random Forest, which has been learnt on a large amount of defect examples. This third part is greatly focused on the study of different pattern recognition methods applied on our new problematic.Through those different steps, the solution we brought allows TRAPIL to save a lot of time on the most tedious tasks of the analysis process (for example 30% of gain in processing time for the weld detection) and offers new commercial possibilities, like for example the possibility to provide their clients a first report in a matter of days, while the manual analysis is completed, which can take more than a month.
307

Apports de l'ultra large bande et de la diversité de polarisation du radar de sol pour l'auscultation des ouvrages du génie civil / Contribution of ultra-wide band and polarization diversity for the non-destructive evaluation of civil engineering structures using the ground penetrating radar (GPR)

Tebchrany, Elias 08 October 2015 (has links)
La technique de Georadar (GPR) est actuellement largement utilisée comme une technique non-destructive de sondage et d'imagerie dans plusieurs applications du génie civil qui concernent principalement: l'inspection des structures et des matériaux de construction, la cartographie des réseaux enterrés et des cavités, la caractérisation des fondations souterraines et du sol ainsi que l'estimation de la teneur en eau volumique du sous-sol. Le radar GPR est une technique en continuelle évolution en raison de l'intégration toujours plus poussée des équipements électroniques, des performances des calculateurs numériques, et des traitements du signal avancés. La promotion de cette technologie repose sur le développement de nouvelles configurations de systèmes et d'outils de traitement des données en vue de l'interprétation des images du sous-sol. Dans ce contexte, les travaux de cette thèse présentent tout d'abord le système GPR ULB (Ultra large bande) à double polarisation couplé au sol, lequel a été développé récemment au laboratoire. Par la suite, les traitement des données ont été focalisés sur le développement d'outils d'analyse en vue d'obtenir à partir des images brutes des images plus facilement lisibles par l'utilisateur afin d'améliorer l'interprétation des données GPR, en particulier dans le cadre de la détection de canalisations urbaines et la caractérisation des sols. Les moyens de traitement utilisés concernent l'élimination du clutter au cours d'une étape de prétraitement en utilisant des adaptations et des extensions des algorithmes fondés sur les techniques PCA et ICA. De plus, une technique de traitement d'image ‘'template matching” a été proposée pour faciliter la détection d'hyperbole dans une image Bscan de GPR. La diversité de polarisation est enfin abordée, dans le but de fournir des informations supplémentaires pour la détection d'objets diélectriques et des discontinuités du sous-sol. Les performances de nos outils d'analyse sont évaluées sur de données synthétiques (simulations 3D FDTD) et des données de mesures obtenues dans des environnements contrôlés. Pour cela, nous avons considéré différentes configurations de polarisation et des objets à caractéristiques diélectriques variées. Le potentiel de discrimination des cibles a été quantifié en utilisant le critère statistique fondé sur les courbes ROC / The Ground Penetrating Radar technique (GPR) is now widely used as a non destructive probing and imaging tool in several civil engineering applications mainly concerning inspection of construction materials and structures, mapping of underground utilities and voids, characterization of sub-structures, foundations and soil and estimation of sub-surface volumetric moisture content. GPR belongs to a continuously evolving field due to electronic integration, high-performance computing, and advanced signal processing. The promotion of this technology relies on the development of new system configurations and data processing tools for the interpretation of sub-surface images. In this context, the work presents first the dual polarization UWB ground coupled GPR system which has been developed recently. Then, the data processing has focalized on the development of analysis tools to transform the raw images in a more user-readable image in order to improve the GPR data interpretation especially within the scope of detection of urban pipes and soil characterization. The processing means used concern clutter removal in the pre-processing step using adaptations and extensions of the PCA and ICA algorithms. Moreover, a template matching image processing technique is presented to help the detection of hyperbola within GPR raw B-scan images. The dual polarization is finally shown to bring additional information and to improve the detection of buried dielectric objects or medium discontinuities. The performances of our analysis approaches are illustrated using synthetic data (3D FDTD simulations) and field-measurement data in controlled environments. Different polarization configurations and dielectric characteristics of objects have been considered. The potential for target discrimination has been quantified using statistical criteria such as ROC
308

Conception conjointe de l'optique et du traitement pour l'optimisation des systèmes d'imagerie / Joint optical-digital design for imaging system optimization

Burcklen, Marie-Anne 08 February 2018 (has links)
Aujourd'hui, les systèmes d'imagerie sont des instruments complexes qui font interagir optique, détecteur et traitement numérique. Afin de dépasser les performances d'imagerie conventionnelles, il devient nécessaire de tenir compte de cette interaction dès la phase de conception et d'optimiser simultanément les paramètres optiques et numériques. L'objectif de ma thèse est de développer des méthodes d'optimisation conjointe pour obtenir de nouveaux systèmes à performances d'imagerie augmentées et de complexité réduite. J'ai tout d'abord étudié le cas de l'augmentation de la profondeur de champ d'une combinaison optique existante. Un masque de phase binaire a été inséré au voisinage du diaphragme d'ouverture d'un objectif ouvert à f/1.2 et a été optimisé de façon conjointe avec un traitement de déconvolution en utilisant le critère basé sur la qualité de l'image restaurée. L'augmentation de profondeur de champ a été quantifiée et des mesures précises de la fonction de transfert de modulation ont permis de valider expérimentalement l'efficacité de ce type d'imageur non-conventionnel. Dans ces premiers travaux, seul le masque de phase a été modifié lors de l'optimisation. Pour accroître encore l'efficacité du système d'imagerie, il est nécessaire d'optimiser l'ensemble de tous les paramètres optiques. Or l'optimisation d'une combinaison optique est un problème complexe qui doit tenir compte de contraintes spécifiques et nécessite l'utilisation d'un logiciel de calcul optique dédié, comme le logiciel Code V qui a été utilisé dans cette thèse. Comme le critère d'optimisation conjointe basé sur la qualité image n'est plus adapté à ce type d'optimisation, j'ai proposé un nouveau critère. Il se base sur les critères d'optimisation classiques de Code V, qui ont été modifiés de façon à prendre en compte de manière implicite le traitement de déconvolution. Cette méthode de conception a tout d'abord été validée dans le cas de l'optimisation d'un masque de phase pour l'extension de profondeur de champ d'une combinaison optique existante. Les résultats obtenus sont équivalents à ceux donnés par l'optimisation suivant le critère de qualité d'image. La technique a ensuite été utilisée pour améliorer une combinaison conventionnelle existante à très forte ouverture (f/0.75) : en modifiant ses paramètres optiques, la combinaison a été allégée et la qualité d'image a été homogénéisée sur l'ensemble du champ. Enfin, j'ai appliqué cette méthode de conception conjointe pour résoudre le problème important de la sensibilité thermique d'un système infrarouge dans la bande 8-12 µm. Cette méthode a permis de concevoir, à partir de zéro, plusieurs types de combinaisons optiques à courte et longue focale, rendues insensibles à la température. Elles présentent un schéma optique plus simple que les solutions athermalisées de façon classique, tout en ayant des performances d'imagerie similaires voire supérieures. / Imaging systems are now complex instruments where lens, sensor and digital processing interact strongly together. In order to obtain better imaging performance than conventional imaging, it has become necessary to take into account this interaction in the design stage and therefore to optimize jointly optical and digital parameters. The objective of my thesis is to develop joint optical-digital optimization methods in order to obtain imaging systems with higher performance and lower complexity. I first considered extending the depth of field of an already existing lens. A binary phase mask has been inserted in the vicinity of the aperture stop of a f/1.2 lens, and it has been optimized jointly with a deconvolution filter using the restored image quality criterion. The increase in depth of field has been quantified, and modulation transfer function measurements have proved experimentally the efficiency of this unconventional imaging system. During this first study only the phase mask was optimized. To further increase the imaging system efficiency, all the optical parameters need to be optimized. However, optical design is a complex problem in which specific constraints have to be taken into account and for which one needs to use a dedicated software. In this thesis I used the Code V optical design software. Since the image quality-based optimization cannot be easily implemented in this type of software, I proposed a new criterion. It is based on classical optical optimization criteria used in Code V that have been modified in order to take into account deconvolution in a implicit manner. This design method has been first validated on the optimization of a phase mask for depth of field extension of an already existing lens. Results were similar to those given by the image quality-based optimization. Then this method has been used to enhance a very fast f/0.75 lens: by modifying its optical parameters, the lens has been simplified, and the image quality has been homogenized over the field. Eventually I applied this joint design method to solve the important problem of thermal sensitivity of an 8-12 µm infrared system. By using this method I designed from scratch several types of short and long focal length athermalized lenses. The obtained lenses are simpler than conventionally athermalized ones while having similar or even higher imaging performance.
309

Étude expérimentale de mélange de poudres de polymères dans un mélangeur rotatif

Aït Aissa, Amara 18 April 2018 (has links)
Dans ce travail, on développe plusieurs méthodes de mesure en ligne et non-intrusives basées sur l'utilisation de la méthode de traitement d'images et qui visent à quantifier la qualité du mélange: matrices de co-occurrence des niveaux de gris (GLCM), méthode de seuillage (tons de gris) et la méthode de couleur RGB. Cette qualité de mélange peut être atteinte en jouant sur des aspects dynamiques liés aux mécanismes qui président la mise en mouvement des particules. Ces mécanismes sont le fait, non seulement des propriétés d'écoulement des particules, mais aussi des conditions d'opération du mélangeur. Ceci a été confirmé par une étude comparative de l'état de mélange de plusieurs milieux granulaires (polymère, verre et bois) tout en se basant sur l'effet de la taille des particules, du nombre de Froude, de la charge de remplissage du mélangeur, de la concentration des constituants et par l'effet de la forme et de l'état de surface des particules selon le coefficient de frottement et la densité des particules. La ségrégation axiale a aussi été abordée en déterminant l'effet du rapport des diamètres des particules, la concentration des petites particules, la longueur du cylindre et son diamètre. Finalement, des modèles sont proposés afin de suivre le comportement du mélange en fonction du temps.
310

Gait analysis, modelling, and comparison from unconstrained walks and viewpoints : view-rectification of body-part trajectories from monocular video sequences

Jean, Frédéric 18 April 2018 (has links)
L'analyse, la modélisation et la comparaison de la démarche de personnes à l'aide d'algorithmes de vision artificielle a récemment suscité beaucoup d'intérêt dans les domaines d'applications médicales et de surveillance. Il y a en effet plusieurs avantages à utiliser des algorithmes de vision artificielle pour faire l'analyse, la modélisation et la comparaison de la démarche de personnes. Par exemple, la démarche d'une personne peut être analysée et modélisée de loin en observant la personne à l'aide d'une caméra, ce qui ne requiert pas le placement de marqueurs ou de senseurs sur la personne. De plus, la coopération des personnes observées n'est pas requise, ce qui permet d'utiliser la démarche des personnes comme un facteur d'identification biométrique dans les systèmes de surveillance automatique. Les méthodes d'analyse et de modélisation de la démarche existantes comportent toutefois plusieurs limitations. Plusieurs de ces méthodes nécessitent une vue de profil des personnes puisque ce point de vue est optimal pour l'analyse et la modélisation de la démarche. La plupart de ces méthodes supposent également une distance assez grande entre les personnes et la caméra afin de limiter les effets néfastes que la projection de perspective a sur l'analyse et la modélisation de la démarche. Par ailleurs, ces méthodes ne gèrent pas les changements de direction et de vitesse dans les marches. Cela limite grandement les marches pouvant être analysées et modélisées dans les applications médicales et les applications de surveillance. L'approche proposée dans cette thèse permet d'effectuer l'analyse, la modélisation et la comparaison de la démarche de personnes à partir de marches et de points de vue non contraints. L'approche proposée est principalement constituée d'une méthode de rectification du point de vue qui permet de générer une vue fronto-parallèle (vue de profil) de la trajectoire imagée des membres d'une personne. Cette méthode de rectification de la vue est basée sur un modèle de marche novateur qui utilise la géométrie projective pour faire les liens spatio-temporels entre la position des membres dans la scène et leur contrepartie dans les images provenant d'une caméra. La tête et les pieds sont les seuls membres nécessaires à l'approche proposée dans cette thèse. La position et le suivi de ces membres sont automatiquement effectués par un algorithme de suivi des membres développé dans le cadre de cette thèse. L'analyse de la démarche est effectuée par une nouvelle méthode qui extrait des caractéristiques de la démarche à partir de la trajectoire rectifiée des membres. Un nouveau modèle de la démarche basé sur la trajectoire rectifiée des membres est proposé afin de permettre la modélisation et la comparaison de la démarche en utilisant les caractéristiques dynamiques de la démarche. L'approche proposée dans cette thèse est premièrement validée à l'aide de marches synthétiques comprenant plusieurs points de vue différents ainsi que des changements de direction. Les résultats de cette étape de validation montrent que la méthode de rectification de la vue fonctionne correctement, et qu'il est possible d'extraire des caractéristiques de la démarche valides à partir de la trajectoire rectifiée des membres. Par la suite, l'analyse, la modélisation et la comparaison de la démarche de personnes sont effectuées sur des marches réelles qui ont été acquises dans le cadre de cette thèse. Ces marches sont particulièrement difficiles à analyser et à modéliser puisqu'elles ont été effectuées près de la caméra et qu'elles comportent des changements de direction et de vitesse. Les résultats d'analyse de la démarche confirment que les caractéristiques de la démarche obtenues à l'aide de la méthode proposée sont réalistes et sont en accord avec les résultats présentés dans les études cliniques de la démarche. Les résultats de modélisation et de comparaison de la démarche démontrent qu'il est possible d'utiliser la méthode proposée pour reconnaître des personnes par leur démarche dans le contexte des applications de surveillance. Les taux de reconnaissance obtenus sont bons considérant la complexité des marches utilisées dans cette thèse. / Gait analysis, modelling and comparison using computer vision algorithms has recently attracted much attention for medical and surveillance applications. Analyzing and modelling a person's gait with computer vision algorithms has indeed some interesting advantages over more traditional biometrics. For instance, gait can be analyzed and modelled at a distance by observing the person with a camera, which means that no markers or sensors have to be worn by the person. Moreover, gait analysis and modelling using computer vision algorithms does not require the cooperation of the observed people, which thus allows for using gait as a biometric in surveillance applications. Current gait analysis and modelling approaches have however severe limitations. For instance, several approaches require a side view of the walks since this viewpoint is optimal for gait analysis and modelling. Most approaches also require the walks to be observed far enough from the camera in order to avoid perspective distortion effects that would badly affect the resulting gait analyses and models. Moreover, current approaches do not allow for changes in walk direction and in walking speed, which greatly constraints the walks that can be analyzed and modelled in medical and surveillance applications. The approach proposed in this thesis aims at performing gait analysis, modelling and comparison from unconstrained walks and viewpoints in medical and surveillance applications. The proposed approach mainly consists in a novel view-rectification method that generates a fronto-parallel viewpoint (side view) of the imaged trajectories of body parts. The view-rectification method is based on a novel walk model that uses projective geometry to provide the spatio-temporal links between the body-part positions in the scene and their corresponding positions in the images. The head and the feet are the only body parts that are relevant for the proposed approach. They are automatically localized and tracked in monocular video sequences using a novel body parts tracking algorithm. Gait analysis is performed by a novel method that extracts standard gait measurements from the view-rectified body-part trajectories. A novel gait model based on body-part trajectories is also proposed in order to perform gait modelling and comparison using the dynamics of the gait. The proposed approach is first validated using synthetic walks comprising different viewpoints and changes in the walk direction. The validation results shows that the proposed view-rectification method works well, that is, valid gait measurements can be extracted from the view-rectified body-part trajectories. Next, gait analysis, modelling, and comparison is performed on real walks acquired as part of this thesis. These walks are challenging since they were performed close to the camera and contain changes in walk direction and in walking speed. The results first show that the obtained gait measurements are realistic and correspond to the gait measurements found in references on clinical gait analysis. The gait comparison results then show that the proposed approach can be used to perform gait modelling and comparison in the context of surveillance applications by recognizing people by their gait. The computed recognition rates are quite good considering the challenging walks used in this thesis.

Page generated in 0.15 seconds