• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 3
  • 1
  • Tagged with
  • 17
  • 17
  • 9
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement de logiciels de thermographie infrarouge visant à améliorer le contrôle de la qualité de la pose de l’enrobé bitumineux

Vézina, Martin January 2014 (has links)
Les fissures et les nids-de-poule sont des défauts très présents sur les routes du réseau routier québécois. Un bon contrôle de la qualité lors de la pose de l’enrobé bitumineux permet de diminuer les risques d’apparition de ces défauts. Le ministère des Transports du Québec (MTQ) utilise la thermographie infrarouge afin de détecter les zones non conformes, soit celles qui deviendront des nids-de-poule ou des fissures. Des variations thermiques sur l’image infrarouge permettent la détection de ces zones. Toutefois, les logiciels utilisés par le MTQ ne sont pas appropriés pour détecter les zones non conformes. Ce mémoire présente deux méthodes de détection automatique des zones non conformes. La première permet l’analyse des images prises par une caméra thermique alors que la seconde permet d’analyser en continu les données provenant d’un scanneur infrarouge. Ces deux méthodes utilisent des techniques de segmentation afin de détecter les zones non conformes. Elles permettent l’analyse automatique des données sans qu’aucune intervention humaine ne soit nécessaire.
2

Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualité

Horé, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
3

Détection de contours dans les images CFA / Edge detection on Bayer CFA image

Aberkane, Arezki 21 December 2017 (has links)
Cette thèse est consacrée à la détection des contours à partir d'images acquises par des caméras couleur mono-capteur. Dans ces dispositifs, le capteur est recouvert d'une mosaïque de filtres chromatiques (Color Filter Array, ou CFA) et forme une image (dite <<brute>> ou CFA) qui ne comporte qu'une seule composante couleur par pixel. Une procédure de dématriçage est classiquement appliquée à cette image pour estimer les deux composantes couleur manquantes en chaque pixel et obtenir une image couleur. Cependant, les artéfacts générés par le dématriçage peuvent altérer les performances des méthodes d'analyse bas-niveau des images. Ceci nous amène à éviter le dématriçage pour la détection des contours. Dans une approche de type gradient, nous proposons d'estimer les dérivées partielles soit en calculant les dérivées partielles dans les trois plans couleur (approche vectorielle), soit en estimant une luminance adaptée à la détection des contours (approche scalaire). L'état de l'art met en évidence que l'exploitation directe de l'image brute a été peu abordée et que les approches développées dans cette thèse sont originales. Pour l'approche vectorielle, nous proposons une adaptation de l'implantation récursive du filtre de Deriche au treillis du CFA. Pour l'approche luminance, nous utilisons un filtre optimal qui lisse et dérive conjointement les données brutes. Nous évaluons les performances des méthodes développées sur une base d'images synthétiques dont la vérité terrain est connue. Nous montrons ainsi que la détection des contours à partir des données brutes peut être satisfaisante tout en étant peu coûteuse en temps de calcul. / This thesis is devoted to edge detection from the raw image acquired by single-sensor cameras. Such cameras are fitted with Bayer Color Filter Array (CFA, generally Bayer one) and deliver raw CFA image, in which each pixel is characterized by only one out of the three colour components (red, green, or blue). A demosaicing procedure is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image. This however produces artefacts that may affect the performance of low-level processing tasks applied to such estimated images. We propose to avoid demosaicing to compute partial derivatives for edge detection. Simple differentiation kernels, Deriche filters or shifted Deriche filters can be used either in a vector or a scalar approache. The vector approach computes partial derivatives for the three channels and the scalar approach first estimates a luminance image, then computes derivatives. The partial CFA derivatives are then used to compute Di Zenzo gradient for edge detection. We assess the performance of our methods on a large dataset of synthetic images with available edge ground truth. We show that CFA-based approaches may provide as accurate edge detection results as colour vector-based ones at much reduced computation cost.
4

Outils de traitement d'images adaptés au traitement d'images omnidirectionnelles

Bigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
5

Détection de Contours et Diffusion Anisotropique dans les Images

Magnier, Baptiste 12 December 2011 (has links) (PDF)
Ce mémoire de thèse est consacré à la détection anisotrope de contours et à la diffusion anisotropique dans les images qui utilisent des demi-filtres gaussiens. Ces demi-filtres parcourent toutes les orientations possibles autour d'un pixel avec un pas de discrétisation choisi. A partir de demi-filtres orientés de dérivées de gaussiennes anisotropes, une nouvelle approche de détection de bords dans les images couleurs a été développée. Puisque le filtre est allongé et fin, cette méthode permet d'extraire les contours des larges structures mais également des petits objets, même en présence de bruit. Les courbes gamma mettent en évidence des parties sombres ou sur-éclairées d'une image. L'utilisation combinée de ces demi-filtres et des courbes gamma apporte une robustesse supplémentaire au filtre puisqu'il est capable d'extraire les bords des objets, même dans les parties sous et sur-exposées d'une image. Le deuxième travail dans cette thèse concerne l'extraction de lignes de crêtes dans les images à partir de différence de deux demi-gaussiennes anisotropiques. Cette nouvelle méthode rend très précise la détection de ce type de contours même au niveau des lignes fortement courbées ou coudées. De plus, l'utilisation de demi-filtres apporte une information supplémentaire au niveau des jonctions qui correspondent aux maxima locaux. Enfin, le dernier thème de cette thèse est dédié à la diffusion anisotropique dans les images. Ainsi, trois nouveaux schémas de régularisation ont été développés dont deux pour supprimer les textures et un pour le débruitage. Ce dernier schéma donne des résultats intéressants, même dans des images en couleurs fortement bruitées.
6

Traitements d'Images Omnidirectionnelles

Jacquey, Florence 21 December 2007 (has links) (PDF)
Ce manuscrit présente une approche novatrice au problème du traitement d'images omnidirectionnelles. Elle se démarque des autres approches par le fait que les traitements sont adaptés à la géométrie de l'image et effectués directement dans l'espace de l'image afin d'interpoler le moins possible les données originales de l'image. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial de l'image. Ces techniques s'appuient sur une représentation par partition floue de l'image. Afin de traiter les images issues de capteurs omnidirectionnels catadioptriques, nous proposons une approche basée sur l'utilisation d'un espace projectif virtuel appelé le cylindre englobant. Ce cylindre nous permet de définir les différents opérateurs de convolution dans un espace quasi identique à celui de l'image perspective. Les opérateurs ainsi définis sont ensuite projetés sur l'image omnidirectionnelle pour tenir compte de la géométrie du capteur. Dans un premier temps, nous avons proposé une adaptation des masques de convolution aux images omnidirectionnelles prenant en compte les imprécisions sur la localisation du niveau de gris des pixels. Dans un second temps, nous nous sommes intéressés plus précisément aux détecteurs de contours. Nous avons développé une nouvelle approche d'estimation de gradient utilisant des noyaux possibilistes. L'estimation du gradient est fournie sous la forme d'un intervalle de valeurs. Cet intervalle permet de seuiller naturellement les valeurs de gradient obtenues. La validité de nos approches est établie par des expérimentations sur des images omnidirectionnelles synthétiques et réelles. Les images synthétiques sont utilisées afin de tester la robustesse de nos détecteurs de contours en présence de bruit et d'étudier la bonne détection, bonne localisation et réponse unique du contour. Les images réelles permettent d'observer le comportement de nos méthodes vis à vis des variations d'illumination et des bruits d'acquisition.
7

La détection des contours dans des images à niveaux de gris : mise en oeuvre et sélection de détecteurs

Ziou, Djemel 11 October 1991 (has links) (PDF)
La détection de contour a pour objectif l'acquisition d'une représentation compacte de toutes les propriétés significatives de la scène perçue. Elle doit être efficace et fiable, car la validité et l'efficacité ainsi que les possibilités de réalisation des traitements ultérieurs y sont directement liées. Cependant, la présence du bruit dans l'image rend difficile la conception d'un algorithme général de détection de contours satisfaisant d'une manière optimale ces exigences. C'est la raison pour laquelle de nombreux détecteurs ont été proposés souvent différents par leur objectif ainsi que par leurs propriétés mathématiques et algorithmiques. Le problème auquel se trouve souvent confronter les utilisateurs de la détection de contours est le choix du détecteur le plus approprié pour l'application envisagée. Le thème central de cette thèse est la détection de contours dans des images à niveaux de gris, en visant la mise en œuvre d'une sélection automatique de détecteurs et de leurs paramètres les plus appropriés pour mettre en évidence un contour donné. Pour disposer d'un ensemble d'outils nécessaires à la détection de contours, nous proposons deux détecteurs de contours originaux. Le premier est destiné aux lignes de crête. Il est optimal au sens de Canny et implanté efficacement par des équations aux différences. Le second est un détecteur de contours fermés de type marche fondé sur des techniques d'apprentissage. Il est destiné à des images comportant quelques objets poses sur un fond. Cet algorithme peut être utilisé pour la détection de contours et pour l'extraction de régions. La définition d'un critère de sélection de détecteurs et le calcul automatique de leurs paramètres nécessitent la spécification de la relation de cause à effet entre les caractéristiques du contour et les propriétés des détecteurs. Dans ce contexte, nous proposons une étude bibliographique approfondie et une étude théorique mettant en évidence l'influence des attributs des contours sur les performances des détecteurs. Cette étude validée par des expérimentations a permis d'obtenir des résultats originaux. En ce qui concerne la sélection des détecteurs de contours, nous proposons une approche incrémentale qui consiste à choisir un seul détecteur à chaque itération. La combinatoire de l'approche proposée est faible grâce à l'utilisation d'heuristiques. Le système implanté est composé d'algorithmes originaux. Il a l'avantage de fournir une solution efficace assurant le compromis entre deux critères de performance qui sont de nature antagoniste : la détection et la localisation.
8

Oriented filters for feature extraction in digital Images : Application to corners detection, Contours evaluation and color Steganalysis / Filtres orientés pour l'extraction de primitives dans les images : Application à la détection de coins, l'évaluation de contours, et à la stéganalyse d'images couleur

Abdulrahman, Hasan 17 November 2017 (has links)
L’interprétation du contenu de l’image est un objectif très important dans le traitement de l’image et la vision par ordinateur. Par conséquent, plusieurs chercheurs y sont intéressés. Une image contient des informations multiples qui peuvent être étudiés, telles que la couleur, les formes, les arêtes, les angles, la taille et l’orientation. En outre, les contours contiennent les structures les plus importantes de l’image. Afin d’extraire les caractéristiques du contour d’un objet, nous devons détecter les bords de cet objet. La détection de bords est un point clé dans plusieurs applications, telles que :la restauration, l’amélioration de l’image, la stéganographie, le filigrane, la récupération, la reconnaissance et la compression de l’image, etc. Toutefois, l’évaluation de la performance de la méthode de détection de bords reste un grand défi. Les images numériques sont parfois modifiées par une procédure légale ou illégale afin d’envoyer des données secrètes ou spéciales. Afin d’être moins visibles, la plupart des méthodes stéganographiques modifient les valeurs de pixels dans les bords/textures de parties de l’image. Par conséquent, il est important de détecter la présence de données cachées dans les images numériques. Cette thèse est divisée principalement en deux parties.La première partie discute l’évaluation des méthodes de détection des bords du filtrage, des contours et des angles. En effet, cinq contributions sont présentées dans cette partie : d’abord, nous avons proposé un nouveau plan de surveillance normalisée de mesure de la qualité. En second lieu, nous avons proposé une nouvelle technique pour évaluer les méthodes de détection des bords de filtrage impliquant le score minimal des mesures considérées. En plus, nous avons construit une nouvelle vérité terrain de la carte de bords étiquetée d’une manière semi-automatique pour des images réelles.En troisième lieu, nous avons proposé une nouvelle mesure prenant en compte les distances de faux points positifs pour évaluer un détecteur de bords d’une manière objective. Enfin, nous avons proposé une nouvelle approche de détection de bords qui combine la dérivée directionnelle et l’homogénéité des grains. Notre approche proposée est plus stable et robuste au bruit que dix autres méthodes célèbres de détection. La seconde partie discute la stéganalyse de l’image en couleurs, basée sur l’apprentissage automatique (machine learning). En effet, trois contributions sont présentées dans cette partie : d’abord, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur l’extraction de caractéristiques de couleurs à partir de corrélations entre les gradients de canaux rouge, vert et bleu. En fait, ces caractéristiques donnent le cosinus des angles entre les gradients. En second lieu, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur des mesures géométriques obtenues par le sinus et le cosinus des angles de gradients entre tous les canaux de couleurs. Enfin, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur une banque de filtres gaussiens orientables. Toutes les trois méthodes proposées présentent des résultats intéressants et prometteur en devançant l’état de l’art de la stéganalyse en couleurs. / Interpretation of image contents is very important objective in image processing and computer vision. Wherefore, it has received much attention of researchers. An image contains a lot of information which can be studied such as color, shapes, edges, corners, size, and orientation. Moreover, contours include the most important structures in the image. In order to extract features contour of an object, we must detect the edges of that object. Edge detection results, remains a key point and very important step in wide range of applications such as: image restoration, enhancement, steganography, watermarking, image retrieval, recognition, compression, and etc. An efficient boundary detection method should create a contour image containing edges at their correct locations with a minimum of misclassified pixels. However, the performance evaluationof the edge detection results is still a challenging problem. The digital images are sometimes modify by a legal or illegal data in order to send special or secret data. These changes modify slight coefficient values of the image. In order to be less visible, most of the steganography methods modify the pixel values in the edge/texture image areas. Therefore, it is important to detect the presence of hidden data in digital images. This thesis is divided mainly into two main parts. The first part, deals with filtering edge detection, contours evaluation and corners detection methods. More deeply, there are five contributions are presented in this part: first, proposed a new normalized supervised edge map quality measure. The strategy to normalize the evaluation enables to consider a score close to 0 as a good edge map, whereas a score 1 translates a poor segmentation. Second, proposed a new technique to evaluate filtering edge detection methods involving the minimum score of the considerate measures. Moreover, build a new ground truth edge map labelled in semi-automatic way in real images. Third, proposed a new measure takes into account the distances of false positive points to evaluate an edge detector in an objective way. Finally, proposed a new approach for corner detection based on the combination of directional derivative and homogeneity kernels. The proposed approach remains more stable and robust to noise than ten famous corner detection methods. The second part, deals with color image steganalysis, based on a machine learning classification. More deeply, there are three contributionsare presented in this part: first, proposed a new color image steganalysis method based on extract color features from correlations between the gradients of red, green and blue channels. Since these features give the cosine of angles between gradients. Second, proposed a new color steganalysis method based on geometric measures obtained by the sine and cosine of gradient angles between all the color channels. Finally, proposed a new approach for color image steganalysisbased on steerable Gaussian filters Bank.All the three proposed methods in this part, provide interesting and promising results by outperforming the state-of-art color image steganalysis.
9

Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage / Vision-based automatic verification of machining setup : application to machine tools safety

Karabagli, Bilal 06 November 2013 (has links)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l’aéronautique et de l’automobile, désigne l’automatisation sécurisée du processus d’usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d’usinage, avant de lancer la phase d’usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l’opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l’outil d’usinage. / In High Speed Machining it is of key importance to avoid any collision between the machining tool and the machining setup. If the machining setup has not been assembled correctly by the operator and is not conform to the 3D CAD model sent to the machining unit, such collisions can occur. We have developed a vision system, that utilizes a single camera, to automatically check the conformity of the actual machining setup within the desired 3D CAD model, before launching the machining operation. First, we propose a configuration of the camera within the machining setup to ensure a best acquisition of the scene. In the aim to segmente the image in regions of interest, e.g. regions of the clamping elements and piece, based-on 3D CAD model, we realise a matching between graphes, theorical and real graphe computed from theorical image of 3D-CAD model and real image given by real camera. The graphs are constructed from a simple feature, such as circles and lines, that are manely present in the machining setup. In the aim to define the regions of interest (ROI) in real image within ROI given by 3D CAD model, we project a 3D CAD model in the real image, e.g. augmented reality. To automatically check the accordance between every region defined, we propose to compute three parametres, such as skeleton to represente the form, edges to represent a geometry and Area to represent dimension. We compute a score of accordance between three parameters that will be analyzed in fuzzy system to get a decision of conformity of the clamping element within it definition given in the CAD model. Some cases of machining setup configurations require 3D information to test the trajectory of the machine tool. To get out this situation, we have proposed a new depth from defocus based-method to compute a depth map of the scene. Finally, we present the result of our solution and we show the feasibility and robustness of the proposed solution in differents case of machining setup.
10

Ondelettes, analyse de singularités lissées et traitement d'hologrammes numériques de micro-particules

Ducottet, Christophe 27 November 2003 (has links) (PDF)
Les travaux présentés dans ce mémoire se répartissent en deux principaux thèmes : l'analyse de singularités par ondelettes et le traitement numérique d'hologrammes. Pour effectuer des mesures sur les images il peut être utile de rechercher des formes particulières ou des primitives élémentaires telles que des points, des contours, les droites,... En pratique, de part la nature des images rencontrées dans les applications, ces primitives n'apparaissent pas nettement à cause de la présence de bruit ou de flou. Il convient alors de définir des opérateurs de détection adaptés capables d'obtenir de bonnes performances dans ces conditions. Nous montrons comment, à partir d'un modèle de singularités lissées, l'analyse en ondelettes permet de répondre à cette problématique. Deux opérateurs sont alors présentés : un opérateur de détection de points caractéristiques et un opérateur de détection de contours. Ces opérateurs sont capable d'estimer les caractéristiques locales de chaque point détecté (type, amplitude et degré de flou) en adaptant l'échelle de détection au degré de flou. Nous présenterons également des applications traitées dans le cadre de l'imagerie en mécanique des fluides et l'imagerie biomédicale. Pour obtenir des mesures tridimensionnelles en tous les points d'un volume de mesure, la technique de référence est l'holographie. Cette technique a été appliquée à l'analyse des écoulements dès les années 70, en utilisant des plaques photosensibles comme support de stockage de l'information. Depuis quelques années, grâce au développement des capteurs CCD et des techniques de traitement numérique, l'holographie numérique a pu être utilisée pour des mesures quantitatives tridimensionnelles. Le travail que nous présentons dans le deuxième thème, se place dans le contexte du traitement d'hologrammes numériques en vue de mesurer la position, la taille, ou la vitesse d'un ensemble de particules enregistrées sur cet hologramme. En faisant le lien avec les ondelettes et l'analyse de singularités lissées, nous proposons d'abord une fonction de restitution adaptée à la localisation axiale des particules. Nous déduisons ensuite une technique d'inter-corrélation permettant la mesure du champ de déplacement des particules.

Page generated in 0.1067 seconds