• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

De l'imagerie tissu entier à la modélisation in silico du réseau vasculaire du tissu adipeux

Dichamp, Jules 02 July 2018 (has links) (PDF)
Le tissu adipeux est traditionnellement décrit comme étant constitué de lobules : des entités de formes ovoïdales composées de cellules et de vaisseaux et faiblement connectées entre elles.Récemment, il a été montré qu’un potentiel métabolique spécifique (le browning) co-localise avec cette organisation en lobules au sein d’un même tissu. Dans ce travail de thèse, nous nous intéressons à décrire plus précisément l’organisation structurelle et fonctionnelle du tissu adipeux selon plusieurs aspects. Dans un premier temps, on s’attache à segmenter les lobules du tissu adipeux en utilisant une méthode de traitement d’image originale. Nous mettons en évidence une organisation 3D complexe et suivant plusieurs échelles. En particulier, il semble que le potentiel de browning soit également lié à une organisation structurelle particulière en clusters de lobules. Dans un second temps, à partir d’imagerie 3D, nous reconstruisons le réseau vasculaire entier du tissu adipeux et réalisons une simulation d’écoulements sanguins micro-vasculaires. Plusieurs hétérogénéités structurelles et fonctionnelles sont alors mises en valeurs à l’aide d’une analyse en communautés qui composent le tissu adipeux (par algorithme de clustering). Ces résultats confirment l’existence d’une zone centrale fortement vascularisée et qui se démarque également comme étant le lieu d’une perfusion sanguine d’intensité différente. Dans une dernière partie, nous abordons la question de transferts thermiques entre vaisseaux sanguins suivant des géométries simples mais pertinentes. Nous réalisons une étude systématique des paramètres adimensionnels clés du problème et mettons en évidence un invariant des échanges de chaleur : un optimum à faible nombre de Péclet (convection de même ordre que la diffusion). Nous introduisons également une méthode de calibration de paramètres effectifs dans le contexte des modèles homogénéisés de température à travers des tissus vascularisés.
72

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
73

Détection de contours dans les images CFA / Edge detection on Bayer CFA image

Aberkane, Arezki 21 December 2017 (has links)
Cette thèse est consacrée à la détection des contours à partir d'images acquises par des caméras couleur mono-capteur. Dans ces dispositifs, le capteur est recouvert d'une mosaïque de filtres chromatiques (Color Filter Array, ou CFA) et forme une image (dite <<brute>> ou CFA) qui ne comporte qu'une seule composante couleur par pixel. Une procédure de dématriçage est classiquement appliquée à cette image pour estimer les deux composantes couleur manquantes en chaque pixel et obtenir une image couleur. Cependant, les artéfacts générés par le dématriçage peuvent altérer les performances des méthodes d'analyse bas-niveau des images. Ceci nous amène à éviter le dématriçage pour la détection des contours. Dans une approche de type gradient, nous proposons d'estimer les dérivées partielles soit en calculant les dérivées partielles dans les trois plans couleur (approche vectorielle), soit en estimant une luminance adaptée à la détection des contours (approche scalaire). L'état de l'art met en évidence que l'exploitation directe de l'image brute a été peu abordée et que les approches développées dans cette thèse sont originales. Pour l'approche vectorielle, nous proposons une adaptation de l'implantation récursive du filtre de Deriche au treillis du CFA. Pour l'approche luminance, nous utilisons un filtre optimal qui lisse et dérive conjointement les données brutes. Nous évaluons les performances des méthodes développées sur une base d'images synthétiques dont la vérité terrain est connue. Nous montrons ainsi que la détection des contours à partir des données brutes peut être satisfaisante tout en étant peu coûteuse en temps de calcul. / This thesis is devoted to edge detection from the raw image acquired by single-sensor cameras. Such cameras are fitted with Bayer Color Filter Array (CFA, generally Bayer one) and deliver raw CFA image, in which each pixel is characterized by only one out of the three colour components (red, green, or blue). A demosaicing procedure is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image. This however produces artefacts that may affect the performance of low-level processing tasks applied to such estimated images. We propose to avoid demosaicing to compute partial derivatives for edge detection. Simple differentiation kernels, Deriche filters or shifted Deriche filters can be used either in a vector or a scalar approache. The vector approach computes partial derivatives for the three channels and the scalar approach first estimates a luminance image, then computes derivatives. The partial CFA derivatives are then used to compute Di Zenzo gradient for edge detection. We assess the performance of our methods on a large dataset of synthetic images with available edge ground truth. We show that CFA-based approaches may provide as accurate edge detection results as colour vector-based ones at much reduced computation cost.
74

Optimisation et évaluation des performance en traitement d'image / Optimisation and Performance Evaluation in image registration technique

Mambo, Shadrack 19 October 2018 (has links)
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres / D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
75

Adapting iris feature extraction and matching to the local and global quality of iris image / Comparaison des personnes par l'iris : adaptation des étapes d'extraction de caractéristiques et de comparaison à la qualité locale et globale des images d'entrées

Cremer, Sandra 09 October 2012 (has links)
La reconnaissance d'iris est un des systèmes biométriques les plus fiables et les plus précis. Cependant sa robustesse aux dégradations des images d'entrées est limitée. Généralement les systèmes basés sur l'iris peuvent être décomposés en quatre étapes : segmentation, normalisation, extraction de caractéristiques et comparaison. Des dégradations de la qualité des images d'entrées peuvent avoir des répercussions sur chacune de ses étapes. Elles compliquent notamment la segmentation, ce qui peut engendrer des images normalisées contenant des distorsions ou des artefacts non détectés. De plus, la quantité d'information disponible pour la comparaison peut être réduite. Dans cette thèse, nous proposons des solutions pour améliorer la robustesse des étapes d'extraction de caractéristiques et de comparaison à la dégradation des images d'entrées. Nous travaillons avec deux algorithmes pour ces deux étapes, basés sur les convolutions avec des filtres de Gabor 2D, mais des processus de comparaison différents. L'objectif de la première partie de notre travail est de contrôler la qualité et la quantité d'information sélectionnée pour la comparaison dans les images d'iris normalisées. Dans ce but nous avons défini des mesures de qualité locale et globale qui mesurent la quantité d'occlusions et la richesse de la texture dans les images d'iris. Nous utilisons ces mesures pour déterminer la position et le nombre de régions à exploiter pour l'extraction. Dans une seconde partie de ce travail, nous étudions le lien entre la qualité des images et les performances de reconnaissance des deux algorithmes de reconnaissance décrits ci-dessus. Nous montrons que le second est plus robuste aux images dégradées contenant des artefacts, des distorsions ou une texture pauvre. Enfin, nous proposons un système complet pour la reconnaissance d'iris, qui combine l'utilisation de nos mesures de qualités locale et globale pour optimiser les performances des algorithmes d'extraction de caractéristiques et de comparaison / Iris recognition has become one of the most reliable and accurate biometric systems available. However its robustness to degradations of the input images is limited. Generally iris based systems can be cut into four steps : segmentation, normalization, feature extraction and matching. Degradations of the input image quality can have repercussions on all of these steps. For instance, they make the segmentation more difficult which can result in normalized iris images that contain distortion or undetected artefacts. Moreover the amount of information available for matching can be reduced. In this thesis we propose methods to improve the robustness of the feature extraction and matching steps to degraded input images. We work with two algorithms for these two steps. They are both based on convolution with 2D Gabor filters but use different techniques for matching. The first part of our work is aimed at controlling the quality and quantity of information selected in the normalized iris images for matching. To this end we defined local and global quality metrics that measure the amount of occlusion and the richness of texture in iris images. We use these measures to determine the position and the number of regions to exploit for feature extraction and matching. In the second part, we study the link between image quality and the performance of the two recognition algoritms just described. We show that the second one is more robust to degraded images that contain artefacts, distortion or a poor iris texture. Finally, we propose a complete system for iris recognition that combines the use of our local and global quality metrics to optimize recognition performance
76

The use of geometric structures in graphics and optimization / L'utilisation des structures géométriques pour synthèse d'image et optimisation

Bus, Norbert 07 October 2015 (has links)
Les données du monde réel ont manifestement une composante géométrique importante et suggère les patterns géométriques signifiants. Les méthodes qui utilisent la nature géométrique des données sont activement développés dans plusieurs domaines scientifiques, comme, par exemple, la géométrie algorithmique, la géométrie discrète, la synthèse d'images, la vision par ordinateur. Dans le travail présent, nous utilisons les structures géométriques afin de modéliser des algorithmes efficaces pour deux domaines, celui de synthèse d'images et de l'optimisation combinatoire. Dans la première partie il s'agit de la structure de données géométriques, appelé une décomposition bien-séparée, et son application pour un des problèmes les plus difficiles dans la synthèse d'images, un efficace rendu photo-réalistique. Une solution consiste à appliquer toute une famille de méthodes de many-lights qui fait une approximation d'illumination globale par calcule individuelle d'illumination avec un grand nombre de VPLs (virtual point light) répartis sur les surfaces. L'application individuelle de chacun VPL résulte dans un grand nombre des calculs. Une des stratégies de la réussite pour réduire les computations est de faire les clusteurs considérés qui sont consideré comme une seul émetteur. Nous utilisons la décomposition bien-séparée de points comme le fondement de la structure des données susceptible de procéder à un calcul préliminaire et de conserver d'une façon compacte un grand nombre des clusterisations individuels potentiels ce qui montre que la clusterisation des VPL plus correspondante peut être extraite de cette structure de données d'une manière efficace. Nous montrons qu'au lieu de regroupper les points et/ou VPL indépendemment il vaut mieux produire les clusteurs sur l'espace de produit du nombre des points à nuancer et un groupe de VPL à la base de l'illumination des paires induite. En plus, nous proposons une technique adaptive afin d'échantillonner pour réduire le nombre des demandes de vérifications de visibilité pour chaque clusteur de l'espace de produit. Notre méthode consiste à détenir chaque émetteur qui peut être rapproché par VPL, matériaux spéculaire et à performer les méthodes précédents réconnus les meilleurs jusqu'au présent. La deuxième partie est consacrée au développement de nouveaux algorithmes d'approximation pour un problème fondamental de NP complet dans la géométrie algorithmique, précisément le problème du hitting set, avec une précision pour le cas d'un groupe de points et d'un groupe de disques, nous souhaiterons calculer les plus petits nombre du points qui touche tous les disques. Il arrive que les algorithmes efficaces à détecter le hitting set repose sur une structure géométrique clée, appelée epsilon-net. Nous donnons un algorithme utilisant uniquement les triangulisations de Delaunay pour construire les epsilon-nets de taille 13.4/epsilon. Nous donnons une implémentation pratique de la technique à calculer les hitting sets dans le temps quasi-linéaire en utilisant des epsilon-nets de petites tailles. Nos résultats aboutissent à une approximation de 13.4 pour le problème de hitting set par un algorithme qui fonctionne même pour les grands ensembles de données. Pour les ensembles de taille plus petite, nous proposons une implémentation de la technique de recherche locale avec une approximation bornes supérieures, avec le résultat obtenu d'approximation de (8 + epsilon) dans le temps O(n^{2.34}) / Real-world data has a large geometric component, showing significant geometric patterns. How to use the geometric nature of data to design efficient methods has became a very important topic in several scientific fields, e.g., computational geometry, discrete geometry, computer graphics, computer vision. In this thesis we use geometric structures to design efficient algorithms for problems in two domains, computer graphics and combinatorial optimization. Part I focuses on a geometric data structure called well-separated pair decomposition and its usage for one of the most challenging problems in computer graphics, namely efficient photo-realistic rendering. One solution is the family of many-lights methods that approximate global illumination by individually computing illumination from a large number of virtual point lights (VPLs) placed on surfaces. Considering each VPL individually results in a vast number of calculations. One successful strategy the reduce computations is to group the VPLs into a small number of clusters that are treated as individual lights with respect to each point to be shaded. We use the well-separated pair decomposition of points as a basis for a data structure for pre-computing and compactly storing a set of view independent candidate VPL clusterings showing that a suitable clustering of the VPLs can be efficiently extracted from this data structure. We show that instead of clustering points and/or VPLs independently what is required is to cluster the product-space of the set of points to be shaded and the set of VPLs based on the induced pairwise illumination. Additionally we propose an adaptive sampling technique to reduce the number of visibility queries for each product-space cluster. Our method handles any light source that can be approximated with virtual point lights (VPLs), highly glossy materials and outperforms previous state-of-the-art methods. Part II focuses on developing new approximation algorithms for a fundamental NP-complete problem in computational geometry, namely the minimum hitting set problem with particular focus on the case where given a set of points and a set of disks, we wish to compute the minimum-sized subset of the points that hits all disks. It turns out that efficient algorithms for geometric hitting set rely on a key geometric structure, called epsilon-net. We give an algorithm that uses only Delaunay triangulations to construct epsilon-nets of size 13.4/epsilon and we provide a practical implementation of a technique to calculate hitting sets in near-linear time using small sized epsilon-nets. Our results yield a 13.4 approximation for the hitting set problem with an algorithm that runs efficiently even on large data sets. For smaller datasets, we present an implementation of the local search technique along with tight approximation bounds for its approximation factor, yielding an (8 + epsilon)-approximation algorithm with running time O(n^{2.34})
77

Influence des conditions de compression sur les propriétés physico-chimiques des comprimés issus de poudres organiques.

Serris, Eric 06 December 2002 (has links) (PDF)
La compression des poudres est un procédé largement répandu et concerne, par exemple, 60% de la production de l'industrie pharmaceutique. Malgré cette importance, les connaissances scientifiques sur cette opération restent encore partiellement empiriques. Nous avons donc tenté au cours de cette thèse d'approfondir la connaissance des phénomènes qui se déroulent lors de la compression. L'objectif de ce travail était d'étudier l'influence des paramètres du procédé sur les propriétés d'usage des comprimé, pour modéliser les phénomènes, et dégager les conditions optimum de fabrication. <br />Dans un premier temps, nous avons caractérisé tous les phénomènes (réarrangement granulaire, fragmentation, déformations plastiques et visqueuses) qui se déroulent lors du cycle de compression grâce à l'étude de l'émission acoustique produite lors de la compression. L'étude des trois poudres différentes utilisées dans ce travail (aspirine, amidon et produit A) a donné des résultats montrant que la fragmentation et réarrangement granulaire initial sont es responsables majeurs de l'émission acoustique en cours de compression. <br />L'étude du cycle de compression a été menée pour dégager l'influence de chaque partie du cycle (montée en pression, palier isobare, descente en pression et temps avant démoulage) sur les propriétés (la porosité relaxée et la résistance à la rupture) des comprimés de produits purs, ou de mélanges. De plus, cette étude nous a permis d'améliorer les modèles existants avec notamment une modélisation de l'évolution de la porosité lors du palier isobare ainsi qu'une modélisation géométrique de l'élasticité. <br />Pour finir une étude de la dissolution des comprimés de mélanges aspirines / amidons a été menée. Comme l'aspirine comprimée seule se dissout lentement, il faut lui adjoindre un délitant comme l'amidon de maïs. Nous avons vérifié que le principal paramètre qui joue sur la vitesse de dissolution des comprimés de mélanges est la fraction massique en amidon. Un modèle de prévision du délitement des comprimés utilisant l'analyse d'image permet de prévoir la taille initiale des fragments d'aspirine en contact avec l'eau et donc de mener à bien une étude cinétique.
78

Vision et filtrage particulaire pour le suivi tridimensionnel de mouvements humains: applications à la robotique

Fontmarty, Mathias 02 December 2008 (has links) (PDF)
Un défi majeur de la Robotique aujourd'hui est sans doute celui du robot personnel. Un objectif sous-jacent est de permettre à un robot mobile de naviguer de manière autonome dans un environnement de grandes dimensions en présence de public. Lors de son évolution, le robot doit pouvoir détecter et prendre en compte la présence d'humains dans son voisinage, par exemple pour les éviter, leur céder le passage, faciliter ou sécuriser leurs déplacements. Cependant, pour une interaction active, le robot doit également être capable de percevoir et d'interpréter leurs postures, leurs démarches ou leurs gestes. Dans ce but, nous souhaitons mettre en place un système de suivi visuel des mouvements humains à partir des caméras embarquées sur le robot. Une représentation 3D fruste de l'enveloppe corporelle est proposée à partir de considérations biomécaniques et anthropomorphes. La démarche consiste alors à recaler ce modèle dans les images obtenues en exploitant plusieurs indices visuels 2D (contours, couleur, mouvements) complétés par une reconstruction 3D éparse de la scène. Pour estimer les paramètres de situation et de configuration du modèle 3D, nous exploitons les techniques de filtrage particulaire, bien connues en suivi visuel. Des évolutions de l'algorithme générique de filtrage sont cependant envisagées afin de répondre plus efficacement au problème posé et de satisfaire des contraintes temporelles cohérentes avec le contexte applicatif. Afin d'aborder les problèmes de manière graduelle, deux contextes sont étudiés. Le premier, de type robotique ubitquiste, repose sur l'utilisation de caméras d'ambiance fixes proposant des points de vue différents et complémentaires de la scène à étudier. Le second, de type robotique mobile, exploite des caméras stéréoscopiques embarquées sur le robot.Ce travail a été effectué au sein du groupe Robotique Action Perception (RAP) du LAAS-CNRS.
79

Dynamique à l'équilibre et hors d'équilibre de la chromatine visualisée par microscopie de force atomique : effet des variants d'histones et des facteurs de remodelage

Montel, Fabien 24 October 2008 (has links) (PDF)
L'organisation de l'ADN sous forme de nucléosome interfère avec différents processus cellulaires. La cellule recrute des facteurs de remodelage et des variants d'histones pour surmonter cette barrière physique. Dans ce travail, nous utilisons la Microscopie à Force Atomique pour visualiser des mono- et des oligo- nucléosomes à l'équilibre et hors-équilibre.<br />Nous montrons que le variant H2A.Bbd modifie la structure et la dynamique du mono-nucléosome et que sa présence altère la faculté de la chromatine à former une structure d'ordre supérieur. En utilisant un modèle physique nous expliquons quantitativement ce comportement par la flexibilité du mono-nucléosome.<br />Nous étudions ensuite le mécanisme du remodelage de mono-nucléosomes par SWI/SNF et RSC. Nous mettons en évidence un intermédiaire réactionnel sous la forme d'un nucléosome sur-complexé apparaissant avant le nucléosome glissé. Enfin au niveau des di-nucléosomes nous montrons que RSC est un ‘randomiseur' processif et séquentiel.
80

Prévision objective de la rupture ductile en grandes déformations sous sollicitation dynamique : Modèle d'épuisement plastique à taux limités

Court, Germain 15 December 2006 (has links) (PDF)
L'objectif de cette thèse est de proposer une modélisation du comportement des matériaux ductiles permettant de mener des simulations robustes, c'est à dire sans dépendance au maillage, jusqu'à rupture. L'approche proposée dans ce travail repose sur la notion de variable à taux limité (limiteur temporel de localisation) : la rupture est vue comme un phénomène fortement dynamique et les modèles à taux limités visent à contrôler cette dynamique. Un modèle "d'épuisement plastique à taux limité" est ainsi proposé, permettant de modéliser en grandes déformations (phénomène de striction) l'initiation et la propagation de fissures dans des structures métalliques sollicitées en dynamique. Le modèle présente l'avantage d'être facilement utilisable dans le cadre d'une formulation EF classique, car il reste local. L'inconvénient principal de l'approche proposée est de nécessiter des calculs en dynamiques, tout au moins pour la phase de rupture. Des simulations menées avec le code ABAQUS/Explicit en contraintes planes avec le modèle" d'épuisement plastique à taux limité", permettent de confirmer les résultats théoriques obtenus par le modèle proposé et en particulier l'indépendance des résultats au maillage (taille et orientation). Ces simulations permettent d'identifier un jeux de paramètres matériaux à l'aide de comparaisons avec des essais dynamiques sur éprouvettes trouées, filmés à l'aide d'une caméra rapide et analysés par corrélation d'image. La validation des capacités prédictives du modèle est alors illustrée par confrontation entre des simulations numériques et des résultats expérimentaux obtenus sur éprouvettes lisses.

Page generated in 0.0534 seconds