Spelling suggestions: "subject:"3analyse d'images"" "subject:"analanalyse d'images""
11 |
Structure d'association pour une statistique morphologique appliquée à une image de VoronoïFortier, Susie. January 2000 (has links)
Thèses (M.Sc.)--Université de Sherbrooke (Canada), 2000. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
|
12 |
Les réseaux bayésiens pour identifier la composition arborescente du couvert forestier à partir d'images Landsat TM /Bluteau, Jocelyn. January 2004 (has links)
Thèse (M.Sc.)--Université Laval, 2004 . / Bibliogr.: f. [89]-104. Publié aussi en version électronique.
|
13 |
Vers une modélisation des grands plans d’organisation de l’embryon d'Arabidopsis thaliana / Toward a Modelling of Arabidopsis thaliana embryo body plansLaruelle, Élise Raphaëlle 24 March 2017 (has links)
Au cours du développement embryonnaire, la plupart des éléments de la plante sont mis en place. Ce processus donne lieu à un embryon mature qui possède toutes les caractéristiques d'une jeune plantule. Ces étapes se déroulent durant les premiers stades du développement et sont associées à un changement de forme, ou morphogenèse. Ces deux processus sont stéréotypés chez Arabidopsis thaliana.Au cours du développement embryonnaire, l'embryon passe d'une forme globulaire avec une symétrie radiale, à un embryon en forme de cœur avec une symétrie bilatérale. Ces changements sont basés sur des événements de croissance différentielle et de divisions cellulaires avec des orientations particulières de la surface de division dans l'embryon, des mécanismes qui sont étroitement régulés et sous le contrôle de facteurs moléculaires. Si certaines caractéristiques des stades de développement sont connues, comme le nombre de cellules ou encore des événements moléculaires, d'autres comme le changement de symétrie et l’acquisition d'une forme, qui est spécifique de l'embryon, n'ont pas encore été étudiées. Pour comprendre l'origine de la forme de cœur, une description multi-échelle et une quantification précises des changements de forme ont été réalisées. Pour cela une collection pré-existante d'image embryons fixés à différents stades du développement, a été enrichie de 47 embryons pour couvrir le développement embryonnaire précoce sur 8 générations cellulaires. Chaque embryon de la collection a été numérisé en 3D et ses cellules segmentées. À partir de ces images, une filiation cellulaire de l'embryon et des données de description de l'organisation des cellules ont été générées.L'évolution des paramètres mesurés montre un changement progressif de la forme qui démarre de manière très précoce et bien avant que des modifications morphologiques ne soient supposées. Pour suivre l'évolution de traits caractéristiques de la forme et l'attribuer à des dynamiques cellulaires particulières, des mesures sur les événements de division et de croissance cellulaire ont été calculées. Des modifications de croissances cellulaires apparaissent très précocement alors que l'embryon n'est encore que globulaire. Les caractéristiques des divisions changent également, les plans de division passent d'une orientation stéréotypée à une orientation variable. Malgré la variabilité, des comportements similaires apparaissent au cours des générations cellulaires mais également au sein des différents précurseurs des tissus et organes de l'embryon.La variabilité des divisions observées est questionnée à travers la recherche de règles simulées à l'aide d'un modèle stochastique 3D de partitionnement volumique. En testant une règle de minimisation stochastique de l'aire de la surface de partition, l'ensemble des orientations des plans de division observés ont pu être reproduites dans les formes observées et avec une répartition du volume donnée. L'hypothèse d'une règle stochastique basée sur la géométrie cellulaire et la minimisation de l'aire de la surface est envisagée, mais les générations avancées laissent entrevoir l'action progressive d'une autre contrainte sur la mise en place du plan de division. L'ensemble du phénotypage devrait définir de bonnes bases pour mieux comprendre les facteurs moléculaires qui régulent les mécanismes cellulaires de division et de croissance impliquée dans la mise en place de la forme de cœur de l'embryon. / During embryonic development, the major body plans of the plant are implemented. This process gives rise to a mature embryo which possess all the characteristics of a young seedling and is associated with a morphological change. These two processes are stereotyped in Arabidopsis thaliana embryo development.Over the developmental process, the embryo shape switches from a globular form, with a radial symmetry, to a heart form with a bilateral symmetry. These changes are based on a differential cellular growth and on particular cell division plane orientation in the embryo, mechanisms that are tightly regulated and under control of molecular factors.If a number of cellular and molecular steps are known, the evolution of the symmetry and the acquisition of the specific embryo shape have not yet been explored.To understand the origin of the heart shape, we proceed to a detailed multi-scale description and quantification of embryo shape changes during embryo stages. We completed a collection of fixed embryo images with 35 embryos distributed along the embryo development over eight cell generations. The embryos have been digitized in 3D and cell segmented. From these images, embryo cell lineages have been reconstructed and their cell organizations characterized.The evolution of parameter measurements showed a progressive change of the shape. The change has begun at an early embryo stage where morphology still look like a globular form.To correlate the morphological change and the cells events, the division and the cell growth were inferred through measurements. The cell growth behavior changed in the globular embryo. Changes in the division behavior were also observed. The division plan orientations stopped to be stereotyped. Despite the variability, similar behaviors were observed over cell generations and also among precursor of tissues and organs of the embryo.The cell division behavior has been further analyzed by a search of the realized division rules which explain observations with a stochastic model of volume partition. A division rule based on a stochastic 3D surface area minimization has reproduced all observed division plane orientations depending on the volume repartition among daughter cells. The hypothesis of a stochastic division rule based on the cell geometry with a surface area minimization of surface passing through the mother cell centroid seemed to become apparent. But divisions in older cell generations suggested a progressive action of another factor on the division plane.The overall phenotyping the embryo early development should provide a framework for the analysis of molecular factors involved in the heart shape.
|
14 |
Learning geometric and lighting priors from natural imagesHold-Geoffroy, Yannick 20 September 2018 (has links)
Comprendre les images est d’une importance cruciale pour une pléthore de tâches, de la composition numérique au ré-éclairage d’une image, en passant par la reconstruction 3D d’objets. Ces tâches permettent aux artistes visuels de réaliser des chef-d’oeuvres ou d’aider des opérateurs à prendre des décisions de façon sécuritaire en fonction de stimulis visuels. Pour beaucoup de ces tâches, les modèles physiques et géométriques que la communauté scientifique a développés donnent lieu à des problèmes mal posés possédant plusieurs solutions, dont généralement une seule est raisonnable. Pour résoudre ces indéterminations, le raisonnement sur le contexte visuel et sémantique d’une scène est habituellement relayé à un artiste ou un expert qui emploie son expérience pour réaliser son travail. Ceci est dû au fait qu’il est généralement nécessaire de raisonner sur la scène de façon globale afin d’obtenir des résultats plausibles et appréciables. Serait-il possible de modéliser l’expérience à partir de données visuelles et d’automatiser en partie ou en totalité ces tâches ? Le sujet de cette thèse est celui-ci : la modélisation d’a priori par apprentissage automatique profond pour permettre la résolution de problèmes typiquement mal posés. Plus spécifiquement, nous couvrirons trois axes de recherche, soient : 1) la reconstruction de surface par photométrie, 2) l’estimation d’illumination extérieure à partir d’une seule image et 3) l’estimation de calibration de caméra à partir d’une seule image avec un contenu générique. Ces trois sujets seront abordés avec une perspective axée sur les données. Chacun de ces axes comporte des analyses de performance approfondies et, malgré la réputation d’opacité des algorithmes d’apprentissage machine profonds, nous proposons des études sur les indices visuels captés par nos méthodes. / Understanding images is needed for a plethora of tasks, from compositing to image relighting, including 3D object reconstruction. These tasks allow artists to realize masterpieces or help operators to safely make decisions based on visual stimuli. For many of these tasks, the physical and geometric models that the scientific community has developed give rise to ill-posed problems with several solutions, only one of which is generally reasonable. To resolve these indeterminations, the reasoning about the visual and semantic context of a scene is usually relayed to an artist or an expert who uses his experience to carry out his work. This is because humans are able to reason globally on the scene in order to obtain plausible and appreciable results. Would it be possible to model this experience from visual data and partly or totally automate tasks? This is the topic of this thesis: modeling priors using deep machine learning to solve typically ill-posed problems. More specifically, we will cover three research axes: 1) surface reconstruction using photometric cues, 2) outdoor illumination estimation from a single image and 3) camera calibration estimation from a single image with generic content. These three topics will be addressed from a data-driven perspective. Each of these axes includes in-depth performance analyses and, despite the reputation of opacity of deep machine learning algorithms, we offer studies on the visual cues captured by our methods.
|
15 |
Diverse Image Generation with Very Low Resolution ConditioningAbid, Mohamed Abderrahmen 27 January 2024 (has links)
Traditionnellement, lorsqu'il s'agit de générer des images à haute résolution (HR) à partir d'images à basse résolution (LR), les méthodes proposées jusqu'à maintenant se sont principalement concentrées sur les techniques de super-résolution qui visent à récupérer l'image la plus probable à partir d'une image de basse qualité. En procédant de cette manière, on ignore le fait qu'il existe généralement de nombreuses versions valides d'images HR qui correspondent à une image LR donnée. L'objectif de ce travail est d'obtenir différentes versions d'images HR à partir d'une même image LR en utilisant un modèle adversarial génératif. On aborde ce problème sous deux angles différents. D'abord, on utilise des méthodes de super résolution, où en plus de l'image LR, le générateur peut être paramétré par une variable latente afin de produire différentes variations potentielles de l'image. Un tel conditionnement permet de moduler le générateur entre la récupération de l'image la plus proche de la vérité terrain et de variété d'images possibles. Les résultats démontrent notre supériorité en termes de reconstruction et de variété d'images hallucinées plausible par rapport à d'autres méthodes de l'état de l'art. La deuxième approche s'appuie sur les travaux de traduction d'image à image, en proposant une nouvelle approche où le modèle est conditionné sur une version LR du cible. Plus précisément, notre approche vise à transférer les détails fins d'une image source HR pour les adapter la structure générale, selon la version LR de celle-ci. On génère donc des images HR qui partagent les caractéristiques distinctives de l'image HR et qui correspond à l'image LR de la cible lors de la réduction d'échelle. Cette méthode diffère des méthodes précédentes qui se concentrent plutôt sur la traduction d'un style d'image donné en un contenu cible. Les résultats qualitatifs et quantitatifs démontrent des améliorations en termes de qualité visuelle, de diversité et de couverture par rapport aux méthodes de pointe telles que Stargan-v2. / Traditionally, when it comes to generating high-resolution (HR) images from a low-resolution (LR) images, the methods proposed so far have mainly focused on super-resolution techniques that aim at recovering the most probable image from low-quality image. Doing so ignores the fact that there are usually many valid versions of HR images that match a given LR image. The objective of this work is to obtain different versions of HR images from the same LR image using a generative adversarial model. We approach this problem from two different angles. First, we use super-resolution methods, where in addition to the LR image, the generator can be parameterized by a latent variable to produce different potential variations of the image. Such a conditioning allows to modulate the generator between retrieving the closest image to the ground truth and a variety of possible images. The results demonstrate our superiority in terms of reconstruction and variety of plausible hallucinated images compared to other state-of-the-art methods. The second approach builds on the work of image-to-image translation, by proposing a new approach where the model is conditioned on a LR version of the target. More precisely, our approach aims at transferring the fine details of an HR source image to fit the general structure, according to the LR version of it. We therefore generate HR images that share the distinctive features of the HR image and match the LR image of the target during downscaling. This method differs from previous methods that focus instead on translating a given image style into target content. Qualitative and quantitative results demonstrate improvements in visual quality, diversity, and coverage over state-of-the-art methods such as Stargan-v2.
|
16 |
Génération et analyse de jeux de données adaptés à l'application de l'apprentissage automatique en biophotoniqueBernatchez, Renaud 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 18 mars 2024) / Depuis plusieurs années, il y a un intérêt croissant pour l'utilisation de l'apprentissage automatique afin d'automatiser différentes tâches d'analyse quantitative d'images en biophotonique. Cependant, les images de microscopie à fluorescence présentent des défis particuliers qui complexifient l'application d'approches d'apprentissage automatique. Notamment, l'acquisition de ces images est coûteuse, leur annotation est complexe, fastidieuse et souvent bruitée, et il peut être difficile de déterminer quel type d'analyse permettra de répondre à la question biologique d'intérêt. Il est donc nécessaire de développer des approches permettant la génération de jeux de données adaptés aux différents défis propres au domaine de l'imagerie en biophotonique. Mon projet consiste à explorer des pistes aidant à considérer les problèmes propres aux données en biophotonique afin de faciliter l'application de l'apprentissage automatique à l'analyse d'images de microscopie. Afin de limiter le temps d'annotation requis lors de la génération d'un jeu de données, une approche d'apprentissage actif considérant le coût d'annotation est développée et évaluée sur un jeu de données simple. Ensuite, un jeu de données d'images de jonction serrée intestinale est généré avec des annotations adaptées, puis analysé à l'aide d'approches d'apprentissage non supervisé. Finalement, un riche jeu de données annoté d'images de super-résolution de protéines synaptiques est construit à l'aide d'un projet de science citoyenne, permettant de prendre en compte la distribution du bruit dans les annotations. Les résultats obtenus témoignent de l'importance d'un jeu de données bien conçu lors de l'application d'approches d'apprentissage actif à l'analyse de données d'imagerie en biophotonique. Notamment, l'inclusion d'experts dans le processus de conception du jeu de données est essentielle à l'acquisition d'annotations significatives permettant de répondre à des questions biologiques. / For several years, there has been growing interest in using machine learning to automate various quantitative image analysis tasks in biophotonics. However, fluorescence microscopy images present particular challenges that complicate the application of machine learning ap-proaches. Notably, the acquisition of these images is costly, their annotation is complex, tedious and often noisy, and it can be difficult to determine which type of analysis will answer the biological question of interest. It is therefore necessary to develop approaches that allow the generation of datasets adapted to the various challenges specific to the field of biophotonics imaging. My project consists in exploring ways to consider the challenges specific to biophotonics datain order to facilitate the application of machine learning to the quantitative analysis of mi-croscopy images. In order to limit the annotation time required when generating a dataset,an active learning approach considering the annotation cost is developed and evaluated on asimple dataset. Then, a dataset of intestinal tight junction images is generated with adapted annotations and analyzed using unsupervised learning approaches. Finally, a rich annotated dataset of super-resolution images of synaptic proteins is constructed using a citizen science crowdsourcing project, allowing a measure of the distribution of noise in the annotations.The results obtained demonstrate the importance of a well-designed dataset when applying active learning approaches to the analysis of imaging data in biophotonics. In particular, the inclusion of experts in the dataset design process is essential for the acquisition of meaningful annotations to answer biological questions.
|
17 |
Caractérisation de la structure 3D et de la rotation des perles chez Pinctada sp. par analyse d'imagesEdeline, Paul-Emmanuel 15 July 2024 (has links)
L'industrie perlière occupe une place fondamentale au cœur de la Polynésie française, tant sur le plan économique que culturel. Les perles de Tahiti, véritables joyaux de cette région, représentent une ressource précieuse. Cependant, leur étude et leur classification nécessitent des outils fiables et sophistiqués qui font actuellement défaut, pourtant nécessaires pour assurer la pérennité de leur qualité. Dans cette perspective, cette thèse se propose d'explorer le potentiel de deux dispositifs d'acquisition de données afin de fournir des solutions innovantes pour l'analyse et la compréhension des perles de Tahiti, et par extension, pour l'industrie perlière dans son ensemble. Le premier volet de notre étude se concentre sur la rotation des perles. Nous présentons la mise en place d'un outil de prédiction de la forme basé sur l'analyse des données de rotation, obtenues à partir d'un dispositif dédié utilisant des mesures de champs magnétiques. Cette approche novatrice permet de prédire avec précision la forme des perles en se basant sur des données de rotation, offrant un nouvel outil fiable et non invasif pour étudier la perle au cours de sa formation dans l'huître. Le second volet de notre recherche porte sur l'acquisition et l'analyse des données microscopiques. Nous démontrons la faisabilité de la reconstruction en 3D de la structure microscopique des perles de Tahiti à partir d'images obtenues par microscopie optique, à l'aide d'algorithmes de photogrammétrie. Ce protocole représente une avancée significative pour une caractérisation détaillée et accessible des perles, ouvrant ainsi de nouvelles perspectives pour leur étude et leur classification. Enfin, nous discuterons de la pertinence et des perspectives à court et à long terme associées à l'utilisation de ces nouveaux outils dans l'industrie perlière. Ces dispositifs pourraient non seulement permettre d'améliorer la compréhension scientifique de la formation des perles de Tahiti, mais également renforcer la compétitivité et la durabilité de l'industrie perlière dans un contexte économique en constante évolution. / The pearl industry holds a fundamental place at the heart of French Polynesia, both economically and culturally. Tahitian pearls, true gems of this region, represent a precious resource. However, their study and classification require reliable and sophisticated tools that are currently lacking, yet necessary to ensure the longevity of their quality. In this perspective, this thesis aims to explore the potential of two data acquisition devices to provide innovative solutions for the analysis and understanding of Tahitian pearls, and by extension, for the pearl industry as a whole. The first part of our study focuses on pearl rotation. We introduce the implementation of a shape prediction tool based on the analysis of rotation data obtained from a dedicated device using magnetic field measurements. This innovative approach accurately predicts the shape of pearls based on rotation data, providing a new reliable and non-invasive tool for studying pearls during their formation in oysters. The second part of our research focuses on the acquisition and analysis of microscopic data. We demonstrate the feasibility of reconstructing the 3D microscopic structure of Tahitian pearls from images obtained by optical microscopy, using photogrammetry algorithms. This protocol represents a significant advancement for detailed and accessible characterization of pearls, thus opening new perspectives for their study and classification. Finally, we will discuss the relevance and short- and long-term perspectives associated with the use of these new tools in the pearl industry. These devices could not only improve the scientific understanding of Tahitian pearl formation but also enhance the competitiveness and sustainability of the pearl industry in an ever-evolving economic context.
|
18 |
Développement d'une méthode d'évaluation de la viabilité et de la stabilité de Bifidobacterium longum par analyse d'imagesBélanger, Pierre-Luc 29 October 2019 (has links)
Assurer la stabilité des produits probiotiques est un défi technologique important pour l’industrie. En effet, des déviations dans le procédé de production de ces probiotiques peuvent conduire à un déclin dans la population viable qui n’est détectable que plusieurs mois après la fabrication du produit. Conséquemment, une méthode d’analyse a été développée et évaluée en collaboration avec Pfizer pour prédire la stabilité d’un échantillon de Bifidobacterium longum sous forme lyophilisée. B. longum est ainsi cultivé sur géloses pendant 4 jours, suivi de l’acquisition d’images des plaques. Des données morphologiques sur les colonies sont extraites par analyse d’images et sont utilisées dans un modèle multivarié PLS. D’abord, les paramètres de la méthode ont été testés et ajustés afin de mieux cerner les capacités de la méthodologie employée. Ainsi, l’épaisseur de la gélose influence les propriétés des couleurs des colonies et accroit la variabilité de la taille des colonies lorsqu’elle est en-dessous de 3,1 mm. D’autre part, la concentration du composé XA n’a pas d’influence sur la formation des colonies. Le délai de réhydratation avant incubation n’a pas non plus d’effet détectable sous la barre des 2 heures. Enfin, la durée d’incubation préférable a été sélectionnée à 4 jours, avec un nombre de colonies visé d’environ 75 par gélose. Les essais d’évaluation de la méthode ont révélé sa capacité à distinguer des échantillons issus d’une colonie fraîche d’échantillons lyophilisés. Cependant, les échantillons lyophilisés ayant subi un conditionnement supplémentaire (thermique, oxydatif) n’ont pas pu être distingués d’échantillons lyophilisés non-conditionnés. Ces défis ont été attribués à un effet masquant de la lyophilisation. En conséquence, il est proposé d’étudier l’effet de la lyophilisation en relation avec la méthodologie afin de poursuivre le développement de la méthode.
|
19 |
Détermination du rôle de la température de lissage et de la formulation du yogourt brassé sur l’évolution de ses propriétés durant son entreposage en utilisant la résonance magnétique et l’analyse d’image microscopique.Gilbert, Audrey 27 January 2024 (has links)
Dans la littérature, les propriétés physiques du yogourt en fonction du procédé ou de la formulation ont été beaucoup étudiées. Cependant, les effets du procédé de brassage sur les propriétés du yogourt brassé et sa structure sont peu décrits. Le rebodying durant l’entreposage est lui aussi assez peu décrit et les structures impliquées dans ce phénomène sont absentes dans la littérature. Les structures du yogourt brassé sont souvent observées à toute petite échelle (< µm) ou par des méthodes potentiellement destructrices. Le but de ce projet de thèse était d’étudier l’effet d’un paramètre impactant du procédé de brassage (la température de lissage) en combinaison avec les paramètres de formulation (choix d’ingrédients protéiques, ratio protéique et ferments) sur les structures et les propriétés physiques du yogourt brassé durant l’entreposage. Deux techniques d’analyse innovantes ont été utilisées. Une technique améliorée d’analyse d’image microscopique pour caractériser et quantifier les différences de microstructure des produits obtenues ainsi qu’une technique de RMN à basse fréquence sur les protons (1H-BF-RMN) pour mieux décrire les phénomènes de synérèse dans le gel de yogourt durant l’entreposage. La technique d’imagerie a permis d’observer les structures du gel de yogourt brassé à une échelle entre le micron et le millimètre. Cette technique a permis d’observer des microgels de yogourt et une structure plus diffuse de gel réorganisé. La taille des microgels et le développement du gel réorganisé ont été reliés avec le phénomène de synérèse. Durant l’entreposage, la technique 1H-BF-RMN a permis de suivre la contraction du gel de protéines qui conduit à la fois à une expulsion du sérum durant l’entreposage (synérèse spontanée) et à une immobilisation plus élevée du sérum retenu à l’intérieur du gel. Durant ce projet, l’effet de la température de lissage a été étudié avec trois échelles différentes : échelle laboratoire dans un rhéomètre, échelle technique et échelle semi-industrielle, puis l’évolution des propriétés des yogourts a été étudiée durant plusieurs jours d’entreposage. Les températures de lissage plus hautes produisaient des yogourts avec de plus gros microgels issus à la fois d’un cisaillement moins destructif et de l’agrégation de microgels individuels. La présence de gros microgels était associée à des yogourts plus visqueux et plus fermes. La présence de ces gros microgels était souvent associée à un faible développement de gels réorganisés menant à la formation de poches de sérum et donc plus de synérèse. Réciproquement, les températures de lissage faibles étaient responsables d’une présence en plus grande quantité de gel réorganisé au dépend des microgels de petite taille donnant lieu à des yogourts de faibles viscosité et fermeté. Par contre en ce qui concerne la synérèse, il semblerait qu’en dessous d’une certaine température de lissage, il n’y ait plus assez de gros microgels pour retenir le sérum, et le gel réorganisé ne retient pas suffisamment le sérum pour limiter la synérèse. iii En ce qui concerne les changements de formulation, l’utilisation d’un isolat ou d’un concentrat de protéines du lactosérum pour standardiser le lait n’a eu que très peu d’impact sur les propriétés étudiées du yogourt brassé. Par contre, lorsque la quantité de protéines de lactosérum était augmentée avec des teneurs en caséines et de solides totaux constantes, la fermeté et la viscosité augmentaient avec la taille des microgels, tandis que la synérèse diminuait. De plus, la quantité de protéines sériques contrôle également la capacité des microgels à s’agréger durant l’entreposage. Lorsqu’un changement de ferment était effectué, l’action des exopolysaccharides (EPS) sur les propriétés des yogourts était masquée par le lissage effectué à 4 °C. Globalement, la présence d’EPS texturants empêchait l’agrégation des microgels et produisait des yogourts avec de petits microgels et un gel réorganisé très développé. La présence d’EPS n’a pas permis d’augmenter la fermeté ou la viscosité du yogourt, par contre durant leur écoulement, la structure du gel de yogourt résistait mieux à l’intensité des cisaillements. Cette thèse démontre que la température de lissage est un outil efficace pour contrôler les structures des yogourts brassés et donc les propriétés physiques qui en découlent. Également, le réglage de la température de lissage permet de moduler les effets provoqués par un changement de formulations. Cette thèse offre également de nouvelles techniques d’étude des microgels avec un fort potentiel prédictif qui pourrait être utilisées en industrie. / Yogurt physical properties depending on process, and formulation parameters are widely reported in the literature. However, the effect of the stirring and smoothing process on stirred yogurt and its structure is a subject of fewer studies. The rebodying during storage is also less described and the structures involved are not observed in literature. Stirred yogurt microstructures are often observed at small scales (< µm) or using methods that are destructive. The aim of this project was to study the effect of an impacting stirred yogurt process parameter (smoothing temperature) and the formulation (protein ingredient, protein ratio, and starter) on structural and physical properties of stirred yogurt during storage. Two innovative techniques of analyses were introduced. One microscopic image analysis to characterize and quantify the different microstructures in the product; and one method based on NMR at low frequency on protons ( 1H-LF-NMR) to better describe syneresis phenomena in yogurt gel during storage. The microscopic technique allowed observing structures in the range from a few microns to a millimeter range. It also allowed differentiating a looser gel (reorganized gel) from dense microgels. Microgels size and reorganized gel development were linked to syneresis phenomenon. During storage, the 1H-LF-NMR detected the protein gel contraction, which leads to both a higher content of expelled water during storage (spontaneous syneresis), and more immobilization of the serum still inside the network. During this project, smoothing temperature effect was studied with three different production scales: laboratory scale, technical scale, and semi-industrial scale, then stirred yogurt evolution were studied during storage. Higher smoothing temperature produced larger microgels that came from less destructive shearing and microgel aggregation. Those large microgels were associated with less development of the reorganized gel leading to the formation of areas empty of protein networks responsible for higher syneresis values. However, under a specific smoothing temperature the number and smaller size of microgels are not enough to hold the serum and the reorganized gel is too loose, which produced yogurt with higher syneresis. The effect of formulation had really little impact when comparing between a whey protein concentrate instead of an isolate as the whey protein ingredient for milk standardization. However, at constant casein and total solid contents, when the whey protein content was increased, firmness, viscosity, and microgel sizes increased, while induced syneresis decreased. Moreover, the whey protein quantity controlled how much the microgels aggregated during storage. When the starter was changed, the polysaccharides (EPS) effects on stirred yogurts properties were masked when the smoothing process was realized at 4 °C. Globally the presence of texturing EPS hindered microgel aggregation and produced yogurt with small microgels and a more developed reorganized gel. The presence of texturing EPS did not increase viscosity or firmness, however, during flow experiments, the gel structure had a better resistance toward shearing. v This thesis demonstrates that smoothing temperature is a tool to control stirred yogurt structures and the physical properties that results from structures. Besides, smoothing temperature allows to modulate the effects resulting from formulation changes. This thesis also offers innovative techniques with a strong potential to predict yogurt properties, which can be transferred to industries.
|
20 |
La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restorationNguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
|
Page generated in 0.0507 seconds