11 |
Study of photo induce process by quantum chemistry and quantum dynamics methods / Etude de processus photochimique par une approche couplant chimie quantique et dynamique quantiquePerveaux, Aurelie 08 December 2015 (has links)
C’est dernières années, les progrès des techniques expérimentales combinées avec les simulations théoriques ont données un accès à l’étude et le contrôle des réactions photochimiques dans des systèmes moléculaires de grande taille. Ceci ouvre des portes à de nouvelles applications technologiques. Par exemple, les molécules de la famille du 3-hydroxychromone et de l’aminobenzonitrile sont des types de systèmes où les spectres de fluorescences vont présentés des différences importantes suivant l’environnement du système ou même suivant les substituants utilisés. Ce type de propriété est crucial dans le domaine des matériaux organique, afin de pouvoir comprendre et designer des matériaux qui présentent des propriétés optiques choisis tells que les marqueurs fluorescents dans le domaine médical par exemple.Notre stratégie pour étudier la réactivité photochimique est la suivante: *Explorer la surface d’énergie potentielle et optimiser les points spécifiques avec des calculs de chimie quantiques. Dans un premier temps, on a utilisé des méthodes CASSCF/CASPT2 et la méthode PCM pour décrire les effets de solvant. * Génération des surfaces d énergies potentielles exprimer sous la forme de fonctions analytiques des coordonnées nucléaires. * Résolution de l’équation de Schrödinger dépendant du temps pour les noyaux et pour tout les derges de libertés de la molécule. Cette étape est faite à l’aide de la méthode multilayer multiconfiguration time-dependent hartree (ML-MCTDH). / Over the last decades, progress in experimental techniques combined with theoretical simulations has given access to studying and controlling the photochemical reactivity of large molecular systems with numerous technological applications. 3-hydroxychromone and aminobenzonitrile-like molecules are an example where different fluorescence patterns are observed, depending of the solvent or its substituents. Such properties are crucial in the field of organic materials to understand and design materials with specific optical properties such as fluorescent markers.Our strategy to study the photochemistry reactivity is summarised as follows: * Exploring the potential energy surfaces and optimising specific points with quantum chemistry calculations. In a first stage, these are run at the CASSCF/CASPT2 level of theory with a polarised extended basis set, and the solvent effect is described implicitly with the PCM model. * Generating the full dimension potential energy surfaces as analytical functions of the nuclear coordinates.* Solving the nuclear time-dependent Schrödinger equation for all the degrees of freedom. This is achieved with the multilayer Multi-Configuration Time-Dependent Hartree method (ML-MCTDH).
|
12 |
Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrieSaucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
|
13 |
Évaluation rétrospective des bénéfices de la radiothérapie adaptative pour les cancers ORLAirouss, Zouhair 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / L'objectif de ce projet de maîtrise était d'évaluer la précision et la faisabilité de la dosimétrie basée sur la tomographie par faisceau conique (CBCT) dans la replanification des traitements en radiothérapie pour des patients atteints de cancers de la tête et du cou (ORL). Une étude rétrospective a été menée sur 20 patients replanifiés pour comparer la distribution de dose basée sur CBCT à celle du TDM. Les résultats montrent que la CBCT offre une précision similaire au TDM, avec une différence maximale de 2.2% pour le D98% au niveau du volume cible prévisionnel (PTV). Des algorithmes d'auto-segmentation et de recalage déformable (ANACONDA de RayStation et Limbus basé sur l'apprentissage profond) ont également été évalués pour leur performance en segmentation. Les résultats ont montré une haute similarité entre les auto-contours et les contours manuels, bien que certaines structures, comme l'œsophage et le larynx, nécessitent une vérification systématique. Nous avons également mis en évidence l'importance de la replanification en montrant des variations significatives en termes de couverture de dose dans différentes régions d'intérêt. Un seuil d'action basé sur la variation de D98% a été proposé pour guider la replanification. Ce seuil, ayant une spécificité de 0.9 mais une sensibilité de 0.684, nécessite une validation supplémentaire. Ce travail souligne l'importance de la replanification dans le traitement en radiothérapie et propose la CBCT comme une alternative viable pour la surveillance et l'ajustement du traitement.
|
14 |
Calcul de dose avec images de tomographie à faisceau mégavoltage conique pour le développement de la radiothérapie guidée par la doseAubry, Jean-François 16 April 2018 (has links)
L'imagerie mégavoltage à faisceau conique (MVCBCT) est une technique de tomographie qui permet d'obtenir des images 3D d'un patient quelques instants avant son irradiation. Le présent projet se consacre à cette technologie et est bâti en trois étages superposés: d'abord une étude des caractéristiques du système d'imagerie et des images qu'il produit, suivi du développement de méthodes de correction des images permettant un calcul de dose exact, pour terminer avec quelques applications cliniques adhérant au principe de radiothérapie guidée par la dose (DG RT). Les images MVCBCT présentent invariablement un artéfact en creux, caractérisé par une diminution de l'intensité au centre de l'image et causant des erreurs de calcul de dose allant facilement jusqu'à 10%. L'étude du système MVCBCT, réalisée à partir de simulations Monte Carlo, conclut que l'artéfact en creux est majoritairement dû à l'adoucissement radial et au duricissement en pronfondeur du faisceau de photons. Deux méthodes de correction de l' artéfact en creux ont été développées, l'une pour les images de la région ORL (tête et cou), l'autre pour les images pelviennes. L'algorithme de correction d'images ORL met à profit l'information contenue dans l'image CT de planification pour rétablir les densités sur l'image MVCBCT. Le traitement des images pelviennes est quant à lui basé sur des facteurs de correction obtenus à partir de mesures sur différents fantômes anthropomorphiques. Ces deux méthodes permettent de réduire l'incertitude des calculs de dose à partir d'images MVCBCT à ±3%. Enfin, une étude de recalcul de dose pour un nombre de cas d'ORL et de prostate a été menée à l'aide d'images MVCBCT acquises au début de plusieurs fractions du traitement. Cette étude confirme que les patients recoivent la dose prescrite au volume cible, sauf pour une fraction d'un cas de prostate où une erreur de positionnement n'a pas été détectée sur le fait. Il a aussi été révélé que la dose moyenne aux glandes parotides des patients ORL peut augmenter jusqu'à 50% au cours du traitement. D'importantes variations dans la dose par fraction reçue par le rectum et la vessie ont aussi été remarquées pour les cas de prostate. Des stratégies d'adaptation des plans de traitement évitant une replanification totale n'ont pu permettre de rétablir les valeurs dosimétriques originales chez les patients ORL.
|
15 |
Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau coniqueMascolo-Fortin, Julia 24 April 2018 (has links)
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement. / Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
|
16 |
Conception et évaluation d'un nouvel algorithme de reconstruction itérative en tomodensitométrie à faisceau conique implanté sur matériel graphiqueMatenine, Dmitri 24 April 2018 (has links)
La présente thèse s’inscrit dans le domaine de la physique médicale et, plus précisément, de l’imagerie médicale tridimensionnelle (3D) et de la dosimétrie 3D pour la radiothérapie. L’objectif global du travail était de concevoir et évaluer un nouvel algorithme de reconstruction itératif rapide pour la tomodensitométrie (TDM) à faisceau conique, une modalité consistant à créer des images 3D des densités du sujet imagé à partir de mesures d’atténuation partielle d’un faisceau de radiation incidente. Cet algorithme a été implanté sur matériel graphique (GPU), une plate-forme de calcul hautement parallèle, menant à la conception de stratégies d’optimisation originales. En premier lieu, un nouvel algorithme itératif statistique régularisé, dénommé OSC-TV, a été conçu et implanté sur GPU. Il a été évalué sur des ensembles de projections synthétiques et cliniques de TDM à rayons X à faisceau conique. L’algorithme proposé a démontré une qualité d’image supérieure à celle de méthodes semblables pour des acquisitions basse-dose, ainsi que des temps de reconstruction compatibles avec les activités cliniques. L’impact principal de ce travail est la capacité d’offrir au patient une réduction de dose de radiation ionisante de deux à quatre fois par rapport aux protocoles d’acquisition usuels. En second lieu, cet algorithme a été testé sur des données expérimentales en tomographie optique à faisceau conique, donnant lieu à l’une des premières études de ce genre. La résolution spatiale des images 3D résultantes a été améliorée et le bruit a été réduit. L’on a aussi démontré l’importance de considérer le spectre de la source lumineuse afin d’assurer la justesse de l’estimation des densités. Le principal impact de l’étude est la démonstration de la supériorité de la reconstruction itérative pour des données affectées par les aberrations propres à la tomographie optique à faisceau conique, résultant potentiellement en l’amélioration de la dosimétrie 3D par gel radiochromique en radiothérapie. En troisième lieu, différentes approches de gestion de la matrice-système de type exact à rayons fins ont été évaluées pour la TDM à faisceau conique. Le pré-calcul et le stockage complet de la matrice-système dans la mémoire vive du GPU s’est montré comme l’approche la plus rapide, mais la moins flexible en termes de géométries représentables, en raison de la taille limitée de la mémoire vive. Le traçage de rayons à la volée est apparu très flexible, offrant aussi des temps de reconstruction raisonnables. En somme, les trois études ont permis de mettre en place et d’évaluer la méthode de reconstruction proposée pour deux modalités de tomographie, ainsi que de comparer différentes façons de gérer la matrice-système. / This thesis relates to the field of medical physics, in particular, three-dimensional (3D) imaging and 3D dosimetry for radiotherapy. The global purpose of the work was to design and evaluate a new fast iterative reconstruction algorithm for cone beam computed tomography (CT), an imaging technique used to create 3D maps of subject densities based on measurements of partial attenuation of a radiation beam. This algorithm was implemented for graphics processing units (GPU), a highly parallel computing platform, resulting in original optimization strategies. First, a new iterative regularized statistical method, dubbed OSC-TV, was designed and implemented for the GPU. It was evaluated on synthetic and clinical X ray cone beam CT data. The proposed algorithm yielded improved image quality in comparison with similar methods for low-dose acquisitions, as well as reconstruction times compatible with the clinical workflow. The main impact of this work is the capacity to reduce ionizing radiation dose to the patient by a factor of two to four, when compared to standard imaging protocols. Second, this algorithm was evaluated on experimental data from a cone beam optical tomography device, yielding one of the first studies of this kind. The spatial resolution of the resulting 3D images was improved, while the noise was reduced. The spectral properties of the light source were shown to be a key factor to take into consideration to ensure accurate density quantification. The main impact of the study was the demonstration of the superiority of iterative reconstruction for data affected by aberrations proper to cone beam optical tomography, resulting in a potential to improve 3D radiochromic gel dosimetry in radiotherapy. Third, different methods to handle an exact thin-ray system matrix were evaluated for the cone beam CT geometry. Using a GPU implementation, a fully pre-computed and stored system matrix yielded the fastest reconstructions, while being less flexible in terms of possible CT geometries, due to limited GPU memory capacity. On-the-fly ray-tracing was shown to be most flexible, while still yielding reasonable reconstruction times. Overall, the three studies resulted in the design and evaluation of the proposed reconstruction method for two tomographic modalities, as well as a comparison of the system matrix handling methods.
|
17 |
L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jourFillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
|
18 |
Topics in Convex Optimization: Interior-Point Methods, Conic Duality and ApproximationsGlineur, François 26 January 2001 (has links) (PDF)
Optimization is a scientific discipline that lies at the boundary<br />between pure and applied mathematics. Indeed, while on the one hand<br />some of its developments involve rather theoretical concepts, its<br />most successful algorithms are on the other hand heavily used by<br />numerous companies to solve scheduling and design problems on a<br />daily basis.<br /><br />Our research started with the study of the conic formulation for<br />convex optimization problems. This approach was already studied in<br />the seventies but has recently gained a lot of interest due to<br />development of a new class of algorithms called interior-point<br />methods. This setting is able to exploit the two most important<br />characteristics of convexity:<br /><br />- a very rich duality theory (existence of a dual problem that is<br />strongly related to the primal problem, with a very symmetric<br />formulation),<br />- the ability to solve these problems efficiently,<br />both from the theoretical (polynomial algorithmic complexity) and<br />practical (implementations allowing the resolution of large-scale<br />problems) points of view.<br /><br />Most of the research in this area involved so-called self-dual<br />cones, where the dual problem has exactly the same structure as the<br />primal: the most famous classes of convex optimization problems<br />(linear optimization, convex quadratic optimization and semidefinite<br />optimization) belong to this category. We brought some contributions <br />in this field:<br />- a survey of interior-point methods for linear optimization, with <br />an emphasis on the fundamental principles that lie behind the design <br />of these algorithms,<br />- a computational study of a method of linear approximation of convex <br />quadratic optimization (more precisely, the second-order cone that <br />can be used in the formulation of quadratic problems is replaced by a <br />polyhedral approximation whose accuracy can be guaranteed a priori),<br />- an application of semidefinite optimization to classification, <br />whose principle consists in separating different classes of patterns <br />using ellipsoids defined in the feature space (this approach was <br />successfully applied to the prediction of student grades).<br /><br />However, our research focussed on a much less studied category of<br />convex problems which does not rely on self-dual cones, i.e.<br />structured problems whose dual is formulated very differently from<br />the primal. We studied in particular<br />- geometric optimization, developed in the late sixties, which<br />possesses numerous application in the field of engineering<br />(entropy optimization, used in information theory, also belongs to<br />this class of problems)<br />- l_p-norm optimization, a generalization of linear and convex<br />quadratic optimization, which allows the formulation of constraints<br />built around expressions of the form |ax+b|^p (where p is a fixed<br />exponent strictly greater than 1).<br /><br />For each of these classes of problems, we introduced a new type of<br />convex cone that made their formulation as standard conic problems<br />possible. This allowed us to derive very simplified proofs of the<br />classical duality results pertaining to these problems, notably weak<br />duality (a mere consequence of convexity) and the absence of a<br />duality gap (strong duality property without any constraint<br />qualification, which does not hold in the general convex case). We<br />also uncovered a very surprising result that stipulates that<br />geometric optimization can be viewed as a limit case of l_p-norm<br />optimization. Encouraged by the similarities we observed, we<br />developed a general framework that encompasses these two classes of<br />problems and unifies all the previously obtained conic formulations.<br /><br />We also brought our attention to the design of interior-point<br />methods to solve these problems. The theory of polynomial algorithms<br />for convex optimization developed by Nesterov and Nemirovski asserts<br />that the main ingredient for these methods is a computable<br />self-concordant barrier function for the corresponding cones. We<br />were able to define such a barrier function in the case of<br />l_p-norm optimization (whose parameter, which is the main<br />determining factor in the algorithmic complexity of the method, is<br />proportional to the number of variables in the formulation and<br />independent from p) as well as in the case of the general<br />framework mentioned above.<br /><br />Finally, we contributed a survey of the self-concordancy property,<br />improving some useful results about the value of the complexity<br />parameter for certain categories of barrier functions and providing<br />some insight on the reason why the most commonly adopted definition<br />for self-concordant functions is the best possible.
|
19 |
Les plis coniques : analyse théorique et implications mécaniques.Gamond, Jean-François 01 March 1972 (has links) (PDF)
Après un exposé théorique et mécanique sur les plis coniques, l'application en milieu géologique à travers des exemples est développé.
|
20 |
Séchage des levures en lit à jet conique: expérimentation et modélisation multi-échelles / Baker's yeast drying in conical spouted bed: multiscale experiments and modellingSpreutels, Laurent 01 August 2013 (has links)
Le séchage est une opération unitaire pratiquée depuis des millénaires pour laquelle les connaissances scientifiques sont encore très incomplètes. Il est cependant de plus en plus nécessaire de « bien » sécher afin d’atteindre une combinaison optimale du temps de séchage, de l’énergie consommée et surtout de la qualité du produit final. Ceci est d’autant plus vrai dans le cadre du séchage alimentaire où de nombreux produits sont très sensibles à la température et à la déshydratation. C’est le cas de la levure de boulanger dont la capacité à dégager du CO2, pour faire gonfler la pâte à pain par exemple, diminue très souvent lorsque le séchage est réalisé dans des mauvaises conditions opératoires. L’utilisation de séchoirs particuliers tels que les lits à jet coniques devrait permettre d’améliorer le séchage en terme d’efficacité et de qualité finale. L’objectif principal de cette thèse est de contribuer à mieux comprendre et modéliser le séchage de levures en lit à jet conique en utilisant une approche multi-échelles. <p>Le séchage d’un grain de levure isolé est caractérisé à l’aide d’un nouveau dispositif thermogravimétrique dans lequel il est possible de mesurer l’évolution des dimensions du grain ainsi que sa température de surface. Les résultats obtenus sont alors utilisé pour construire et valider un nouveau modèle du séchage d’un grain de levure basé sur l’existence de trois types d’eau et permettant de prédire l’évolution du contenu en eau et de la température du grain. L’analyse combinée du modèle et des résultats expérimentaux permet de mettre en avant que le rétrécissement des grains de levures au cours du séchage n’a pas d’impact significatif sur la vitesse de séchage et qu’il est essentiel de modéliser correctement la température du grain.<p>L’écoulement de solides dans le lit à jet conique est caractérisé expérimentalement au moyen de la technique de poursuite de particule radioactive (RPT). Un post-traitement des données brutes (évolution temporelle de la position du traceur) est développé pour déduire un certain nombre de paramètres liés à l’écoulement du solide :forme des régions du lit à jet (jet, anneau et fontaine), distributions de l’écoulement des solides entre les régions, distribution de temps de séjour des solides dans le lit, vitesses et débits moyens des solides, et taux de gaz dans le jet et l’anneau. Les résultats expérimentaux ont notamment permis de montrer que la forme du jet ne dépend quasiment pas de la vitesse d’injection de l’air; de même, le rapport du débit volumique de solides d’une région du lit à l’autre avec la vitesse moyenne du solide dans l’anneau donne une valeur constante pour une hauteur de lit stagnant donnée. Des corrélations empiriques sont également développées pour prédire les vitesses et débits moyens de solides ainsi que les temps de séjour moyens des solides dans les différentes régions du lit.<p>L’écoulement du gaz dans le lit à jet conique est caractérisé expérimentalement par la mesure des distributions de temps de séjour (RTD) du gaz dans le lit par l’injection et la détection d’un gaz radioactif dans le lit à jet en opération. L’existence d’un écoulement non négligeable du gaz dans l’anneau du lit est mise en évidence. Les vitesses moyennes du gaz dans le jet et l’anneau ainsi que la portion du débit total qui passe dans le jet sont déduites des courbes de RTD. Il est identifié que le gaz circule au moins deux fois plus vite dans le jet que dans l’anneau, ce qui mène à des échanges de matières entre un solide et le gaz plus intenses dans le jet que dans l’anneau.<p>Des expériences de séchage de levure sont réalisées dans un lit à jet conique afin de caractériser l’effet des conditions opératoires sur le séchage. Un nouveau modèle multi-échelles décrivant le séchage de levure en lit à jet est présenté; celui-ci est basé sur les résultats des caractérisations expérimentales et des modélisations du séchage d’un grain de levure isolé et de l’écoulement solide-gaz dans le lit à jet conique. Le modèle phénoménologique ne possède qu’un seul paramètre et permet de très bien reproduire les résultats des expériences de séchage de levure en lit à jet conique. Il tient notamment compte du fait que dans un lit à jet, la saturation de l’air en vapeur d’eau au passage du lit peut être un phénomène limitant pour la vitesse de séchage, surtout en début de séchage.<p>La caractérisation de l’évolution au cours du séchage de la capacité de la levure à dégager du CO2 dans une pâte à pain a également été réalisée pour un grain de levure isolé et pour le séchage en lit à jet conique. Des conclusions similaires sont présentées dans les deux cas. En effet, la dégradation de la levure est liée à l’enlèvement de l’eau intracellulaire (type D, fin du séchage en-dessous de contenu en eau d’environ 0,5 (d.b.)) et c’est avant tout la vitesse avec laquelle cette eau est enlevée qui contrôle la qualité finale du produit. L’enlèvement de l’eau intercellulaire (type E, début du séchage) n’a pas d’influence significative sur la dégradation de la levure. Dans tous les cas, la dégradation est amplifiée lorsque la température du solide dépasse 40°C.<p>/<p>Drying is a unit operation that is practiced since thousands of years and which for scientific knowledge is still very incomplete. However it is more and more necessary to dry « well » in order to reach an optimal combination between drying duration, consumed energy and also final product quality. This is even truer in the case of food drying involving a lot of products that are very sensitive to temperature and dehydration. Baker’s yeast often encounters a drastic decrease of its gassing power, which makes for instance inflate bread dough, when drying is operated in wrong conditions. Using special driers such as conical spouted beds should allow improving drying in terms of efficiency and final quality. The main objective of this thesis is to contribute to better understand and model Baker’s yeast drying in a conical spouted bed by using a multiscale approach.<p>Drying of a single Baker’s yeast pellet is characterised by using a new thermogravimetric set up where the evolution of the pellet dimensions and surface temperature can be measured during drying. The obtained results are then used to develop and validate a new model of the drying of a Baker’s yeast pellet. The model is based on the existence of three types of water in yeast and it allows predicting the evolution of the pellet’s moisture content and temperature during drying. The combined analysis of the model and the experimental results permits to put forward that pellet’s shrinkage during drying have no significant influence on the drying rate and that it is really essential to correctly model the pellet’s temperature.<p>Solid flow in the conical spouted bed is experimentally characterised by using a radioactive particle tracking technique (RPT). A post-treatment of rough data (time-evolution of the tracer position) is developed in order to predict a series of parameters linked to the solid flow: shape of the bed regions (spout, annulus and fountain), distributions of solid flow in the bed regions, residence time distribution of the solids in the bed, mean solids velocities and flowrates, and voidage in the spout and annulus. Experimental results allowed to show that the shape of the spout is nearly not influenced by inlet air velocity; also, the ratio of volumetric solid flowrate between the different regions of the bed and of the mean solids velocity in the annulus has a constant value for a given static bed height. Empirical correlations are also developed in order to predict the mean solids’ velocities and flowrates, and the mean residence time of the solids in each region of the bed.<p>Gas flow in the conical spouted bed is experimentally characterised by measuring gas residence time distributions (RTD) in the bed through the injection and detection of a radioactive gas tracer into the operated spouted bed. The existence of non-negligible gas flow in the annulus of the bed is highlighted. Mean gas velocities in the spout and annulus, and the part of the total gas flow going to the spout are deducted from the RTD curves. It is identified that gas moves at least twice faster in the spout than in the annulus, which leads to mass exchanges between solid and gas that are more intense in the spout than in the annulus.<p>Baker’s yeast drying experiments are done in a conical spouted bed in order to characterise the effects of operating conditions on drying. A new multiscale model, describing Baker’s yeast drying in conical spouted bed, is presented; it is based on experimental results and on the models of a single pellet drying and of gas-solid flows in the conical spouted bed. This phenomenological model has only one unknown parameter and permits reproducing the experimental results of Baker’s yeast drying in conical spouted bed. It takes into account the fact that, in a spouted bed, vapour saturation of the air during its residence time in the bed can be a limiting phenomena for the drying rate, especially in the beginning of the drying.<p>The characterisation of the evolution of the Baker’s yeast gassing power in a bread dough during the drying has also been done in the case of a single pellet drying and in the case of spouted bed drying. Similar conclusions are presented for both cases. Indeed, yeast degradation is linked to intracellular water removal (type D, end of the drying below a moisture content of around 0,5 (d.b.)) and it is mostly the rate of this water removal that controls the final quality of the product. Intercellular water removal (type E, beginning of the drying) has no significant influence on yeast degradation. In all the cases, degradation is amplified when solid temperature is higher than 40°C.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
Page generated in 0.0482 seconds