• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2520
  • 776
  • 215
  • 12
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3580
  • 1408
  • 880
  • 627
  • 574
  • 563
  • 412
  • 364
  • 338
  • 338
  • 324
  • 323
  • 318
  • 315
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Mise en place d'approches bioinformatiques innovantes pour l'intégration de données multi-omiques longitudinales

Bodein, Antoine 10 February 2024 (has links)
Les nouvelles technologies «omiques» à haut débit, incluant la génomique, l'épigénomique, la transcriptomique, la protéomique, la métabolomique ou encore la métagénomique, ont connues ces dernières années un développement considérable. Indépendamment, chaque technologie omique est une source d'information incontournable pour l'étude du génome humain, de l'épigénome, du transcriptome, du protéome, du métabolome, et également de son microbiote permettant ainsi d'identifier des biomarqueurs responsables de maladies, de déterminer des cibles thérapeutiques, d'établir des diagnostics préventifs et d'accroître les connaissances du vivant. La réduction des coûts et la facilité d'acquisition des données multi-omiques à permis de proposer de nouveaux plans expérimentaux de type série temporelle où le même échantillon biologique est séquencé, mesuré et quantifié à plusieurs temps de mesures. Grâce à l'étude combinée des technologies omiques et des séries temporelles, il est possible de capturer les changements d'expressions qui s'opèrent dans un système dynamique pour chaque molécule et avoir une vision globale des interactions multi-omiques, inaccessibles par une approche simple standard. Cependant le traitement de cette somme de connaissances multi-omiques fait face à de nouveaux défis : l'évolution constante des technologies, le volume des données produites, leur hétérogénéité, la variété des données omiques et l'interprétabilité des résultats d'intégration nécessitent de nouvelles méthodes d'analyses et des outils innovants, capables d'identifier les éléments utiles à travers cette multitude d'informations. Dans cette perspective, nous proposons plusieurs outils et méthodes pour faire face aux challenges liés à l'intégration et l'interprétation de ces données multi-omiques particulières. Enfin, l'intégration de données multi-omiques longitudinales offre des perspectives dans des domaines tels que la médecine de précision ou pour des applications environnementales et industrielles. La démocratisation des analyses multi-omiques et la mise en place de méthodes d'intégration et d'interprétation innovantes permettront assurément d'obtenir une meilleure compréhension des écosystèmes biologiques. / New high-throughput «omics» technologies, including genomics, epigenomics, transcriptomics, proteomics, metabolomics and metagenomics, have expanded considerably in recent years. Independently, each omics technology is an essential source of knowledge for the study of the human genome, epigenome, transcriptome, proteome, metabolome, and also its microbiota, thus making it possible to identify biomarkers leading to diseases, to identify therapeutic targets, to establish preventive diagnoses and to increase knowledge of living organisms. Cost reduction and ease of multi-omics data acquisition resulted in new experimental designs based on time series in which the same biological sample is sequenced, measured and quantified at several measurement times. Thanks to the combined study of omics technologies and time series, it is possible to capture the changes in expression that take place in a dynamic system for each molecule and get a comprehensive view of the multi-omics interactions, which was inaccessible with a simple standard omics approach. However, dealing with this amount of multi-omics data faces new challenges: continuous technological evolution, large volumes of produced data, heterogeneity, variety of omics data and interpretation of integration results require new analysis methods and innovative tools, capable of identifying useful elements through this multitude of information. In this perspective, we propose several tools and methods to face the challenges related to the integration and interpretation of these particular multi-omics data. Finally, integration of longidinal multi-omics data offers prospects in fields such as precision medicine or for environmental and industrial applications. Democratisation of multi-omics analyses and the implementation of innovative integration and interpretation methods will definitely lead to a deeper understanding of eco-systems biology.
92

Automatisation du recalcul de dose Monte Carlo pour une étude rétrospective en curiethérapie à bas débit de dose de la prostate

Ouellet, Samuel 26 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La méthode clinique pour le calcul de dose lors des traitements de curiethérapie considère le patient comme un volume d'eau infini (formalisme TG43). Cette approximation s'avère incorrecte, en particulier pour les photons de faible énergie présents en curiethérapie par implant permanent de la prostate. Des études ont montré que des différences allant jusqu'à 25-30% sur les indices dosimétriques cliniques sont observées dans les cas de calcifications de la prostate lorsque l'anatomie du patient est prise en compte dans une simulation Monte Carlo (MC) (formalisme TG186). Compte tenu des différences constatées entre les dosimétries TG43 et TG186 pour la curiethérapie par implant permanent de la prostate, l'objectif de ce travail est de recalculer rétrospectivement les distributions de dose à partir du formalisme TG186 pour tous les patients ayant reçu un traitement au CHU de Québec. Pour ce faire, un pipeline automatisé de recalcul de dose basé sur les bonnes pratiques de gestion des données est construit, validé et appliqué sur une cohorte de 960 patients. Une base de données de 960 patients a été construite et les cas de calcifications ont été identifiés. Un pipeline automatisé a été conçu pour recalculer les distributions de doses par simulations MC propres à l'anatomie du patient (TG186). Le pipeline extrait et reproduit automatiquement le context du traitment, contenu dans les données cliniques, dans la simulation de Monte Carlo. Le pipeline de recalcul a été validé en reproduisant les calculs du TG43 et en évaluant la cohérence des simulations MC TG186 effectuées avec deux codes MC différents. Appliquées à l'ensemble de la cohorte de patients, les distributions MC produites ont pu reproduire les résultats observés dans des études antérieures, tel qu'une diminution de 2,57 % sur le D90 de la prostate pour chaque % du volume de prostate calcifiée. L'ensemble des données de dose MC produites constitue donc une ressource clé pour les futures études dosimétriques qui viseraient à corréler la dose précise délivrée au patient à l'efficacité du traitement de curiethérapie. / The current clinical method used to calculate the dose during brachytherapy treatments considers the patient as an infinite water volume (TG43 formalism). This approximation is mostly accurate when using high-energy photons. That is not the case for low-energy photons used in permanent implant prostate brachytherapy. Studies have shown that differences of up to 25-30% on clinical metrics can be observed in cases with prostate calcifications when taking into account the patient anatomy with Monte Carlo (MC) simulations (TG186 formalism). Considering the differences found between TG43 and TG186 dosimetry for permanent implant prostate brachytherapy, the objective of this work was to retrospectively recalculate the dose distributions using the TG186 formalism for all patients having received permanent implant prostate brachytherapy at CHU de Québec. To do so, an automated dose recalculation pipeline based on the best data management practices is built, validated, and applied to a 960-patient cohort. A curated database of 960 patients was built with calcification cases identified. An automated pipeline has been built to recalculate patient-specific dose distributions (TG186). The pipeline extracts and reproduces the treatment context within a MC simulation. The recalculation pipeline was validated by reproducing the TG43 calculations using MC simulation in the same conditions and the consistency of the patient-specific MC simulations was evaluated between simulations made with two different MC codes. When applied to the entire patient cohort, the produced MC distributions could reproduce the results seen in previous studies, such as a diminution of 2.57% on the D90 of the prostate for each % of the prostate volume being calcifications. The produced MC dose dataset constitutes a key resource for future dosimetric studies that would aim to correlate the accurate delivered dose to the patient to the efficiency of the brachytherapy treatment.
93

Sensibilité en mécanique des fluides : adaptation de maillage, turbulence et optimisation.

Carrier, Alexandre 10 February 2024 (has links)
Cette thèse concerne l’analyse d’écoulements laminaires et turbulents en régime permanent par la méthode des éléments finis. Le but est de présenter des nouvelles méthodologies qui permettent de contrôler efficacement et automatiquement certains paramètres du problème physique et numérique afin d’obtenir les résultats désirés par l’ingénieur. Ces résultats sont des besoins tangibles telle que la performance du système mesurée en termes de coefficients aérodynamiques, de pertes d’énergie, etc. Pour contrôler la précision de l’anticipation numérique, la simulation de l’écoulement n’est pas suffisante. Le lien entre les résultats et les paramètres est manquant. Une analyse de sensibilité permet d’obtenir cette information. Nous verrons que si cette analyse est bien faite, son coût devient marginal. Dans un premier temps, l’estimation numérique du résultat doit être fiable. Par conséquent, on présente une nouvelle façon de contrôler efficacement l’erreur liée à la discrétisation spatiale nécessaire à ce genre de méthodes computationnelles. La sensibilité du résultat par rapport aux résidus des équations de la physique est alors utilisée. Nous validons nos nouveaux outils sur des écoulements laminaires. Ensuite, nous continuons avec des écoulements turbulents. Une fois que ces quantités sont bien estimées numériquement, le problème peut être optimisé virtuellement. Ainsi, l’amélioration de la conception réelle peut être fortement accélérée. Dans ce travail, l’optimisation géométrique est abordée. Nous présentons de nouvelles façons de gérer les contraintes de conception. La sensibilité du résultat par rapport à des perturbations de la paroi est alors utilisée. / This thesis concerns the analysis of fluid mechanics by computer. The goal is to present new methodologies that allow controlling effectively and automatically parameters of the physical and numerical problem to obtain the results the engineer desires. These results are concrete needs as the performance of the system measured in terms of aerodynamic coefficients, energy losses, etc. To control the result, the flow simulation is not sufficient. The link between results and parameters is missing. A sensitivity analysis provides this information. If we do this analysis appropriately, its cost becomes marginal. First, the numerical estimate of the result must be reliable. Consequently, we give an new way to control effectively the error related to the spatial discretization necessary for this kind of computational methods. We use the sensitivity of the result with respect to the residuals of the physics equations. We are validating our new tools on laminar flows. Then we continue with turbulent flows. Once these quantities are well estimated numerically, the problem can be optimized virtually. Thus, the actual design improvement can be accelerated. In this work, geometric optimization is achieved. We present new ways to manage design constraints. We use the sensitivity of the result to wall perturbations.
94

On building a Python-based Monte Carlo light simulation package for biophotonics : with focus on complex 3-dimensional arbitrary geometries and hardware acceleration

Vigneault, Marc-André 23 September 2024 (has links)
L'essor du Python comme language scientifique et la popularité grandissante du calcul GPGPU constitue un environnement fertile pour le développement de PyTissueOptics, un simulateur de propagation de la lumière dans les tissus, qui est un module entièrement programmé en Python, qui se concentre sur la mise en œuvre simple et compréhensible des mécanismes de propagation de la lumière, afin de catalyser la démocratisation de cette technique. Dans ce mémoire, nous explorons la théorie derrière le modèle de Monte Carlo, visitons les aspects techniques de la réalisation du projet, expliquons les différentes possibilités d'utilisation et comparons avec des modules connus, tel que MCML et MCX. / The rise of Python as a scientific language and the growing popularity of GPGPU computing creates a fertile environment for the development of PyTissueOptics, a light propagation simulator in tissues, which is a module entirely programmed in Python. It focuses on the simple and comprehensible implementation of light propagation mechanisms, aiming to catalyze the democratization of this technique. In this thesis, we explore the theory behind the Monte Carlo model, examine the technical aspects of the project's realization, explain the various usage possibilities, and compare it with known modules, such as MCML and MCX.
95

Problèmes de changement de phase avec la méthode CutFEM

Tchinda Ngueyong, Ismaël 10 June 2024 (has links)
Cette thèse porte sur la modélisation numérique des problèmes de changement de phase. Le but est de proposer un algorithme robuste, basé essentiellement sur la méthode CutFEM, pour résoudre le problème avec la plus grande précision possible. Dans notre démarche, la méthode level-set est employée pour une représentation implicite de l'interface entre différentes phases, tandis que l'imposition des conditions essentielles sur cette dernière se fait à l'aide de la variante symétrique de la méthode de Nitsche. Le premier résultat de la thèse porte sur le développement d'un post-traitement fiable, facile à implémenter, pour une meilleure estimation du flux à travers une frontière immergée. La solution proposée est inspirée de la méthode de l'intégrale de domaine, à la différence que nous introduisons une stabilisation de type Ghost Penalty pour éliminer la sensibilité de la qualité de l'approximation à l'interface par rapport aux nœuds du maillage. L'idée est validée à travers une série d'exemples 2D et 3D.Le deuxième résultat concerne le développement d'un solveur CutFEM pour la simulation des problèmes de Stefan à deux phases sans convection. Dans notre approche, nous nous servons du premier résultat pour une meilleure évaluation de la vitesse de l'interface. Quant à la stabilisation des formulations d'extension de la vitesse et du transport de la fonction level-set, nous avons opté pour la méthode CIP (Continuous Interior Penalty) qui a déjà fait preuve d'une grande efficacité pour des problèmes fortement dominés par la convection. Des exemples numériques 2D permettent de confirmer l'efficacité de notre algorithme puisque des taux de convergence optimaux sont obtenus. Une simulation 3D est également proposée pour démontrer la validité du solveur dans une configuration plus réaliste. Pour le dernier résultat, nous reconsidérons le problème de Stefan, mais cette fois en prenant en compte la convection naturelle dans la phase liquide. L'équation de conduction de la chaleur est alors modifiée par l'ajout d'un terme de convection. De plus, cette équation est couplée aux équations de Navier-Stokes, introduisant de fait des non-linéarités supplémentaires. Un schéma itératif basé sur la méthode de Newton est alors proposé pour une résolution efficace du système. Les autres étapes de résolution sont assez similaires à celles de l'algorithme développé pour les problèmes de Stefan sans convection. Une étude numérique approfondie du solveur est présentée. Premièrement, l'efficacité de la discrétisation en temps et en espace est étudiée pour des problèmes (relativement simples) avec des solutions manufacturées. Ensuite, pour un problème beaucoup plus complexe modélisant la solidification de l'eau, une comparaison des résultats obtenus numériquement avec les résultats expérimentaux connus dans la littérature est présentée. Enfin, d'autres problèmes de changement de phase encore plus complexes tels que la fusion du gallium dans une cavité rectangulaire, ou encore celle du n-octadécane dans une cavité cubique sont considérés, et une comparaison des résultats de simulation avec les données expérimentales est également présentée. / This thesis focuses on the numerical modeling of phase change problems. The aim is to propose a robust CutFEM-based algorithm to solve the problem with the highest possible accuracy. In our approach, the level-set technique is used for an implicit representation of the interface, whereas the imposition of the essential conditions on the interface is done using the symmetric variant of the Nitsche method. The first result of the thesis is the development of a reliable, easy-to-implement post-processing for an accurate estimate of the flux across an interface. The proposed solution is inspired by the domain integral method, with the difference that we introduce Ghost Penalty stabilization to eliminate the sensitivity to the interface location relative to the mesh nodes. The accuracy of the method is validated through a series of two- and three-dimensional examples. The second result concerns the development of a CutFEM method for the numerical simulation of two-phase Stefan's problems without convection. In our approach, we use the idea of the first result for an accurate evaluation of the normal speed of the interface. Regarding the stabilization of the velocity extension and front transportation problems, we opted for the Continuous Interior Penalty method which has shown great effectiveness for convection-dominated problems. Two-dimensional numerical examples are used to confirm the effectiveness of our algorithm since optimal convergence rates are achieved. A three-dimensional simulation is also provided to demonstrate the validity of the solver in a more realistic configuration. For the last result, we reconsider the Stefan problem, but this time taking into account natural convection in the liquid phase. In this phase, the heat conduction equation is then modified by the addition of a convection term. Furthermore, this equation is coupled to the Navier-Stokes equations, thereby introducing additional nonlinearities. An iterative scheme based on Newton's method is then proposed for an efficient solution of the system. The other steps of the proposed solver are quite similar to those of the solver developed for Stefan problems without convection. An in-depth numerical study of the solver is presented. First, the efficiency of discretization in time and space is studied for (relatively simple) problems with manufactured solutions. Then, for a much more complex problem modeling the solidification of water, a comparison of the results obtained numerically with the experimental results known in the literature is presented. Finally, other even more complex phase change problems such as the fusion of gallium in a rectangular cavity, or that of n-octadecane in a cubical test cell are considered, and a comparison of the simulation results with experimental data is also provided.
96

Intégration d'une méthode d'optimisation topologique dans le processus de CAO/FAO pour des pièces tridimensionnelles

Picher-Martel, Gilles-Philippe January 2010 (has links)
Ce projet de maîtrise présente l'intégration d'une méthode d'optimisation topologique dans le processus de Conception et Fabrication Assistée par Ordinateur. Il fut réalisé dans le cadre d'un projet multidisciplinaire issu d'une collaboration entre le groupe de recherche en optimisation des structures de l'Université de Sherbrooke (OptiS) et l'Équipe de Recherche en Intégration CAO-Calcul de l'UQTR (ÉRICCA).Ce projet multidisciplinaire consiste à développer un gratuiciel multiplateforme d'optimisation des structures intégrant la CAO à l'optimisation afin de permettre le développement complet de pièces ou structures mécaniques en partant du modèle CAO initial, jusqu'au modèle CAO final optimisé. Deux objectifs principaux sont visés dans le cadre de ce projet de maîtrise. Premièrement, implanter la méthode d'optimisation topologique par homogénéisation (méthode SIMP) pour des structures quelconques en 3D. Deuxièmement, développer une méthode de lissage pour réduire le bruit présent sur le maillage optimisé résultant de l'optimisation topologique par la méthode SIMP. Nous avons atteint ces deux objectifs en développant un processus d'optimisation complètement automatique en sept étapes. Elles correspondent respectivement à la modélisation géométrique, l'entrée des données initiales du problème (conditions aux limites, matériau, etc.), la sous-division de la géométrie en sous-domaines de design et de non-design, le maillage automatique adapté aux sous-domaines multiples, l'optimisation topologique, le lissage du maillage de surface et finalement la reconstruction de la géométrie finale. Les résultats ont démontré que notre implantation de la méthode SIMP fonctionne et donne des résultats très intéressants qui s'apparentent aux résultats présentés dans la littérature. Néanmoins, le développement d'une méthode de lissage de triangulation basée sur les méthodes classiques a démontré que ces méthodes sont très mal adaptées à des maillages très bruités tels que ceux obtenus avec la méthode SIMP. En somme, ce projet a permis de faire un grand pas vers l'intégration complète de l'optimisation comme une étape à part entière du processus de CAO/FAO.
97

Méthodes de Runge Kutta de rang supérieur à l'ordre

Metzger, Claude 11 October 1967 (has links) (PDF)
.
98

Soutiens et contraintes de la relation d'aide reliés aux occupations : perceptions de résidants et du responsable d'une résidence d'accueil en santé mentale

Felx, Amélie January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
99

Simulation de fluide avec des noyaux constants par morceaux

Samson, Etienne January 2014 (has links)
La simulation de fluide fait l’objet de recherches actives en infographie. Largement utilisée dans le domaine des jeux vidéos ou de l’animation, elle permet de simuler le comportement des liquides, des gaz et autres phénomènes pouvant être apparentés à un fluide. Pour cela, la simulation de fluide dispose d’outils de calcul numériques adaptés, permettant de produire des animations visuellement réalistes pour un temps de calcul raisonnable. Ce mémoire décrit les deux principales approches utilisées en simulation de fluide : l’approche eulérienne et l’approche lagrangienne, ainsi que certains outils numériques associés, que sont les différences finies et les fonctions de lissage. Chaque approche et chaque outil numérique possède ses avantages et ses inconvénients. Les noyaux constants par morceaux constituent un nouvel outil de calcul numérique et ouvrent de nouvelles possibilités à la simulation de fluide. Ils seront étudiés en détails puis intégrés dans une simulation de fluide eulérienne. L’atout notable qu’apportent les noyaux constants par morceaux est la possibilité d’augmenter la précision des calculs là où cela est jugé nécessaire dans la simulation. En augmentant la précision des calculs aux endroits clés, où sont susceptibles d’apparaitre des effets visuellement attrayants comme les tourbillons ou les remous, nous améliorons la qualité des animations.
100

Modélisation des structures sandwiches avec un amortissement viscoélastique intégré par une méthode hybride FEM-TMM

Rzig, Imen January 2016 (has links)
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).

Page generated in 0.0314 seconds