Spelling suggestions: "subject:"méthodes dde simulation"" "subject:"méthodes dee simulation""
1 |
Preliminary study of the structural response of a Francis turbine operating in speed-no-load regimeChâteauvert, Thomas 27 January 2024 (has links)
Ce mémoire présente l’étude numérique d’une turbine hydroélectrique de type Francis de moyenne chute dans le cadre du projet Tr-FRANCIS au Laboratoire de Machines Hydrauliques. Le but de cette maîtrise est de caractériser les réponses structurelle et modale préliminaires de la roue en condition d’opération de marche à vide aux échelles prototype et modèle. Concrètement, le travail vise à identifier les zones de contraintes élevées et à déterminer les fréquences naturelles. La méthodologie numérique utilisée consiste à interpoler les forces induites par l’écoulement sur le maillage et à calculer la réponse structurelle suivant une approche dépendante du temps. Les modèles numériques sont validés par des études d’indépendance de maillage, l’investigation paramétrique de l’influence des conditions limites ainsi qu’en comparant des méthodes d’interpolation. Les résultats sont ensuite analysés dans les domaines temporel et fréquentiel pour mesurer le niveau de contraintes et déterminer les excitations qui sollicitent la structure. Des simulations modales permettent également d’identifier les fréquences naturelles et les déformées de la roue dans le vide et en opération dans l’eau. Les résultats structuraux de la turbine Tr-FRANCIS indiquent de faibles niveaux de contraintes statiques et dynamiques. L’étude de l’impact du chargement fluide conclut que le cisaillement pariétal et la pression doivent être considérés pour prédire fidèlement le comportement structurel de la turbine dans la condition d’opération simulée. Une analyse paramétrique montre que des variations de la vitesse du son dans l’eau entraînent une réduction des fréquences naturelles de la roue dans sa configuration confinée. L’application d’une méthode de transposition de la réponse structurelle du modèle prédit fidèlement les contraintes statiques et dynamiques du prototype. Finalement, la mise à l’échelle des fréquences naturelles suggère l’utilisation d’une vitesse du son réduite à l’échelle modèle. / This thesis presents the numerical study of a medium-head hydroelectric Francis turbine within the scope of the Tr-FRANCIS project at the Hydraulic Machine Laboratory. The goal of this masters is to characterize the preliminary structural and modal responses of the runner in speed-no-load operating condition at prototype and model scales. Specifically, the work aims at identifying the areas of high stresses and at determining the natural frequencies. The numerical methodology used consists of interpolating the flow-induced forces onto the mesh and to calculate the structural response following a time-dependent approach. The numerical models are validated with mesh independence studies, the investigation of the influence of boundary conditions and by comparing mapping methods. The results are then analyzed in the time and frequency domains to measure the stress levels and to determine the excitations that solicit the structure. Modal simulations also allow identifying the natural frequencies and the mode shapes of the runner in void and in operation in water. The structural results of the Tr-FRANCIS turbine indicate low levels of static and dynamic stresses. The study of the impact of the fluid loading concludes that wall shear and pressure must be considered to accurately predict the structural behaviour of the turbine in the operating condition simulated. A parametric analysis shows that variations of the speed of sound in water leads to a reduction in the natural frequencies of the runner in its confined configuration. The application of a transposition method of the structural response of the model adequately predicts the static and dynamic stresses of the prototype. Finally, the scaling of the natural frequencies suggests the use of a reduced speed of sound at model scale.
|
2 |
Intégration du comportement des occupants aux simulations énergétiques des bâtiments résidentiels : développement de méthodes et d'outils de conceptionVeillette, Debby 13 December 2023 (has links)
Dans les bâtiments résidentiels à haute performance, le comportement des ménages est maintenant l'un des principaux facteurs affectant le confort et la consommation d'énergie. Malgré les progrès technologiques importants en matière d'efficacité énergétique, il demeure un écart considérable entre les prédictions réalisées au moment de la conception et la consommation réelle du bâtiment. À ce jour, il existe peu d'outils d'optimisation du bâtiment prenant en compte la diversité du comportement des occupants. Les outils actuels utilisent généralement des horaires d'occupation fixes, ce qui perpétue l'écart entre les estimations et la performance réelle du bâtiment. De plus, les simulations énergétiques tenant compte du comportement des occupants demandent un grand temps de calcul et sont complexes à implanter en entreprise. Ainsi, il devient essentiel de développer des outils adaptés pour les concepteurs afin d'améliorer l'exactitude des prédictions énergétiques. L'objectif de ce projet est de proposer des outils pour l'optimisation du bâtiment résidentiel, tout en considérant la variabilité du comportement, au moyen de simulations énergétiques. D'une part, une analyse paramétrique sur l'influence de la taille des fenêtres a été menée avec 1000 profils d'occupant différents. Cette étude a permis de conclure que l'importance de chacun des facteurs du comportement changeait selon la taille des fenêtres. Par exemple, lorsque les fenêtres étaient agrandies, l'ouverture des fenêtres influençait moins la demande en chauffage, mais le choix de la température de consigne devenait plus important. D'autre part, une méthode pratique et simplifiée pour considérer le large spectre du comportement, mais en ne générant qu'un nombre réduit de simulations choisies stratégiquement, a été développé. Les simulations énergétiques confirment qu'il est possible de représenter la consommation d'énergie et le confort thermique avec un nombre limité de trois profils d'occupations. En somme, la méthode permet de comparer différentes solutions de design en considérant la diversité du comportement des occupants. / Occupant behavior is now known to be one of the most important parameters affecting thermal comfort and energy consumption, in particular in the residential sector. Despite great technological progress in the field of energy efficiency, huge energy consumption disparities remain to a great extent between prior-to-construction estimations and real energy demand. Nowadays, few optimization tools exist to account for occupant behavior diversity. Usually, single schedules are used to represent occupant behavior, which broaden the gap between estimations and actual consumption. Moreover, energy simulations that include occupant behavior diversity are time-consuming and complex to implement in the industry. Il becomes essential to develop tools that are adapted for practitioners to increase energy predictions reliability. The objective of this study is to propose optimisation tools for the residential sector considering the occupant behavior variability through energy simulations. First, a parametric study has been conducted to measure the influence of window-to-wall ratio with 1000 different occupancy profiles. This exploratory work shows that the relative importance of different occupant behavior aspects can change depending on the window-to-wall ratio. For example, when windows are enlarged, window opening becomes less influential on the heating demand, but, on the other hand, the choice of temperature set point becomes more influential. Afterward, a practical and simple method has been developed to consider thew hole spectrum of occupant behavior, but with a reduced number of strategically chosen profiles. Energy simulations showed that it was possible to represent energy demand and thermal comfort with a limited number of three occupancy profiles. In short, this method allows one to compare different design solutions by considering occupant behavior diversity.
|
3 |
Prédiction de comportements toxiques à partir des messages sur les réseaux sociauxSanchez Viera, Talia 27 January 2024 (has links)
L’objectif de ce mémoire est d’explorer trois différentes techniques pour prédire la toxicité chez les utilisateurs des communautés en ligne. Notre motivation principale est d’aider les modérateurs de ces communautés à concentrer leurs efforts sur les utilisateurs les plus susceptibles d’écrire des messages toxiques, et éviter ainsi de gaspiller du temps et des ressources à surveiller toute la communauté. Nous avons d’abord créé un modèle mathématique capable de prédire les cinq traits de personnalité du modèle OCEAN (Ouverture, Conscienciosité, Extraversion, Agréabilité et Neuroticisme) et les trois traits de la Triade Noire (Narcissisme, Machiavélisme et Psychopathie)d’un utilisateur à partir de son style d’écriture et de son utilisation du vocabulaire. Nos expériences avec ce modèle sur les communautés de Twitter et Reddit ont démontré qu’il existe bien une relation entre la personnalité d’un utilisateur et le niveau de toxicité de ses messages. Particulièrement, nous avons constaté que les utilisateurs avec des valeurs élevées de narcissisme, de machiavélisme et de psychopathie et faibles valeurs de conscienciosité et agréabilité ont plus tendance à écrire des messages toxiques. Dans une deuxième étape, nous appliquons des algorithmes de partitionnement dans l’espace des traits de personnalité et dans l’espace des caractéristiques du langage. Nous avons observé qu’il est possible de détecter des groupes d’utilisateurs potentiellement risqués à surveiller sans avoir besoin de créer un profile pour chaque utilisateur. Finalement, nous avons créé un modèle de régression pour estimer le niveau de toxicité des utilisateurs en fonction de leurs attributs linguistiques. Nous avons observé que les utilisateurs prédits d’avoir les niveaux de toxicité plus élevés par notre régression sont également ceux qui ont des traits de Triade Noire très élevés selon notre modèle de personnalité. / The objective of this study is to explore three different techniques to predict toxicity online community users. Our main motivation is to help the moderators of these communities to focus their efforts on users who are more likely to write toxic messages, and thus avoid wasting time and resources by monitoring the entire community. First, we created a mathematical model capable of predicting the five personality traits of the OCEAN model (Openness, Conscientiousness, Extraversion, Agreeableness and Neuroticism) and the three traits of the Dark Triad (Narcissism, Machiavellianism and Psychopathy) for auser, based on their writing style and choice of vocabulary. The experiments we performed with this model on users of the Twitter and Reddit communities have shown that there is a relationship between a user’s personality and the level of toxicity of their messages. In particular, we found that users with high values of narcissism, Machiavellianism and psychopathy andlow values of conscientiousness and agreeableness were more likely to write toxic messages. For our second technique, we applied clustering algorithms on the predicted personality traits andon the observed language characteristics. This allowed us to show that it is possible to detect clusters of potentially risky users without having to create a profile for each user. Finally, we created a regression model to estimate the level of toxicity of users based on their linguistic attributes alone. We observed that the users predicted to have higher toxicity levels by our regression model are also those who have a very high value of Dark Triad traits according to our personality model.
|
4 |
Simulation par ordinateur du mouvement d'air dans le bois pendant les phases initiales des procédés d'imprégnation sous pressionOrfila, Cyril 05 April 2024 (has links)
Ce travail cherche à élaborer une méthode de résolution pour une équation non linéaire de l'écoulement d'un fluide, en milieu poreux, par une technique de calcul hybride ou de calcul numérique. Des résultats fiables sont obtenus pour la perméabilité par une méthode numérique partiellement implicite et conservative, à partir de la théorie des différences finies. Les essais réels consistant à enregistrer la pression par des capteurs mécaniques ont été réalisés sur l'épinette blanche. Les résultats ont été extrapolés pour simuler le développement de la pression interne, durant les phases initiales des procédés Rüping et Bethell, dans un poteau théorique avec des proportions fixes d'aubier et de coeur.
|
5 |
Changements démographiques et marché immobilier : une analyse macroéconomiqueLorenzato-Doyle, Gabriel 27 January 2024 (has links)
Ce mémoire propose un outil d’analyse permettant de simuler les effets des changements démographiques sur le prix des actifs immobiliers dans leur ensemble ainsi que sur les principaux indicateurs macroéconomiques. Nous étendons le modèle à générations imbriquées de Gertler (1999) en y ajoutant la production et l’accumulation d’actifs immobiliers ainsi que la consommation des services d’habitation produits par ce capital. Ensuite, nous simulons trois chocs représentant des aspects importants de la réalité démographique et économique complexe duQuébec en 2020, soit les conséquences du baby boom, la hausse de l’espérance de vie et l’importance accordée par les retraités à l’immobilier. Les résultats suggèrent que, lorsque la préférence pour l’immobilier est moins grande chez les retraités que chez les travailleurs, un vieillissement de la population dû à une baisse de la natalité entraine une diminution des prix associés à l’immobilier. L’effet est plus mitigé lorsque le vieillissement simulé résulte d’une hausse de l’espérance de vie, car le besoin d’épargner et d’investir davantage en vue de la retraite exerce une pression à la hausse sur la valeur des actifs. La dernière expérience met en évidence la sensibilité des résultats à l’étalonnage des préférences, puisque, lorsque la préférence des retraités pour leur logement augmente, une hausse marquée des prix est observée.
|
6 |
Déterminants hémodynamiques de l'hypertension pulmonaire et de la thromboembolie suite au remplacement valvulaire mitral : étude in-vitro sur un simulateur atrio-ventriculaire gauche et pulmonaireTanné, David 16 April 2018 (has links)
Les maladies valvulaires mitrales induisent une surcharge de pression ou de volume dans l’oreillette. L’augmentation de la pression auriculaire initie alors des complications secondaires, telles que l’hypertension artérielle pulmonaire, la fibrillation auriculaire et la thromboembolie. Les objectifs du remplacement valvulaire mitral sont donc d’améliorer l’hémodynamie de la valve, mais aussi de normaliser les pathologies secondaires. Ces objectifs ne sont pas nécessairement atteints chez tous les patients. Parfois, ils ne le sont que partiellement. L’objectif général de cette thèse est de mieux comprendre les interactions complexes entre le substitut valvulaire, les écoulements intra-auriculaires et la circulation pulmonaire. Nous avons donc développé un nouveau simulateur expérimental atrio-ventriculaire capable d’estimer ces interactions. Il est basé sur le respect du synchronisme entre les contractions et relaxations des deux cavités cardiaques, modélisées par deux moules en silicone. Deux pompes, asservies par un contrôleur temps réel, autorisent une double activation rigide et synchronisée, et la maîtrise des volumes des moules de l’oreillette et du ventricule. Un modèle Windkessel simule la circulation pulmonaire et une troisième pompe l’éjection du ventricule droit. Les courbes pression-volume des cavités et les impédances aortique et pulmonaire mesurées sur le simulateur sont totalement physiologiques, excepté l’amplitude de la pression auriculaire qui demeure encore trop élevée. La forme du moule de l’oreillette, totalement anatomique et comprenant quatre veines pulmonaires et l’appendice auriculaire gauche, permet une organisation de l’écoulement intra-auriculaire très proche de celle observée in-vivo. La visualisation de ces écoulements est réalisée par vélocimétrie par images de particules trois composantes et multi-plans, associée à une méthode de masquage automatique des régions d’intérêt. Nous avons étudié, par une approche numérique, l’impact de la disproportion patient-prothèse en position mitrale sur les pressions auriculaire gauche et artérielle pulmonaire. Le modèle numérique a permis de valider les seuils d’aire valvulaire effective indexée utilisés en clinique pour estimer la présence et la sévérité de la disproportion patient-prothèse. Par ailleurs, nous avons démontré au moyen du simulateur atrio-ventriculaire que l’aire valvulaire effective d’une prothèse mitrale varie de l’ordre de 30% durant la diastole, ce qui remet en cause l’hypothèse selon laquelle cette variable ne change pas durant cette période. Enfin, nous avons mis en évidence l’impact positif de la régurgitation d’une prothèse mécanique sur la thrombogénèse, similairement à l’insuffisance mitrale, au détriment d’une augmentation de la pression artérielle pulmonaire. Les nouvelles connaissances et le nouvel outil expérimental présentés dans cette thèse pourraient être utilisés, à l’avenir, pour améliorer les prothèses valvulaires mitrales et développer des stratégies visant à optimiser les résultats du remplacement valvulaire mitral. / Mitral valve diseases induce left atrial pressure or volume overload. The resulting increase of left atrial pressure, in turn, leads to secondary abnormalities, such as pulmonary arterial hypertension, atrial fibrillation and thromboembolism. Therefore, the main goals of mitral valve replacement are to restore the valvular hemodynamics and to normalize the secondary abnormalities. The general objective of this thesis is to better understand the complex interactions between the valve substitute, the intra-atrial flow patterns, and the pulmonary circulation. We, therefore, developed a new in-vitro pulsed atrio-ventricular mock circulatory system to investigate these interactions. The setup is based on the perfect synchronization between the contractions and relaxations of the two cardiac cavities, which are mimicked by two silicone moulds. Two pumps, real time servo-controlled, allow the double rigid and synchronized activations of the moulds, and the control of left atrial and left ventricular volumes. A Windkessel model is used as the pulmonary circulation and a third pump mimick the right ventricular ejection. Pressure-volume curves of the cardiac cavities and aortic and pulmonary impedances, measured in-vitro, are totally concordant with the cardiac physiology, except the amplitude of the left atrial pressure which remains too elevated. The anatomical shape of the left atrial mould includes the four pulmonary veins and the left atrial appendage. This realistic geometry allows flow patterns very closed to those observed in-vivo. Their visualization is performed using multi-planes three components particle image velocimetry, associated with an automatic mask generation. Using a numerical approach, we investigated the impact of mitral prosthesis-patient mismatch on left atrial and pulmonary arterial pressures. The numerical model was used to validate the cut-off values of indexed effective orifice areas generally used to define the presence and the severity of prosthesis-patient mismatch in the clinical setting. With the use of the mock circulatory system, we showed that the effective orifice area of mitral prostheses may exhibit variations of ±30% during diastole, which contradicts the previous hypothesis stating that this variable remains constant during this period. Finally, we described the positive impact of the mechanical mitral prosthetic valve regurgitation on thrombogenesis, similarly to mitral insufficiency, to the expense of an increase of the pulmonary arterial pressure. The new knowledge and the new experimental setup presented in this thesis may prove to be useful to optimize the design of mitral prosthetic valves and the performance of mitral valve replacement.
|
7 |
Détermination des cotes de crue en présence de glace sur la Rivière ChaudièreLadouceur, Jean-Robert 13 December 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
|
8 |
Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielleBahdine, Mohamed 27 January 2024 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
|
9 |
Analyse d'un réseau d'approvisionnement et de distribution : conception d'un modèle de simulationBélanger, Valérie 12 April 2018 (has links)
Ce mémoire traite d'une problématique issue du cas réel d'une entreprise qui s'approvisionne auprès d'un grossiste, entrepose les marchandises reçues, puis fournit un nombre important de détaillants localisés sur un vaste territoire. Pour satisfaire la demande des détaillants dans les délais, l'entreprise est généralement appelée à séparer les livraisons en provenance du grossiste principal pour prélever les quantités requises par les détaillants qui ont des volumes d'achat plus petits. La localisation, autant des fournisseurs que des détaillants, fait en sorte que l'entreprise doit, pour demeurer compétitive, revoir ses processus d'approvisionnement, d'entreposage et de distribution, revoir l'organisation du transport entre les différents points de son réseau, améliorer la synchronisation de ses activités de même que les relations avec ses partenaires afin de réduire les stocks et les différents coûts encourus. Différentes solutions sont envisageables. La comparaison des solutions potentielles n'est toutefois pas évidente. La simulation peut alors constituer une alternative intéressante pour évaluer les performances des scénarios envisagés. Ce mémoire porte donc sur la conception d'un outil de simulation générique, de haut niveau, permettant d'évaluer les différentes alternatives et stratégies envisagées dans le processus de réingénierie de la chaîne d'approvisionnement d'une entreprise de distribution.
|
10 |
Développement d'une méthodologie d'analyse du traitement orthopédique de la dysplasie de la hancheGrenier, Victor 27 January 2024 (has links)
La dysplasie acétabulaire est une pathologie causant de l'instabilité articulaire et une réduction de la superficie de chargement au niveau de la hanche. Celle-ci augmente le risque de développement précoce d'ostéoarthrose, causant de la douleur et menant à la perte de la fonction articulaire. La dysplasie est conventionnellement traitée par ostéotomie péri-acétabulaire, mais les effets précis de cette correction sur la biomécanique intra-articulaire restent à être élucidées. À l'aide de la méthode de simulation par éléments discrets, la distribution de pression articulaire a été évaluée de manière pré et post opératoire chez 9 patients dysplasiques. Différentes mesures orthopédiques évaluant le degré de correction acétabulaire ont été acquises et plusieurs scores numériques évaluant la surcharge articulaire ont été calculés. Des corrélations entre ces mesures et ces scores ont ensuite été effectués. Il a été noté que les mesures d'angle centre-externe latéral, d'index acétabulaire et d'index d'extrusion de la tête fémorale sont corrélés avec l'augmentation de l'aire de contact moyen durant la marche (p < 0.05, R² de 0.22 à 0.50). L'influence significative de la méthode de reconstruction cartilagineuse (distributions d'épaisseurs moyennes saine vs. dysplasique) et du profil de marche utilisé (phase d'appui moyen sain vs. dysplasique) a été remarqué auprès de la majorité des métriques évaluées. Ces résultats, ainsi que les facteurs qui les influencent, peuvent servir à assister la planification chirurgicale, effectuer des validations in-vitro d'optimisation d'ostéotomie péri-acétabulaire et, par la suite, guider la conception de nouveaux traitements. / Acetabular dysplasia causes articular instability and the reduction of the loading area in the hip. This causes the early onset of osteoarthritis which leads to pain and the eventual loss of articular function. Acetabular dysplasia is commonly treated by periacetabular osteotomy, but the precise effects of this correction on intra-articular biomechanics is not yet well known. Using discrete element analysis, pressure distribution has been calculated in the dysplastic hips of 9 patients before and after periacetabular osteotomy. A variety of radiographic measurements and numerical metrics have been evaluated in order to quantify the degree of acetabular correction and excessive loading. Correlations between these measures and metrics have been established in order to reveal any causal effects. In particular, the corrections of the lateral center-edge angle, acetabular index and femoral head extrusion index are correlated to the rise of average contact area during gait (p-value < 0.05, R² = 0.22 to 0.50). Additionally, the influence of cartilage layer reconstruction method (population-based healthy vs. dysplastic thicknesses) and loading parameters (healthy vs. dysplastic gait profiles) was significant for a majority of evaluated metrics. These results and influencing factors can help to assist with surgical planning, provide a basis for in-vitro validation of surgical optimization and act as a standard for designing new orthopedic treatments for acetabular dysplasia.
|
Page generated in 0.1291 seconds