• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1367
  • 600
  • 163
  • 4
  • 2
  • 1
  • Tagged with
  • 2108
  • 769
  • 461
  • 298
  • 296
  • 237
  • 226
  • 205
  • 200
  • 196
  • 195
  • 184
  • 160
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 13 December 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
52

Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielle

Bahdine, Mohamed 27 January 2024 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
53

Réalisation de fonctions booléennes avec l'opérateur majorité

Lustman, François 01 January 1966 (has links) (PDF)
.
54

Modélisation mathématique et numérique de structures en présence de couplages linéaires multiphysiques / Mathematical and numerical modeling of structures with linear multiphysics couplings

Bonaldi, Francesco 06 July 2016 (has links)
Cette thèse est consacrée à l’enrichissement du modèle mathématique classique des structures intelligentes, en tenant compte des effets thermiques, et à son étude analytique et numérique. Il s'agit typiquement de structures se présentant sous forme de capteurs ou actionneurs, piézoélectriques et/ou magnétostrictifs, dont les propriétés dépendent de la température. On présente d'abord des résultats d'existence et unicité concernant deux problèmes posés sur un domaine tridimensionnel : le problème dynamique et le problème quasi-statique. A partir du problème quasi-statique on déduit un modèle bidimensionnel de plaque grâce à la méthode des développements asymptotiques en considérant quatre types différents de conditions aux limites, chacun visant à modéliser un comportement de type capteur et/ou actionneur. Chacun des quatre problèmes se découple en un problème membranaire et un problème de flexion. Ce dernier est un problème d'évolution qui tient compte d'un effet d'inertie de rotation. On focalise ensuite notre attention sur ce problème et on en présente une étude mathématique et numérique. L'analyse numérique est complétée avec des tests effectués sous l'environnement FreeFEM++. / This thesis is devoted to the enrichment of the usual mathematical model of smart structures, by taking into account thermal effects, and to its mathematical and numerical study. By the expression "smart structures" we refer to structures acting as sensors or actuators, whose properties depend on the temperature. We present at first the results of existence and uniqueness concerning two problems posed on a three-dimensional domain: the dynamic problem and the quasi-static problem. Based on the quasi-static problem, we infer a two-dimensional plate model by means of the asymptotic expansion method by considering four different sets of boundary conditions, each one featuring a sensor-like or an actuator-like behavior. Each of the four problems decouples into a membrane problem and a flexural problem. The latter is an evolution problem that accounts for a rotational inertia effect. Attention is then focused on this problem by presenting a mathematical and numerical study of it. Our numerical analysis is complemented with numerical tests carried out under the FreeFEM++ environment.
55

Contribution à la résolution du sac-à-dos à contraintes disjonctives

Ould Ahmed Mounir, Mohamed Elhavedh 15 October 2009 (has links) (PDF)
Le problème du sac-à-dos à contraintes disjonctives (DCKP) est une variante du sac-à-dos normal. C'est un problème dans lequel certains objets peuvent être incompatibles avec d'autres. Le DCKP apparait, souvent, comme sous problème d'autres problèmes d'optimisation combinatoire plus complexes.
56

Intégrateurs géométriques: Application à la Mécanique des Fluides

Marx, Chhay 16 December 2008 (has links) (PDF)
Une approche récente permettant d'étudier les équations issues de la Mécanique des Fluides consiste à considérer les symétries de ces équations. Les succès des développements théoriques, notamment en turbulence, ont justifié la pertinence d'une telle approche. Sur le plan numérique, les méthodes d'intégration construites sur des arguments liés à la structure géométrique des équations s'appellent les intégrateurs géométriques. Dans la première partie de la thèse, on présente la classe d'intégrateurs géométriques probablement la plus connue; ce sont les intégrateurs symplectiques pour les systèmes hamiltoniens. Dans une seconde partie, on introduit les intégrateurs variationnels, construits pour reproduire les lois de conservation des systèmes lagrangiens. Cependant, la plupart des équations de la Mécanique des Fluides ne dérive pas d'un Lagrangien. On expose alors dans la dernière partie une méthode de construction de schémas numériques respectant les symétries d'une équation. Cette méthode est basée sur une formulation moderne des repères mobiles. On présente une contribution au développement de cette méthode; elle permet d'obtenir un schéma invariant possédant un ordre de précision déterminé. Des exemples issus des équations modèles de la Mécanique des Fluides sont traités.
57

Contributions aux approches formelles de développement de logiciels : Intégration de méthodes formelles et analyse multifacette

Attiogbé, Christian 13 September 2007 (has links) (PDF)
Nous présentons un ensemble de travaux sur l'intégration de méthodes formelles et l'analyse multifacette de systèmes logiciels. %deuxième partie Partant de l'idée que les différentes facettes d'un système doivent être étudiées et développées avec les formalismes et outils appropriés, nous avons exploré, suite à d'autres chercheurs, des pistes pour l'intégration de méthodes formelles utilisées pour spécifier, analyser ou développer des parties des systèmes. La nécessité de l'intégration est relative au besoin de l'interaction entre différentes parties d'un même système ou bien à l'appréhension globale des propriétés du système. Nous explicitons les principaux problèmes de l'intégration de méthodes formelles : l'hétérogénéité syntaxique, l'hétérogénétité sémantique et la variété des systèmes logiques de raisonnement. Nous proposons alors la notion de compatibilité relative à ces trois niveaux pour assurer l'intégration de méthodes. L'idée principale est celle de l'interopérabilité sur une base sémantique (base d'intégration) ) sans laquelle aucun raisonnement n'est possible entre des parties assemblées d'un système. Les raisonnements formels sont alors effectués par plongement (embedding) des spécifications dans des logiques appropriées. Ce premier cadre est généralisé à des domaines de compatibilité plus larges que les bases d'intégration, et qui permettent de s'affranchir des langages et de travailler au niveau des paradigmes sous-jacents aux langages ; on obtient ainsi un cadre pour une intégration générique. Nous avons montré comment les formalismes intégrés existants tels que LOTOS, CSP-B, Circus rentrent dans ce cadre et nous avons mis en oeuvre ces idées pour de nouvelles intégrations par exemple B et les réseaux de Pétri. Dans une autre partie des travaux, nous présentons des extensions proposées autour de la méthode B, notamment la composition parallèle asynchrone de systèmes abstraits B à la manière de la composition parallèle dans les algèbres de processus. Notre proposition permet de combiner dans un même projet de développement formel la démarche descendante de la méthode B par une approche ascendante. Nous présentons ensuite une méthode de construction systématique de spécifications B pour des systèmes multi-processus à architecture dynamique. Ces travaux généralisent les précédents sur la composition de systèmes abstraits en définissant un opérateur de fusion de sous-systèmes qui est plus général que les opérateurs de composition parallèle. Une partie des travaux est consacrée à l'analyse multifacette de système ; notre proposition consiste à assurer la compatibilité des analyses des différentes facettes en partant non pas de modèles indépendants mais de modèles spécifiques dérivés à partir d'un modèle de référence qui permet d'assurer la cohésion globale de l'analyse. Cette approche est poursuivie par des expérimentations sur la combinaison de prouveurs et d'évaluateurs de modèles (model-checkers). Nous avons exploré d'autres voies pour l'analyse multifacette : élaborer une algèbre de spécifications multiparadigmes, ou différents aspects, relatifs aux facettes envisagées, peuvent être introduits dans une même unité de spécification. Les unités de spécification sont ensuite composées à l'aide des opérateurs de l'algèbre. Le lien est fait entre cette approche et celle de l'intégration de méthodes par plongement dans des logiques formelles. Une plateforme expérimentale est développée conjointement à ces travaux et relie les deux approches : elle permettra à terme de traduire, moyennant la compatibilité sémantique, différents formalismes d'entrées dans des formalismes cibles en passant par un modèle de référence ou pivot qui lui même est une spécification multiparadigme.
58

Modélisation mathématique et étude numérique d'un aérosol dans un gaz raréfié. Application à la simulation du transport de particules de poussière en cas d'accident de perte de vide dans ITER.

Charles, Frédérique 25 November 2009 (has links) (PDF)
Dans ce travail, nous nous intéressons à des modèles cinétiques décrivant un aérosol constitué de particules solides dans un gaz raréfié. Ces modèles sont constitués d'un couplage de deux Équations aux Dérivées Partielles décrivant l'évolution spatio-temporelle des distributions en molécules de gaz et en particules de poussière. Le modèle présenté dans la première partie de ce travail est constitué d'un couplage de deux équations de type Boltzmann, dans lequel l'interaction entre les molécules de gaz et les particules de poussière est décrite par deux opérateurs de collision. Nous proposons deux modélisations de ces opérateurs. Dans la première, les collisions entre particules et molécules sont supposées élastiques. Dans la seconde, nous modélisons ces collisions par un mécanisme inélastique de réflexion diffuse sur la surface des particules. Nous établissons alors des opérateurs de collision d'expressions non classiques. D'un point de vue mathématique, nous montrons que le couplage homogène en espace muni des opérateurs de collision élastiques possède des solutions faibles préservant la masse et l'énergie, et vérifiant une inégalité d'entropie. Nous proposons ensuite une mise en oeuvre numérique du modèle dit de réflexion diffuse, basé sur un code de type Direct Simulation Monte Carlo. Celle-ci met en évidence un coût de simulation de l'opérateur particules-molécules trop élevé lorsque les particules ont un rayon trop grand. Nous introduisons alors dans la deuxième partie de ce travail un modèle constitué d'un couplage (par l'intermédiaire d'une force de traînée) entre une équation de Vlasov et une équation de Boltzmann. Pour cela, nous effectuons un adimensionnement du premier système, suivi d'un développement asymptotique de l'opérateur de collision particules-molécules adimensionné en fonction du rapport de masse entre une molécule et une particule de poussière. Nous justifions ensuite rigoureusement ce développement asymptotique dans le cas homogène en espace et pour le modèle de collisions élastiques en prouvant que les solutions du couplage Boltzmann/Boltzmann convergent faiblement vers des solutions du couplage asymptotique Vlasov/Boltzmann. Nous établissons pour cela une nouvelle variante de l'inégalité de Povzner, adaptée au cas de particules de masses très différentes. Par ailleurs, nous comparons numériquement les systèmes Boltzmann/Boltzmann et Vlasov/Boltzmann pour le modèle dit de réflexion diffuse. La mise en oeuvre numérique du système Vlasov/Boltzmann est réalisée par couplage entre une méthode de type Particle-In-Cell et une méthode Monte-Carlo. Enfin, nous présentons l'application de ces modèles à la simulation numérique de la mobilisation et du transport de particules de poussière au début d'un accident de perte de vide, dans le cadre d'étude de sûreté pour le réacteur ITER
59

Nouvelles méthodes pour le problème de gestion de projet multi-compétence

Montoya casas, Carlos Eduardo 13 December 2012 (has links) (PDF)
Dans cette Thèse, nous avons introduit plusieurs procédures pour résoudre le problème d'ordonnancement du projet multi-compétences (MSPSP). L'objectif est de trouver un ordonnancement qui minimise le temps de terminaison (makespan) d'un projet, composé d'un ensemble d'activités. Les relations de précédences et les contraintes de ressource seront considérées. Dans ce problème, les ressources sont des membres du personnel qui maîtrisent plusieurs compétences. Ainsi, un certain nombre de travailleurs doit être affecté pour utiliser chaque compétence requise par une activité. Par ailleurs, nous accorderons une importance particulière aux méthodes exactes pour résoudre le MSPSP, puisqu'il y a encore un certain nombre d'instances pour lesquelles l'optimalité doit encore être prouvée. Néanmoins,pour traiter des instances plus importantes, nous implémentons une approche heuristique.
60

La modélisation des oscillations d'étoiles en rotation rapide

Reese, Daniel 30 October 2006 (has links) (PDF)
Dans cette thèse, on étudie de manière précise les effets de la rotation rapide sur les oscillations stellaires. Les méthodes précédentes étaient inadéquates par rapport aux exigences de l'astérosismologie, soit parce qu'elles prenaient en compte de manière perturbative la rotation, ce qui les limite à de faibles vitesses de rotation, soit à cause d'une précision numérique insuffisante. Pour répondre à ces difficultés, on développe ici une approche complète basée sur l'utilisation de méthodes spectrales et d'un système de coordonnées qui s'adapte à la forme aplatie de l'étoile. On calcule alors des modes acoustiques et des fréquences propres de modèles polytropiques d'étoiles en rotation uniforme. À partir des résultats obtenus, on établit, pour la première fois, des domaines de validité des méthodes perturbatives. On analyse, par ailleurs, l'organisation asymptotique du spectre de fréquences et la structure géométrique des modes de pulsations à des vitesses de rotation élevées.

Page generated in 0.0482 seconds