• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1362
  • 599
  • 155
  • 4
  • 2
  • 1
  • Tagged with
  • 2094
  • 768
  • 461
  • 296
  • 294
  • 237
  • 226
  • 203
  • 200
  • 196
  • 195
  • 183
  • 159
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude des algorithmes de stratification et illustration utilisant la réalisation de l'enquête sur le recrutement, l'emploi et les besoins de formation au Québec en 2015, l'EREFEQ 2015

Houimli, Oussama 27 January 2024 (has links)
Dans un plan stratifié, le calcul des bornes de strates peut se faire de plusieurs façons. On peut se fier à un jugement personnel et séparer les unités de la population en se basant sur la distribution de la variable de stratification. D’autres méthodes scientifiques et rigoureuses donnent un meilleur résultat, dont les algorithmes de cum √f, Sethi et Kosak. Pour les populations asymétriques, telles que retrouvées dans les enquêtes entreprises, l’utilisation d’une strate recensement permet de diminuer la taille d’échantillon et donner des estimations plus fiables. Parfois, la variable de stratification utilisée dans l’élaboration du plan de sondage ne garantit pas l’obtention de la précision cible pour toutes les variables d’intérêt de l’enquête. Utiliser la variable d’intérêt la plus difficile à estimer, comme variable de stratification, permet de garantir un CV cible minimal pour toutes les autres variables, mais engendre des grandes tailles d’échantillon. / In a stratified sampling design, the calculation of the stratum boundaries can be done in several ways. We can rely on personal judgment and separate the units of the population based on the distribution of the stratification variable. Other scientific and rigorous methods give a better result, including the algorithms of cum √f, Sethi and Kosak. For asymmetric populations, as found in the business surveys, the use of a census stratum reduces the sample size and gives more reliable estimates. Univariate methods, those that use a single stratification variable in calculating the boundaries, do not guarantee that the target precision will be obtained for all the variables of interest in the survey. Using the variable of interest that is the most difficult to estimate, as a stratification variable, makes it possible to guarantee a minimum target CV for all the other variables, but generates large sample sizes.
62

Analyse d'un réseau d'approvisionnement et de distribution : conception d'un modèle de simulation

Bélanger, Valérie 12 April 2018 (has links)
Ce mémoire traite d'une problématique issue du cas réel d'une entreprise qui s'approvisionne auprès d'un grossiste, entrepose les marchandises reçues, puis fournit un nombre important de détaillants localisés sur un vaste territoire. Pour satisfaire la demande des détaillants dans les délais, l'entreprise est généralement appelée à séparer les livraisons en provenance du grossiste principal pour prélever les quantités requises par les détaillants qui ont des volumes d'achat plus petits. La localisation, autant des fournisseurs que des détaillants, fait en sorte que l'entreprise doit, pour demeurer compétitive, revoir ses processus d'approvisionnement, d'entreposage et de distribution, revoir l'organisation du transport entre les différents points de son réseau, améliorer la synchronisation de ses activités de même que les relations avec ses partenaires afin de réduire les stocks et les différents coûts encourus. Différentes solutions sont envisageables. La comparaison des solutions potentielles n'est toutefois pas évidente. La simulation peut alors constituer une alternative intéressante pour évaluer les performances des scénarios envisagés. Ce mémoire porte donc sur la conception d'un outil de simulation générique, de haut niveau, permettant d'évaluer les différentes alternatives et stratégies envisagées dans le processus de réingénierie de la chaîne d'approvisionnement d'une entreprise de distribution.
63

Modélisation d'un outil graphique d'aide à la compréhension de résolution de programmes logiques

Bouanane, Mohamed 20 April 2018 (has links)
Ce projet de recherche traite du domaine de l’intelligence artificielle, plus précisément de la programmation logique, un type de programmation utilisée pour concevoir des systèmes dits intelligents. Ce type de programmation est toutefois assez complexe à assimiler et il n’existe, à notre connaissance, aucun outil interactif qui permette de montrer efficacement le processus d’exécution d’un programme logique. L’objectif de cette recherche consistait donc à proposer un modèle d’outil facilitant la compréhension de la résolution d’un programme logique. Le modèle proposé permet de représenter graphiquement et dynamiquement la trace de résolution d’un programme logique. Un prototype a été construit pour valider ce modèle avec des programmes écrits en langage Prolog. L’utilisateur peut ainsi suivre les étapes d’exécution à travers l’affichage dynamique d’un arbre de dérivation. Actuellement, le modèle ne permet pas de prendre en compte des programmes écrits avec différents langages de programmation, une telle généralisation serait une bonne amélioration.
64

Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique

ROLAND, Christophe 27 June 2005 (has links) (PDF)
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
65

Méthodes d'accélération de la convergence en analyse numérique

Brezinski, Claude 26 April 1971 (has links) (PDF)
.
66

Développement de méthodes de domaines fictifs au second ordre

Etcheverlepo, Adrien 30 January 2013 (has links) (PDF)
La simulation d'écoulements dans des géométries complexes nécessite la création de maillages parfois difficile à réaliser. La méthode de pénalisation proposée dans ce travail permet de simplifier cette étape. En effet, la résolution des équations qui gouvernent l'écoulement se fait sur un maillage plus simple mais non-adapté à la géométrie du problème. Les conditions aux limites sur les parties du domaine physique immergées dans le maillage sont prises en compte à travers l'ajout d'un terme de pénalisation dans les équations. Nous nous sommes intéressés à l'approximation du terme de pénalisation pour une discrétisation par volumes finis sur maillages décalés et colocatifs. Les cas tests de vérification réalisés attestent d'un ordre de convergence spatial égal à 2 pour la méthode de pénalisation appliquée à la résolution d'une équation de type Poisson ou des équations de Navier-Stokes. Enfin, on présente les résultats obtenus pour la simulation d'écoulements turbulents autour d'un cylindre à Re=3900 et à l'intérieur d'une partie d'un assemblage combustible à Re=9500.
67

Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations

Sedki, Mohammed 31 October 2012 (has links) (PDF)
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
68

Développement de méthodes de domaines fictifs au second ordre / Development of a second order penalty method

Etcheverlepo, Adrien 30 January 2013 (has links)
La simulation d'écoulements dans des géométries complexes nécessite la création de maillages parfois difficile à réaliser. La méthode de pénalisation proposée dans ce travail permet de simplifier cette étape. En effet, la résolution des équations qui gouvernent l'écoulement se fait sur un maillage plus simple mais non-adapté à la géométrie du problème. Les conditions aux limites sur les parties du domaine physique immergées dans le maillage sont prises en compte à travers l'ajout d'un terme de pénalisation dans les équations. Nous nous sommes intéressés à l'approximation du terme de pénalisation pour une discrétisation par volumes finis sur maillages décalés et colocatifs. Les cas tests de vérification réalisés attestent d'un ordre de convergence spatial égal à 2 pour la méthode de pénalisation appliquée à la résolution d'une équation de type Poisson ou des équations de Navier-Stokes. Enfin, on présente les résultats obtenus pour la simulation d'écoulements turbulents autour d'un cylindre à Re=3900 et à l'intérieur d'une partie d'un assemblage combustible à Re=9500. / The simulations of fluid flows in complex geometries require the generation of body-fitted meshes which are difficult to create.The penalty method developed in this work is useful to simplify the mesh generation task.The governing equations of fluid flow are discretized using a finite volume method on an unfitted mesh.The immersed boundary conditions are taken into account through a penalty term added to the governing equations.We are interested in the approximation of the penalty term using a finite volume discretization with collocated and staggered grid.The penalty method is second-order spatial accurate for Poisson and Navier-Stokes equations.Finally, simulations of turbulent flows around a cylinder at Re=3900 and turbulent motions in a rod bundle at Re=9500 are performed.
69

L'effet de lissage induit par la répartition géographique de groupes éoliens

Michaud, René 12 April 2018 (has links)
L'introduction de production éolienne dans un réseau électrique, de par la nature stochastique du vent, impose au gestionnaire un investissement supplémentaire pour maintenir les réserves en capacité et les infrastructures rattachées afin de balancer les fluctuations de la filière éolienne. L'effet de lissage qu'induit la répartition des éoliennes sur un grand territoire, par son apport au crédit en capacité de la filière, peut être un facteur important de réduction de cet investissement. À l'aide de données recueillies au Québec, ce travail démontre la présence de lissage induit par la répartition des stations anémométriques et le quantifie, en termes de réduction de la variabilité des séries temporelles en vitesse du vent et en puissance. / When introducing wind power into an electricity grid, because of the stochastic nature of wind, investments must be made to insure capacity reserves and related infrastructures are available to balance the wind production fluctuations. Smoothing effect of geographically dispersed wind production may help minimize these investments by reducing variability of the wind production thus contributing to the wind power capacity credit. Based on measured wind speed data from Québec province, this study shows the existence of a smoothing effect induced by geographical dispersion of the measurement stations and quantifies it by means of reduced variability of the wind speed and power time series.
70

Méthodes d'amas quantiques à température finie appliquées au modèle de Hubbard

Plouffe, Dany January 2011 (has links)
Depuis leur découverte dans les années 80, les supraconducteurs à haute température critique ont suscité beaucoup d'intérêt en physique du solide. Comprendre l'origine des phases observées dans ces matériaux, telle la supraconductivité, est l'un des grands défis de la physique théorique du solide des 25 dernières années. L'un des mécanismes pressentis pour expliquer ces phénomènes est la forte interaction électron-électron. Le modèle de Hubbard est l'un des modèles les plus simples pour tenir compte de ces interactions. Malgré la simplicité apparente de ce modèle, certaines de ses caractéristiques, dont son diagramme de phase, ne sont toujours pas bien établies, et ce malgré plusieurs avancements théoriques dans les dernières années. Cette étude se consacre à faire une analyse de méthodes numériques permettant de calculer diverses propriétés du modèle de Hubbard en fonction de la température. Nous décrivons des méthodes (la VCA et la CPT) qui permettent de calculer approximativement la fonction de Green à température finie sur un système infini à partir de la fonction de Green calculée sur un amas de taille finie. Pour calculer ces fonctions de Green, nous allons utiliser des méthodes permettant de réduire considérablement les efforts numériques nécessaires pour les calculs des moyennes thermodynamiques, en réduisant considérablement l'espace des états à considérer dans ces moyennes. Bien que cette étude vise d'abord à développer des méthodes d'amas pour résoudre le modèle de Hubbard à température finie de façon générale ainsi qu'à étudier les propriétés de base de ce modèle, nous allons l'appliquer à des conditions qui s'approchent de supraconducteurs à haute température critique. Les méthodes présentées dans cette étude permettent de tracer un diagramme de phase pour l'antiferromagnétisme et la supraconductivité qui présentent plusieurs similarités avec celui des supraconducteurs à haute température.

Page generated in 0.0283 seconds