• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Mesures d’insertion sociale destinées aux détenus québécois et récidive criminelle : une approche par l'apprentissage automatique

Iriart, Alejandro 26 January 2021 (has links)
Dans ce mémoire, nous essayons de déterminer l’influence réelle des programmes de réinsertion sociale sur le risque de récidive. Pour ce faire, nous analysons, à l’aide d’une approche d’apprentissage automatique une base de données fournie par le Ministère de la Sécurité publique (MSP) où nous retrouvons le parcours carcéral de 97 140 détenus de 2006 jusqu’en 2018. Notre analyse se concentre uniquement sur les détenus ayant transigé dans la prison de la ville de Québec. Pour faire notre analyse, nous utilisons l’approche des Generalized Random Forests (GRF) développée par Athey et al. (2019) sur les caractéristiques des détenus ainsi que leurs résultats au LS/CMI, un test psychométrique ayant pour but de déterminer leurs besoins criminogènes, afin d’estimer l’effet de traitement individuel de la participation à des programmes. Nous en profitons aussi pour déterminer quelles sont les variables influençant le plus l’effet de traitement en utilisant une fonction de ce même algorithme qui calcule l’importance relative de chacune des variables pour faire la prédiction. Ceci est une approche révolutionnaire, car elle nous permet de faire de l’inférence sur nos résultats. En comparant les participants et les non-participants, nous avons pu démontrer que le fait de participer à un programme diminue le risque de récidiver d’environ 6.9% pour une période d’épreuve de deux ans. Le fait de participer à un programme semble toujours diminuer de manière significative la récidive. Nous avons aussi déterminé qu’au niveau des caractéristiques personnelles, ce sont l’âge, la nature de l’infraction ainsi que le nombre d’années d’études qui sont les principaux prédicteurs de l’effet causal. Pour ce qui est du LS/CMI, seulement certaines sections du questionnaire ont un vrai pouvoir prédictif alors que d’autres, comme celle sur les loisirs, n’en ont pas. À la lumière de nos résultats, nous croyons qu’un instrument plus performant étant capable de prédire la récidive peut être créé en focalisant sur les variables ayant le plus grand pouvoir prédictif. Ces avancées permettront de mieux conseiller les prisonniers sur les programmes qu’ils devraient suivre lors de leur prise en charge par les centres de détention, et ainsi augmenter leurs chances d’être mieux réintégrés en société. / In this master thesis, we tried to determine the real influence of social rehabilitation programs on the risk of recidivism. To do this, we used a machine learning algorithm to analyze a database provided by the Quebec Ministry of Public Security (MSP). In this database, we are able to follow the numerous incarcerations of 97,140 prisoners from 2006 to 2018. Our analysis focuses only on inmates who have served in the prison in Quebec City. The approach we used is named Generalized Random Forests (GRF) and was developed by Athey et al. (2019). Our main analysis focuses not only on the characteristics of the prisoners, but also on the results they obtained when they were subjected to the LS/CMI, an extensive questionnaire aimed at determining the criminogenic needs and the risk level of the inmates . We also determined which variables have the most influence on predicting the treatment effect by using a function of the same algorithm that calculates the relative importance of each of the variables to make a prediction. By comparing participants and non-participants, we were able to demonstrate that participating in a program reduces the risk of recidivism by approximately 6.9% for a two-year trial period. Participating in a program always reduces significantly recidivism no matter the definition of recidivism used. We also determined that in terms of personal characteristics, it is the age, the nature of the offence and the number of years of study that are the main predictors for the individual causal effects. As for the LS/CMI, only a few sections of the questionnaire have real predictive power while others, like the one about leisure, do not. In light of our results, we believe that a more efficient instrument capable of predicting recidivism can be created by focusing on the newly identified variables with the greatest predictive power. A better instrument will make it possible to provide better counselling to prisoners on the programs they should follow, and thus increase their chances of being fully rehabilitated.
442

Résolution des problèmes de tournées de véhicules pour le transport des échantillons biomédicaux au Québec

Chabot, Thomas 23 April 2018 (has links)
Afin d’offrir un service de diagnostic fiable à l’ensemble de la communauté, les spécialistes de la santé doivent user d’un réseau de centres de prélèvement et de laboratoires d’analyse biomédical. Les laboratoires ont des équipements de pointe servant à fournir aux spécialistes les informations sur les diagnostics. Ce travail présente un riche problème de planification de tournées de véhicules dans le contexte du réseau des laboratoires du Québec. Les centres de prélèvement sont soumis à un ensemble de contraintes techniques qui en font un problème difficile à résoudre. En effet, nous verrons qu’un ensemble d’exigences doit être respecté de la part des transporteurs afin d’éviter certaines sources de gaspillage. Dans le cadre d’une démarche d’optimisation des opérations du réseau des laboratoires et de l’offre de service aux patients, le Ministère de la Santé et des Services Sociaux (MSSS) a mandaté l’Université Laval et notre équipe pour le développement d’une méthode de planification du transport. Nous présentons d’abord une description en profondeur du contexte étudié et de la problématique de transport, qui par notre revue de littérature, semble encore un problème peu exploré. Deux modèles d’optimisation mathématiques sont proposés ainsi que des méthodes heuristiques afin d’identifier des plans de transport qui minimisent les coûts de transport. Les performances de ces diverses méthodes sont discutées et analysées en détail.
443

Frictions financières : théories et évidences

Manadir, Abdellah 24 April 2018 (has links)
Cette thèse évalue la contribution de deux types de frictions financières à améliorer la capacité des modèles dynamiques stochastiques d'équilibre général (DSGE) de type néo-keynésien à répliquer les cycles économiques, et la capacité des modèles hybrides (DSGE-VAR) à mieux prévoir les aggrégats macroéconomiques. Motivé par un problème de Costly State Verification à la Bernanke et al. [1999] affectant les contrats de dette, le premier type de friction financière induit un écart entre le rendement attendu du capital et le taux sans risque, écart qui dépend du ratio de levier entrepreneurial. Le deuxième type de friction, justifié par un problème de Costly Enforcement à la Gertler and Karadi [2011], induit quant à lui un écart entre le rendement attendu du capital et le taux sans risque qui dépend du changement dans le ratio de levier. Le premier chapitre de la thèse estime trois versions du modèle macroéconomique de Smets and Wouters [2003, 2007] à l'aide de l'approche bayésienne. La première version, utilisée comme point de comparaison, considère les marchés financiers comme un voile et ne contient pas de friction financière. La deuxième version incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre utilise ensuite les résultats d'estimation pour répondre aux deux questions suivantes : (i) Est-ce que les modèles avec frictions financières sont plus compatibles avec les données macroéconomiques des États-Unis que ceux qui font abstraction de ces frictions ? Si c'est le cas, (ii) quel type de friction financière est plus compatible avec ces mêmes données ? Les résultats d'estimation mettent en évidence les points suivants. Premièrement, l'ajout des frictions financières améliore l'ajustement du modèle néo-keynésien aux données. Ces améliorations semblent être marginales et non robustes, dans le cas du problème de Costly State Verification, tandis qu'elles sont substantielles et robustes dans le cas du problème de Costly Enforcement. Deuxièment, estimer l'élasticité de la prime du risque au ratio de levier entrepreneurial, plutôt que la calibrer à une valeur commune utilisée dans la littérature, induit une amélioration subtancielle de la performance du modèle à la Bernanke et al. [1999]. Ceci suggère que cette élasticité devrait être révisée (à la baisse) par rapport à la position à priori prise dans la littérature. Le deuxième chapitre de la thèse estime trois versions du modèle de Smets and Wouters [2003, 2007] à l'aide de la méthodologie bayésienne, et ceci pour l'économie des États-Unis et pour celle de la zone Euro. La première version, servant du modèle de base, considère les marchés financiers comme un voile et n'incorpore pas de friction financière. La deuxième version lève le voile sur les marchés financiers et incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Les trois versions accordent une attention particulière aux tendances de long terme reflétées dans les données et considèrent donc un processus déterministe de la technologie, qui accroit la productivité des heures de travail. Par la suite, ce chapitre emploie les résultats d'estimation pour répondre aux deux questions suivantes. (i) Est-ce que l'importance des frictions financières est différente dans l'économie des États-Unis et dans celle de la zone Euro ? Si c'est le cas, (ii) quels facteurs peuvent expliquer cette différence ? Les résultats obtenus mentionnent les points suivants. D'abord, la friction de type Costly State Verification à la Bernanke et al. [1999] est plus importante dans l'économie de la zone euro que dans celle des États-Unis. Par contre, la friction de type Costly Enforcement à la Gertler and Karadi [2011] n'est pas importante ni dans l'économie de la zone Euro, ni dans l'économie des États-Unis. Ensuite, l'importance relativement élevée de la friction dans l'économie de la zone Euro peut être expliquée par l'élasticité élevée de la prime du risque au ratio de levier dans cette économie. Finalement, le troisième chapitre de la thèse développe trois types d'information à priori pour un modèle vectoriel auto-régressif, et ce à partir d'un modèle néo-keynésien DSGE sans friction financière, d'un modèle incorporant la friction de type Costly State Verification à la Bernanke et al. [1999] et d'un modèle incluant la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre compare ensuite la performance prévisionnelle des trois modèles hybrides (DSGE-VAR) pour répondre à la question suivante : Jusqu'à quel point l'introduction des structures (frictions) financières améliore-t-elle les prévisions d'un modèle hybride DSGEVAR? Les résultats obtenus indiquent que les modèles DSGE-VAR incluant des frictions financières ne semblent pas performer mieux que les modèles DSGE-VAR standard. / This thesis assesses the extent to which two types of financial frictions contribute to the ability of New-Keynesian-type-stochastic dynamic general equilibrium models (DSGE) to reproduce business cycles and the ability of hybrid models (DSGE-VAR) to forecast macroeconomic aggregates. The first type of financial friction originates from a problem of Costly State Verification à la Bernanke et al. [1999] and appears in debt contracts. This type of friction implies a wedge between the expected return on capital and the risk-free rate that depends on entrepreneurial leverage, whereas the wedge is absent in models with no frictions. The second type of friction results from a problem of Costly Enforcement à la Gertler and Karadi [2011], which also induces a wedge between the expected return on capital and the risk-free rate, that is now determined by the change in entrepreneurial leverage. The first chapter of thesis estimates three versions of Smets and Wouters [2003, 2007] using a Bayesian approach. Used as a benchmark, the first version considers financial markets as a veil and thus contains no financial friction. The second version incorporates the Costly State Verification-type-friction à la Bernanke et al. [1999], while the third version includes the Costly Enforcement-type-friction à la Gertler and Karadi [2011]. The estimation results are used to answer to following questions: (i) Are models including financial frictions more compatible with U.S. macroeconomic data than those with no frictions? (ii) which types of financial friction are preferred by the data? Our findings indicate that adding financial frictions improves the New-Keynesian model's fit to data, in terms of data marginal density. In the case of Costly Enforcement problem, these improvements are both substantial and robust, while they are marginal and not robust in the case of the Costly State Verification problem. Second, estimating the risk premium elasticity to entrepreneurial leverage, rather than calibrating it to values commonly used in the literature, helps the Bernanke et al. [1999] model version to perform more well. This finding suggests that this elasticity should be revised (downwards), relative to the prior belief established in the literature. The second chapter estimates three versions of Smets and Wouters [2003, 2007] via the Bayesian methodology for both the U.S. and Euro economies. The first version serves as a basic model and considers financial markets as veil, thereby contains no financial frictions. The second version includes a Costly State Verification-type problem à la Bernanke et al. [1999], while the third one incorporates a Costly Enforcement problem à la Gertler and Karadi [2011]. These three versions pay particular attention to long term trends that are present in data and thus incorporate a labour-augmenting technology process. The chapter then uses estimation results to answer to the following questions: (i) Is the importance of financial frictions different in the U.S. economy and in the Euro economy? Then, (ii) which factors can explain this difference? The main results are: First, the Costly State Verification-type-friction à la Bernanke et al. [1999] is more important in the Euro economy than in the U.S. economy, while the Costly Enforcement-type-friction à la Gertler and Karadi [2011] doesn't appear important to the both economies. Second, the relative importance of financial frictions in the Euro area can be explained by the high estimate of the risk premium elasticity to the leverage in the Euro economy. The third chapter of thesis develops three types of prior information for a VAR model, from a New-Keynesian model with no financial friction, a model incorporating a friction of Costly state Verification à la Bernanke et al. [1999] and a model including a friction of Costly Enforcement à la Gertler and Karadi [2011]. This last chapter then compares the three hybrid models (DSGE-VAR) via the root mean squared forecast errors, in order to answer to the following question: To which extent can the presence of financial structures (frictions) improve the forecasting ability of hybrid model DSGE-VAR? In terms of out-sample forecasts, the results show that the hybrid models with no financial frictions perform as well as those with frictions.
444

Trois essais sur le contenu informatif de la distribution des rendements implicite aux prix des options = : Three essays on the informative content of the option-implied return distribution / Three essays on the informative content of the option-implied return distribution

Toupin, Dominique 31 January 2021 (has links)
Chapitre 1 - Prévoir les rendements internationaux à l'aide de mesures de risque implicites aux options Ce chapitre examine la prévisibilité des rendements d’indices internationaux à l'aide d'informations quotidiennes en utilisant des régressions prédictives et de la prévision hors échantillon. Nous documentons le pouvoir prédictif significatif de la prime de risque de variance (VRP), de la mesure de risque généralisé (GR) et des moments d'ordre supérieur pour des horizons allant de 1 à 250 jours. Ces quatre mesures de risque, qui saisissent les «craintes» cumulatives du marché, fonctionnent bien aux États-Unis et à l'étranger. VRP et GR sont des prédicteurs significatifs et complémentaires pour plusieurs horizons, y compris ceux inférieurs à un mois (VRP) ainsi que des horizons plus lointains (GR). L'asymétrie et la kurtose sont significatifs pour plusieurs pays à travers de multiples horizons. Les calculs des gains d'utilité confirment l'importance économique de ces variables à l'échelle internationale. Chapitre 2 - Prévision de la volatilité des indices boursiers à l'aide de distributions récupérées à l’aide du théorème de Ross Le théorème de récupération montre que les données d’options peuvent révéler les véritables attentes du marché. Nous adaptons cette approche aux données d'options sur indices internationaux (S&P500, FTSE, CAC, SMI et DAX) et séparons la volatilité implicite en volatilité attendue récupérée par Ross et un proxy relié aux préférences des investisseurs pour le risque. Nous étudions les performances de prévision de la volatilité de ces variables, construites au niveau national et international. Les résultats montrent que les prévisions sont significativement améliorées et celles-ci fournissent de nouvelles informations sur la dynamique internationale des attentes et des préférences en matière de risque. Pour tous les indices, les modèles utilisant des mesures globales de Ross sont les plus performantes. Les résultats suggèrent que le théorème de récupération est empiriquement utile. Chapitre 3 - Le facteur d’escompte stochastique contemporain Ce chapitre étudie le facteur d’escompte stochastique contemporain obtenu en appliquant le théorème de récupération aux options de l'indice S&P500. Comme pour la littérature existante sur le casse-tête du facteur d’escompte stochastique, je trouve que les facteurs récupérés sont en forme de U, mais seulement une partie du temps. Les différentes formes observées pour les facteurs d’escompte stochastique semblent être regroupées dans le temps, ce qui indique qu'elles sont une véritable caractéristique des préférences face au risque et non pas seulement un artefact créé par des estimations bruyantes. Bien que les facteurs contemporains récupérés ne puissent pas prédire de manière significative les rendements futurs réalisés sur l'ensemble de la distribution, c’est possible pour les 3 premiers quartiles. Un praticien ayant besoin d'une mesure instantanée du risque de perte pourrait donc utiliser le théorème de Ross. / Chapter 1 - The sum of all fears: forecasting international returns using option-implied risk measures This chapter investigates international index return predictability using daily-updated option-implied information in predictive regressions and out-of-sample forecasts. We document the significant predictive power of the variance risk premium (VRP), Generalized Riskiness (GR), and higher-order moments for horizons ranging from 1 to 250 days. These four risk metrics, which capture cumulative market “fears”, perform well in the US and internationally. VRP and GR are significant and complementary predictors for several horizons, including under one month (VRP) and longer horizons (GR). Risk-neutral skewness and kurtosis are significant for several countries across multiple horizons. Utility gain calculations confirm the economic significance of these riskneutral variables internationally. Chapter 2 - Forecasting market index volatility using Ross-recovered distributions The recovery theorem shows that option data can reveal the market’s true (physical) expectations. We adapt this approach to international index options data (S&P500, FTSE, CAC, SMI, and DAX) and separate implied volatility into Ross-recovered expected volatility and a risk preference proxy. We investigate the volatility forecasting performance of these variables, constructed domestically or globally. The results show evidence of significantly improved forecasts, and yield new insights on the international dynamics of risk expectations and preferences. Across indices, models using Ross-recovered, value-weighted global measures of risk preferences perform best. The findings suggest that the recovery theorem is empirically useful. Chapter 3 – The contemporaneous pricing kernel This chapter investigates the contemporaneous pricing kernel obtained by applying the recovery theorem to options on the S&P500 index. Similarly to the literature on the pricing kernel puzzle, I find evidence that the recovered pricing kernels are U-shape, but only some of the time. The different shapes observed for the recovered kernels appear to be clustered in time, indicating that they are a genuine feature of risk preferences and not just an artifact created by noisy pricing kernel estimates. Although the recovered contemporaneous kernels cannot significantly predict future realized returns over the whole distribution, they are successful for the first 3 quartiles. A practitioner needing an instantaneous measure of downside risk could therefore obtain such information by applying the recovery theorem to options data.
445

Résolution du problème d'allocation optimale de ressources multiples à l'aide d'un algorithme génétique

Ben Jabeur, Marouene 16 April 2018 (has links)
Les opérations de recherche et de sauvetage font partie des activités humanitaires que le gouvernement canadien offre. Ces opérations doivent être mises à la disposition de tous les vols aériens dans un espace de plus de vingt millions de kilomètres carrés et de tous les bateaux naviguant dans les eaux maritimes du gouvernement fédéral dont les océans, le fleuve Saint-Laurent et les Grands Lacs. L'ultime objectif que se fixe le gouvernement canadien en mettant à l'oeuvre ce genre d'opérations consiste à "prévenir les pertes de vie et les blessures en utilisant les ressources privées et publiques pour alerter, répondre et aider dans les situations de détresse". Leur travail, humanitaire, consiste à trouver un objet perdu dans les meilleurs délais afin de ne pas risquer de perdre des vies. Ce but pourrait être atteint si l'on arrive à trouver un moyen d'affecter d'une manière optimale les ressources dont on dispose à des secteurs sur lesquels les opérations de recherche vont être effectuées. L'objectif de nos travaux est d'examiner de plus près et d'essayer de résoudre le problème d'allocation de ressources multiples que vivent les centres de coordination des opérations de recherche et de sauvetage. Ce problème se résume à mettre en place un plan d'affectation des ressources à des zones de recherche permettant de maximiser l'efficience de leurs utilisations et d'augmenter les chances de trouver des survivants en peu de temps. Pour ce faire, nous définissons un algorithme génétique capable de trouver une solution au problème à résoudre. Ensuite, nous adapterons la solution proposée afin de prendre en charge et manipuler les contraintes imposées par le problème. Lors de nos expérimentations, nous avons cherché à améliorer la performance et l'efficacité de notre algorithme en y introduisant plusieurs méthodes basées sur le principe de la satisfaction des contraintes. Notre bilan nous indique que nos meilleurs résultats sont obtenus en mettant en place un algorithme génétique dont le fonctionnement des opérateurs de reproduction ne tolère aucune violation de contraintes. En les comparant à ceux obtenus en résolvant le problème par l'approche d'optimisation combinatoire, nous avons constaté qu'on n'a pas pu égaler le niveau de succès atteint. Ceci est dû à l'aspect aléatoire sur lequel les algorithmes génétiques se basent pour parcourir l'espace de recherche, sélectionner et améliorer une solution.
446

Comparaison de méthodes d'imputation de données manquantes dans un contexte de modèles d'apprentissage statistique

Bouchard, Simon 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 6 juin 2023) / Le sujet de ce mémoire concerne l'utilisation de données incomplètes qui sont utilisées à des fins d'apprentissage statistique, dans un contexte où une méthode de traitement des données manquantes a été appliquée aux données. La problématique motivant ce travail est la prédiction de l'abandon scolaire chez les étudiants collégiaux. La caractéristique principale de la non-réponse au sein de ces données est que les étudiants ayant le statut d'immigrant ont une non-réponse quasi complète pour certaines variables. À partir d'une étude de simulation répliquant le comportement des données collégiales, différentes méthodes d'imputation sont utilisées sur des jeux de données ayant différentes configurations de non-réponse. Ces données imputées sont ensuite utilisées pour entraîner des modèles d'apprentissage statistique afin d'en évaluer les performances. À partir des résultats de cette étude de simulation, les combinaisons de méthodes d'imputation et de modèles d'apprentissage statistique ayant le mieux performé au niveau des prédictions sont appliquées aux données collégiales afin de déterminer quelles méthodes d'imputation permettent d'obtenir les meilleures performances prédictives. / This thesis deals with the use of incomplete data, to which a missing data treatment has been applied, in a statistical learning problem. The issue motivating this project is the prediction of school dropout among college students. The main characteristic of non-response in these data is that students with immigrant status have non-response for almost all the variables. Based on a simulation study replicating the behavior of college data, different imputation methods are applied on datasets with different nonresponse patterns. The imputed data are then used to train statistical learning models and to evaluate their performance. Based on the results of the simulation study, the best-performing combinations of imputation methods and statistical learning models are applied to college data.
447

Modélisation de la survie relative : application aux accidents vasculaires cérébraux

Castonguay, Ève-Marie 11 April 2018 (has links)
La survie relative est définie comme le rapport entre la survie observée dans un groupe de sujets atteints d'une certaine maladie et la survie attendue pour un groupe comparable de la population générale, formé de sujets non atteints de la maladie. L'objectif de ce mémoire est de comparer différentes méthodes d'estimation de la survie relative. Un survol des principales méthodes de calcul de la survie observée et de la survie attendue est d'abord proposé. Vient ensuite une comparaison mathématique de plusieurs approches de modélisation de la survie relative, toutes basées sur la maximisation de la vraisemblance. Enfin, une comparaison pratique des approches de modélisation est suggérée. Celle-ci est basée sur les données d'une étude de type populationnel sur les accidents vasculaires cérébraux.
448

Physical internet enabled transit centers : business modeling and profitability assessment

Oktaei, Parnian 23 April 2018 (has links)
Dans cette recherche, la modélisation d'affaires des centres de transit de l'Internet physique (PI, π) est étudiée dans le but d'aider les gestionnaires de la logistique, les analystes d'affaires et les investisseurs potentiels à avoir une analyse profonde et rapide des principaux aspects d'affaires de ces unités d'affaires. La première partie de cette étude examine les aspects critiques de conception de l'entreprise qu’est un π-transit. Pour atteindre cet objectif, le canevas de modèle d’affaires proposé par Osterwalder et Pigneur (2010) est utilisé pour développer un modèle d'affaires pour cette composante spécifique de l'Internet Physique. La deuxième partie de cette recherche étudie l'effet de l'emplacement sur le modèle d'affaires du π-transit. Un cadre conceptuel est élaboré pour identifier les différents composants affectant le modèle d'affaires d'un π-transit, chacun étant divisé en éléments particuliers. L'impact de la localisation d’un π-transit sur son modèle d'affaires est analysé pour chaque élément à travers un ensemble d'indicateurs. Le modèle est ensuite appliqué pour analyser l'environnement d’affaires pour des sites situés dans les régions métropolitaines. La dernière partie de la recherche étudie l'effet d'un ensemble de facteurs de localisation sur le profit potentiel d’un π-transit. Un modèle analytique est développé et validé par le biais de corrélations et de régressions étant donné un ensemble de données empiriques d’une expérience de simulation à grande échelle. / In this research, the business modeling of Physical Internet (PI, π) enabled transit centers is investigated with the goal of helping logistics managers, business analysts and potential investors to have a deep and quick scan over the key business aspects of these business units. The first part of this research investigates critical business aspects of π-transit related to its specific design. To reach this goal, the Business Model Canvas proposed by Osterwalder and Pigneur (2010) is used to develop a business model for this specific Physical Internet component. The second part of this research investigates the effect of location on the π-transit business model. A conceptual framework is elaborated to identify the various components affecting a π-transit’s business model, each one being divided into elements. The impact of location on the business model is analyzed for each element through a set of indicators. The framework is then applied for analyzing the business environment of sites located in metropolitan areas. The last part of the research investigates the effect of a set of location factors on the potential for profitability of π-transits. An analytical model is developed and validated through correlation and regression analyses using data from a large-scale simulation experiment.
449

Relevés lumineux tridimensionnels en architecture : $b la numérisation laser LiDAR pour modéliser et visualiser les ambiances lumineuses d'espaces réels

Rodrigue, Myriam 24 May 2019 (has links)
Ce mémoire de maîtrise propose la numérisation laser tridimensionnelle LiDARcomme nouvelle méthode d'étude et de visualisation de l'éclairage naturel dans des environnements réels pour architectes et designers. Elle constitue un complément aux méthodes d'éclairage actuelles car elle répond aux limites de la méthode de mesure de l'éclairement, de la simulation numérique et de l'imagerie à haute dynamique(HDR)en ce qui concerne le relevé et la représentation des patterns lumineux. Il présente une étude de cas pour déterminer les avantages et les limites de la numérisation laser 3D dans une vaste cafétéria à éclairage naturel et artificiel, vaste, géométriquement complexe et fragmentée. Les patterns lumineuxet la géométrie del'espace sont capturés par un appareil à balayage laser 3D à travers une série de quatre numérisations. Les numérisations sont alignées et fusionnées pour former un seul modèle 3D de l'espace entier. Les patterns lumineuxsont présentés en relation avec la matérialité, la géométrie et la position des fenêtres, des murs, des appareils d'éclairage et des sources d'éclairage et présentés sous forme d'images semblables à des dessins de présentation architecturaux. Plus précisément, les patterns lumineuxsont illustrés dans un plan d'étage, un plan de plafond réfléchi, une axonométrie et une coupe transversale. La méthode fournit des résultats de visualisation percutants. Elle facilite leur compréhension des patterns lumineux, car un nombre illimité d'images peut être généré à partir d'un nuage de points. L'exactitude de la méthode de relevé des espaces éclairés naturellement estégalementvérifié pour desespacesrelevésen une et plusieurs numérisations en comparant les patterns lumineux des imageries HDR et des nuages de points. De plus, le mémoire explore le potentiel de la numérisation laser tridimensionnelle comme méthode pour simuler de nouvelles ambiances lumineuses dans des espaces existants. / This master thesisproposesLiDARtridimensional laser scanning as a new daylighting enquiry and visualization method for real built environments for architects and designers. It constitutes a complement to actual lighting methods because it responds to the limitations of the illuminance measuring method, computer simulation and high dynamic rangeimagery concerning the survey and representation of lighting patterns. It presents a case study to determine the advantages and limitations of 3D laser scanning in a vast, geometrically complex and fragmented naturally and artificially lit cafeteria. Lighting patterns and the geometry of the space are captured with a 3D laser scanner through a series of four scans. The scans are aligned and fused to form a single 3D model of the entire space. The lighting distribution patterns are showcased in relation to the materiality, geometry and position of windows, walls, lighting fixtures and the lighting sources and presented through images similar to architectural presentation drawings. More precisely, the lighting distribution patterns are illustrated in a floor plan, a reflected ceiling plan, an axonometry and a cross-section. The method provides powerful visualization results and facilitates their understanding as an unlimited number of images can be generated from a point cloud.The precision of the method for surveying daylit environments surveyed through one and several scans is also verified by comparing lighting patterns between HDR and point cloud imageries. Moreover, it explores tridimensional laser scanning as a method for rendering new lighting ambiances in existing spaces.
450

Predictive representations for sequential decision making under uncertainty

Boularias, Abdeslam 17 April 2018 (has links)
La prise de décision est un problème omniprésent qui survient dés qu'on fait face à plusieurs choix possibles. Ce problème est d'autant plus complexe lorsque les décisions, ou les actions, doivent être prise d'une manière séquentielle. En effet, l'exécution d'une action à un moment donné entraîne un changement à l'environnement, ou au système qu'on veut contrôler, et un tel changement ne peut pas être prévu avec certitude. Le but d'un processus de prise de décision consiste alors à choisir des actions en vue de se comporter d'une manière optimale dans un environnement incertain. Afin d'y parvenir, l'environnement est souvent modélisé comme un système dynamique à plusieurs états, et les actions sont choisies d'une telle manière à ramener le système vers un état désirable. Dans le cadre de cette thèse, nous avons proposé un ensemble de modèles stochastiques et d'algorithmes, afin d'améliorer la qualité du processus de prise de décision sous l'incertain. Les modèles développés sont une alternative aux Processus Décisionnels de Markov (MDPs), un cadre formel largement utilisé pour ce genre de problèmes. En particulier, nous avons montré que l'état d'un système dynamique peut être représenté d'une manière plus concise lorsqu'il est décrit en termes de prédictions de certains événements dans le futur. Nous avons aussi montré que le processus cognitif même du choix d'actions, appelé politique, peut être vu comme un système dynamique. Partant de cette observation, nous avons proposé une panoplie d'algorithmes, tous basés sur des représentations prédictives de politiques, pour résoudre différents problèmes de prise de décision, tels que la panification décentralisée, l'apprentissage par renforcement, ou bien encore l'apprentissage par imitation. Nous avons montré analytiquement et empiriquement que les approches proposées mènent à des réductions de la complexité de calcul et à une amélioration de la qualité des solutions par rapport aux approches d'apprentissage et de planification standards.

Page generated in 0.0895 seconds