Spelling suggestions: "subject:"paramétrique"" "subject:"paramétriques""
201 |
Analyse de la durée de transition École-travail des diplômés universitaires canadiens de 1995Bélair, Éric 04 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Le présent mémoire a pour objectif d'analyser le processus de transition école-travail de récents diplômés universitaires canadiens. A l'aide des données de l’Enquête nationale de 1997 auprès des diplômés de 1995, les facteurs qui favorisent une transition réussie vers le marché du travail seront dégagés. Plus spécifiquement, les déterminants de la durée de transition vers un premier vrai emploi d'un diplômé universitaire canadien seront examinés. Suite à un survol de la littérature sur l'accumulation du capital humain et les transitions école-travail, l'étude se concentre plus particulièrement sur l'analyse de la durée de transition pour les « nouveaux entrants ». Pour ce faire, diverses modélisations de la durée de transition vers le premier emploi sont étudiées. Ces modélisations ont pour fondement l'application de fonctions de survie et de hasard à l'analyse de variables de durée. Dans cette étude, nous poussons plus loin l'analyse de Betts, Ferrall et Fiimie (2000) de la durée de transition vers le premier emploi des diplômés universitaires canadiens en utilisant des méthodes paramétriques et en portant une attention particulière à l'analyse des durées par domaine d'études. Les résultats nous apprennent notamment que les diplômés universitaires masculins réussissent à trouver leur premier « vrai » emploi plus rapidement que les femmes. Les détenteurs d'un doctorat et les étudiants de certains domaines d'études comme l'administration, le génie et la santé sont également plus susceptibles de trouver un emploi rapidement après l'obtention de leur diplôme. Par contre, les programmes généraux d'études en arts en sciences, les beaux-arts et les sciences humaines n'offrent pas la même probabilité de succès. L'analyse nous apprend également que la durée de transition varie sensiblement d'une province à l'autre. L'information tirée de telles analyses de durée pourrait s'avérer très utile dans le choix du domaine d'études et du niveau de scolarité des personnes désirant poursuivre des études universitaires.
|
202 |
Efficience de la recherche dans les écoles de gestion au Canada : modélisation par des approches paramétriques et non-paramétriquesRhaiem, Mehdi 23 August 2019 (has links)
La production des connaissances revêt une grande valeur pour les gouvernements, les universités et les chercheurs. Pour ces derniers, aujourd’hui plus que jamais, la recherche prend de plus en plus d’importance dans leurs portefeuilles d’activités. Plusieurs facteurs motivent cette nouvelle tendance, notamment l’adoption, dans plusieurs pays, de systèmes de financement de la recherche axée sur la productivité, la concurrence en matière de recherche qui est devenue mondiale, la prolifération des outils uniformisés de mesure de l’excellence scientifique, et l’importance de la performance et de la productivité en recherche dans la réussite de la trajectoire de carrière des chercheurs. Cependant, la performance des chercheurs universitaires est très variable, tant entre les disciplines qu’au sein d’une même discipline. Ces constats renforcent la pertinence de questionner l’allocation et la gestion des ressources dans le domaine de la recherche universitaire. La présente étude s’attaque à cette problématique dans le cadre spécifique de la recherche dans les Écoles de gestion au Canada. Son objectif général est, d’une part, de dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies et, d’autre part, d’évaluer l’efficience en matière de publications et de citations des chercheurs dans les Écoles de gestion au Canada et d’identifier les déterminants susceptibles d’expliquer les écarts d’efficience entre eux. La thèse est structurée en trois articles. Le premier article a préconisé la méthode de la revue systématique de la littérature et celle du « vote counting » pour édifier un cadre conceptuel intégrateur des intrants, des extrants et des déterminants de l’efficience de la recherche académique. Il a également permis d’identifier plusieurs opportunités de recherche pour contribuer à l’avancement des connaissances dans ce champ d’étude. Le deuxième article a utilisé une nouvelle méthode, « The Reference Publication Year Spectroscopy » pour étudier en profondeur le concept de l’efficience de la recherche académique en identifiant ses racines historiques ainsi que les contributions qui ont conditionné son évolution. Ces deux premiers articles ont permis de satisfaire à la première partie de l’objectif général de cette recherche : « dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies ». Tirant profit des constats et des contributions potentielles à l’avancement des connaissances identifiés dans les deux premiers articles, le troisième article de la thèse a estimé des frontières paramétriques et nonparamétriques de l’efficience en matière de publications et de citations des chercheurs dans huit disciplines de recherche dans les Écoles de gestion au Canada. Il a également identifié plusieurs déterminants des écarts d’efficience entre les chercheurs affiliés à ces Écoles. Entre autres, les résultats de ce troisième article ont montré que les niveaux d’efficience diffèrent d’une manière significative d’un champ disciplinaire à un autre, et au sein même des champs disciplinaires, et que l'accréditation AACSB, l'affiliation à des universités prestigieuses, la taille de l'institution, les sources de financement et la séniorité sont positivement associées à des niveaux d’efficience élevés. Les résultats des trois articles ont permis de suggérer quelques pistes de réflexion et d’intervention pouvant améliorer l’efficience de la recherche académique des chercheurs en général, et de ceux affiliés aux Écoles de gestion au Canada, en particulier. / The production of knowledge is of great importance to governments, universities and researchers. For the latter, today more than ever, research is becoming more and more important in their portfolios of activities. A number of factors are driving this new trend, including the introduction of productivity-driven research funding systems in a number of countries, global competition for research, the proliferation of standardized tools for assessing scientific excellence, and the importance of research performance and productivity in researchers’ career path success. However, the performance of university researchers varies greatly between disciplines and within the same discipline. These findings reinforce the relevance of questioning the allocation and management of resources in the field of university research. This study addresses this issue in the specific context of research in Canadian Business Schools. Its aims, on the one hand, to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades and, on the other hand, to evaluate the efficiency of academic research of Canadian Business Schools’ scholars and to identify the determinants that may explain the differences in efficiency between them. The thesis allowed the production of three articles. The first one used the systematic review of the literature and the method of vote counting to build an integrative conceptual framework of inputs, outputs, and determinants of the efficiency of academic research. It has also identified several research opportunities to contribute to the advancement of knowledge in this field of study. The second article used a new method, The Reference Publication Year Spectroscopy, to study in depth the concept of the efficiency of academic research by identifying its historical roots as well as the contributions that marked its evolution. These first two articles made it possible to satisfy the first part of the general objective of this research: “to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades”. Taking advantage of the findings and potential contributions to the advancement of knowledge identified in the first two articles, the third article estimated parametric and non-parametric frontiers of efficiency of scholars’ publications and citations in eight research disciplines in Canadian Business schools. It also allowed to identify several levers of efficiency gaps among researchers affiliated with these schools. Among other things, the results of this third article showed that efficiency scores differ significantly from one disciplinary field to another, and even within disciplinary fields, and that AACSB accreditation, affiliation to prestigious universities, size of institution, sources of funding and seniority are positively associated with high levels of efficiency. The findings of the three articles devised some lines of action that might improve the efficiency of academic research for researchers in general and those affiliated with Canadian Business schools, in particular.
|
203 |
La régression non paramétrique multidimensionnelle. Théorie et application à une étude portant sur la densité mammaireVandal, Nathalie 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / La régression non paramétrique est un outil statistique permettant de décrire la relation entre une variable dépendante et une ou plusieurs variables explicatives, sans spécifier de forme stricte pour cette relation. Dans ce mémoire, on présente d'abord la théorie entourant la régression non paramétrique univariée ainsi que différentes méthodes d'estimation, en mettant l'accent sur les fonctions de lissage loess et les splines de régression. On traite ensuite de l'ajustement de relations multidimensionnelles, en s'intéressant plus particulièrement aux méthodes GAM, polyMARS et MARS. On ap- plique finalement ces dernières à une étude portant sur la relation entre la densité mammaire et deux facteurs de croissance analogues à l'insuline, IGF-I et IGFBP-3, ce qui permet de mettre en évidence les avantages de la régression non paramétrique, mais aussi les difficultés rencontrées lors de son application.
|
204 |
Modélisation du procédé d'ozonation lors de la potabilisation des eaux - Application au contrôle des sous-produits de désinfection: du laboratoire à l'unité industrielleMandel, Pierre 08 September 2010 (has links) (PDF)
Afin de gérer au mieux le pilotage des unités d'ozonation lors de la potabilisation des eaux, un modèle prédictif a été développé. L'objectif du modèle était de pouvoir prédire, sur une installation industrielle, les concentrations en ozone, en bromates et en différents micropolluants. Le modèle chimique proposé est mécanistique et peut être subdivisé en plusieurs parties : auto-décomposition de l'ozone, influence de l'alcalinité, formation de bromates, influence de la MON (Matière Organique Naturelle). Le modèle d'influence de la MON comporte 12 paramètres ajustables, le modèle pour la formation des bromates comporte un paramètre ajustable, les valeurs des autres paramètres sont fixées d'après la littérature. Le modèle hydraulique est de type systémique et comprend des réacteurs idéaux (parfaitement agités et piston). L'identifiabilité du jeu de paramètres a été conduite par une analyse de sensibilité (eFAST). La procédure d'optimisation par méthode de Nelder-Mead a été testée. Le modèle proposé permet de rendre bien compte des variations de temps de contact avec l'ozone, de pH, de température, de concentration de MON, de doses d'ozone sur la décomposition de l'ozone et la génération de radicaux. Les essais sur la formation de bromates ont montré que le modèle donne de bons résultats pour des concentrations inférieures à 20 μg.L-1, ce qui est particulièrement intéressant dans le cas d'une application industrielle. Enfin, une étude sur une unité industrielle a montré que des modèles calibrés en laboratoire (chimie, hydraulique) peuvent être appliqués directement sur site. Le modèle de formation des bromates est néanmoins instable dans le temps et doit être périodiquement réajusté.
|
205 |
Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergencesKabui, Ali 19 September 2012 (has links) (PDF)
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
|
206 |
Génération et caractérisation d'états intriqués en variables continuesKeller, Gaëlle 19 February 2008 (has links) (PDF)
Cette thèse est consacrée à l'étude expérimentale et théorique des corrélations quantiques en variables continues.<br />La question de la caractérisation de ces corrélations est largement abordée, en particulier dans le cas des états gaussiens. Le formalisme mathématique des matrices de covariance, particulièrement adapté à cette étude, est développé ; et les différents critères existants sont répertoriés.<br />Ces critères permettent de caractériser le degré d'intrication des faisceaux générés par le dispositif expérimental au cœur de cette thèse : un Oscillateur Paramétrique Optique auto-verrouillé en phase. Au-dessous du seuil, les faisceaux, de valeur moyenne nulle, présentent une séparabilité de 0,33. Le système viole de manière apparente l'inégalité de Heisenberg de 58%. Au-dessus du seuil, les faisceaux brillants obtenus sont également fortement non classiques : la séparabilité vaut 0,76 et l'inégalité de Heisenberg est violée en apparence de 24%.<br />Une application originale de ce dispositif est proposée : il est montré théoriquement qu'un OPO à deux cristaux auto-verrouillé en phase génère deux faisceaux intriqués en polarisation, ce qui devrait faciliter le transfert de l'intrication de la lumière à la matière.
|
207 |
Télé-opération avec retour d'effort pour la chirugie mini-invasiveZarrad, Walid 19 December 2007 (has links) (PDF)
Ces travaux de thèse s'inscrivent dans le cadre de l'assistance robotique pour la chirurgie mini-invasive télé-opérée. L'une des principales limitations des systèmes existants concerne l'absence de restitution des efforts au chirurgien lorsqu'il télé-opère le robot. Ainsi, un système de télé-opération avec retour d'effort est proposé. Il est basé sur une architecture position - position avec une commande en effort du robot esclave. Cette dernière utilise un découplage non-linéaire du robot ainsi que des techniques d'observation et de commande par retour d'état. Des validations expérimentales ont montré les performances de l'architecture lors d'une télé-opération en espace libre et lors d'interactions avec un environnement de faible rigidité. Une première contribution est l'estimation en ligne de la raideur de l'environnement afin de garantir la stabilité du système lors d'interactions avec un environnement rigide. Cette stratégie utilise un filtre de Kalman étendu qui s'affranchit de la position de repos de l'environnement et qui considère une compensation des erreurs de modélisation du robot esclave. La deuxième contribution est l'étude de la transparence et de la stabilité de l'architecture de télé-opération. Une adaptation des paramètres de commande en fonction de la raideur estimée est proposée en considérant un compromis entre ces deux critères. La structure a été validée expérimentalement en considérant un environnement constitué de tissus ex-vivo. Une dernière contribution est l'adaptation de l'architecture de télé-opération avec retour d'effort aux contraintes imposées par la chirurgie mini-invasive. La première est le passage de l'instrument du robot par le trocart. Une architecture de commande utilisant le principe du découplage tâche - posture est alors proposée. La posture permettant le passage par le trocart est contrôlée en considérant la commande en position d'un robot virtuel attaché à l'instrument du robot télé-opéré. La deuxième contrainte considérée est la compensation des mouvements physiologiques. L'objectif étant d'offrir au chirurgien une stabilisation virtuelle de l'organe. L'approche de commande consiste à atténuer les perturbations dans les efforts appliqués sur un environnement en mouvement. La compensation repose sur une commande référencée modèle qui considère que les perturbations atténuées génèrent un déplacement du robot esclave. Des expérimentations ont montré la pertinence et l'efficacité des stratégies proposées.
|
208 |
Conception robuste en vibration et aéroélasticité des roues aubagées de turbomachinesMbaye, Moustapha 03 November 2009 (has links) (PDF)
Les roues aubagées sont des composants dont le comportement dynamique est très sensible au désaccordage involontaire causé par les tolérances de fabrication qui rendent les aubes légèrement différentes les unes des autres. Cette sensibilité se traduit généralement par une amplification des vibrations. L'objectif de ce travail de recherche est de proposer de nouvelles méthodologies permettant d'optimiser la conception en vibration des roues aubagées vis à vis du désaccordage involontaire. L'optimisation est faite pour la réponse forcée et sous une contrainte de marge à la stabilité aéroélastique. Dans ce contexte, le désaccordage intentionnel par modification géométrique des aubes est utilisé. Pour réduire les temps de calcul, une nouvelle méthode de réduction de modèles de roues aubagées désaccordées intentionnellement par modification géométrique est développée et validée. La modélisation des incertitudes incluant le désaccordage involontaire, est faite avec une approche probabiliste non paramétrique. Une application à l'optimisation de la conception en vibration d'une roue réelle a finalement été effectuée en deux phases : (1) une optimisation de la répartition des différentes aubes désaccordées intentionnellement sur la roue aubagée et (2) une optimisation du niveau de modification géométrique de ces aubes. Les résultats montrent qu'une conception robuste par désaccordage intentionnel de la roue aubagée a été effectuée
|
209 |
Comparaison de méthodes de détection automatique d’intersections sur surfaces paramétriquesLéger, Étienne 12 1900 (has links)
La question de déterminer si un modèle géométrique a des intersections non prévues
est commune à plusieurs domaines : simulations numériques, CAO/DAO, animation,
infographie, etc. C’est un problème dont la complexité varie avec la représentation
choisie pour créer le modèle. Pour les surfaces paramétriques c’est un problème difficile
à résoudre, mais pour lequel plusieurs solutions ont été proposées. Ces solutions diffèrent
les unes des autres dans leurs angles d’approche, leur complexité et la justesse de leurs
résultats. Dans ce mémoire, nous tenterons de comparer certaines de ces méthodes.
Nous nous concentrerons sur les méthodes dites failsafe, c’est-à-dire qui permettent
assurément de détecter la possibilité d’une intersection s’il y en a une. Ces méthodes sont
celles utilisées pour toutes les applications critiques, donc pour lesquelles un modèle mal
formé aurait des conséquences importantes.
Ce mémoire est à teneur principalement théorique. Nous comparerons les méthodes,
dans un premier temps, sur leur puissance de résolution. Nous discuterons, dans un
deuxième temps, de coût calculatoire. Nous avons finalement fait quelques implémenta-
tions pour appuyer nos observations théoriques, mais nous n’avons pas fait une analyse
empirique approfondie des coûts calculatoires. Ceci reste à faire.
Nous verrons entre autre qu’il existe un ordre partiel entre certaines des méthodes,
mais pas toutes. Par exemple, la méthode test-point est strictement plus puissante que
la séparation des enveloppes convexes, mais elle est ni plus ni moins puissante que la
méthode Volino-Thalmann. / The question of determining if a given geometric model has extraneous intersections
is common to many domains: numerical simulation, CAD/CAM, animation, computer
graphics, etc. The complexity of this problem varies with the representation chosen
to generate the model. For parametric surfaces, it is a hard problem, but for which
many solutions have been proposed. Those solutions differ from one another by their
underlying ideas, their complexity and the exactitude of the result they give. In this
thesis, we will try to compare some of these methods. We will concentrate on the class
of methods we call failsafe, the methods that will surely detect the possibility of an
intersection if there is one. Those are the methods used in all critical applications, the
applications in which a malformed model would have important consequences.
The work of this thesis is mostly theoretical. First, we will compare the different
techniques on their power of resolution. Then, we will discuss the execution cost of
the different methods. We did some implementations while working on this thesis, but
only as a way to support our theoretical observations. A complete empirical study of the
execution times of the different methods would be left to do.
We will see that there is a partial order between some of the methods in their strength,
but not all of them. For example, the test-point method is strictly stronger than the
separation of the convex hulls method, but is neither stronger nor weaker than the Volino-
Thalmann method.
|
210 |
Synthèse croisée de régulateurs et d'observateurs pour le contrôle robuste de la machine synchrone / Cross-synthesis of controler and observer parameters for robust control of synchronous driveCarrière, Sébastien 28 May 2010 (has links)
Cette étude se concentre sur la synthèse de lois de commande de servo-entraînements accouplés à une charge flexible à paramètres incertains avec l’unique mesure de la position du moteur. La loi de commande a pour but de minimiser les effets de ces variations tout en gardant la maîtrise d’un cahier des charges de type industriel (temps de réponse, dépassement, simplicité d’implantation et de synthèse). De ce fait, un contrôleur et un observateur sont implantés. Un contrôleur de type retour d’état avec une minimisation d’un critère linéaire quadratique assurant un placement du pôle dominant est associé à un observateur de type Kalman. Ces deux structures utilisent des méthodologies classiques de synthèse : placement de pôles et choix de pondération des matrices de Kalman. Pour ce dernier, deux stratégies sont abordées. La première utilise les matrices de pondération diagonale standard. De nombreux degrés de liberté sont disponibles et donnent de bons résultats. La seconde défini la matrice des bruits d’état avec la variation de la matrice dynamique du système. Le nombre de degrés de liberté est réduit, les résultats restent similaires à la stratégie précédente, mais la synthèse est simplifiée. Ceci permet d’obtenir une méthode n’exigeant que peu d’investissement théorique de la part d’un ingénieur mais non robuste. Pour ceci, la méthode de micro-analyse caractérisant la stabilité robuste est appliquée en parallèle à un algorithme évolutionnaire autorisant une synthèse, plus rapide et plus précise qu’un opérateur humain. Cette méthode complète permet de voir les avantages d’une synthèse croisée de l’observateur et du correcteur au lieu d’une synthèse séparée. En effet, le placement optimal des dynamiques de commande et d’observation dans le cadre des systèmes à paramètres variants ne suit plus une stratégie classique découplée. Ici, les dynamiques se retrouvent couplées voire meme inversées (dynamique de la commande inférieure à celle de l’observateur). Des résultats expérimentaux corroborent les simulations et permettent d’expliquer les effets des observateurs et régulateurs sur le comportement du système. / This thesis is performing a study on the law control synthesis for PMSM direct driving to a load having its mechanical parameters variant. Furthermore, only the motor position is sensored. The control law aim is to minimize the eects of these variations while keeping the performance inside industrial specifications (response time at 5%, overshoot, implementation and synthesis simplicity). As a result, an observer is programmed jointly with a controller. A state feedback controller deduced from a linear quadratic minimization is associated with a Kalman observer. These both structures employ standard method definitions : poles placement and arbitrary weight of Kalman matrices choice. Two definitions strategies are employed for the observer. The first is the classical arbitrary weights choice. A lot of degrees of freedom are accessible and allow this observer to impose a good behaviour to the system. The second defines the system dynamic matrix variation as the state space noise matrix. The number of degrees of freedom decreases dramatically. However the behaviour is kept as well as the previous case. This method is then easy to understand for an engineer, gives good result but non robust in an automatic sense. Consequently, an automatic study on robustness, the micro- analysis, is added to this control definition for theoretically checking. In parallel with the study robustness, an evolutionnary algorithm leads to a quicker and more accurate synthesis than a human operator. Indeed, in the case of systems having variant parameters, the optimal dynamics choice for the controller and the observer is not following the classical way. The dynamics are coupled or even mirrored ( the controller dynamic is slower than the observer one). At the end, experimental results allow to understand the way that observer or controller operate on the system.
|
Page generated in 0.0735 seconds