• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1652
  • 287
  • 162
  • 14
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2309
  • 507
  • 417
  • 386
  • 364
  • 356
  • 246
  • 233
  • 217
  • 208
  • 185
  • 176
  • 170
  • 169
  • 159
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Study on knowledge-based garment design and fit evaluation system / Contribution à la mise en place d’un processus automatique de création de vêtement et d’évaluation de son ajustement à partir d’une base de connaissance métier

Liu, Kaixuan 21 March 2017 (has links)
Le design et le bien aller d’un vêtement joue un rôle majeur pour l’industrie du textile-habillement. Actuellement, il apparait trois inconvénients majeurs dans le processus de création et d’évaluation d’un vêtement : il est très coûteux en temps pour une efficacité moindre, il est subordonné à l’expérience des designers et modélistes, il n’est pas adapté au e-commerce.Afin de résoudre cette problématique, trois concepts à la fois technologiques et mathématiques ont été développées. Le premier s’appuie sur l’outil GFPADT (Garment Flat and Pattern Associated design technology) permettant de créer une correspondance entre le style du vêtement choisi et la morphologie du consommateur. Le second utilise l’interactivité entre deux espaces de conception 2D et 3D intégrée à l’outil 3DIGPMT (3D Interactive Garment Pattern Making Technology). Le dernier appelé MLBGFET (Machine learning-based Garment Fit Evaluation Technology) évalue l’ajustement du vêtement par un apprentissage automatique. Finalement, nous avons fourni des solutions de conception et d'évaluation de vêtements basées sur la connaissance en intégrant ces trois concepts basés sur des technologies clés pour résoudre certains problèmes de conception et de production de vêtements dans les entreprises de mode. / Fashion design and fit evaluation play a very important role in the clothing industry. Garment style and fit directly determine whether a customer buys the garment or not. In order to develop a fit garment, designers and pattern makers should adjust style and pattern many times until the satisfaction of their customers. Currently, the traditional fashion design and fit evaluation have three main shortcomings: 1) very time-consuming and low efficiency, 2) requiring experienced designers, and 3) not suitable for garment e-shopping. In my Ph.D. thesis, we propose three key technologies to improve the current design processes in the clothing industry. The first one is the Garment Flat and Pattern Associated design technology (GFPADT). The second one is the 3D interactive garment pattern making technology (3DIGPMT). The last one is the Machine learning-based Garment Fit Evaluation technology (MLBGFET). Finally, we provide a number of knowledge-based garment design and fit evaluation solutions (processes) by combining the proposed three key technologies to deal with garment design and production issues of fashions companies.
92

Études de fidélité et validation de construit de la Grille d'évaluation de la sécurité à la marche (GEM)

Dubé, François January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
93

Les pratiques évaluatives à l'égard de la compétence d'investigation scientifique et technologique en quatrième secondaire au Québec

Ford, Kyra 08 July 2022 (has links)
Au début des années 2000, alors que le système d'éducation québécois subissait de grands changements avec l'implantation des nouveaux programmes par compétences, les enseignants durent faire preuve d'une grande adaptabilité. Malgré les diverses oppositions, les modifications des pratiques d'enseignement et d'évaluation furent indispensables. Nous nous questionnions donc à savoir, depuis la mise en œuvre de la réforme, quelles sont les pratiques évaluatives déclarées des enseignants de science et technologie au regard de la compétence 1? Plus précisément, nous voulions savoir si l'évaluation de l'investigation scientifique dans le cadre des laboratoires en salle de classe s'aligne réellement avec la démarche évaluative. Pour ce faire, dans une optique descriptive, nous avons mis sur pied un questionnaire autorapporté auquel ont répondu 49 enseignants de science 4e secondaire provenant de 15 régions administratives différentes. Les résultats ont permis de démontrer que les enseignants de science de notre échantillon appliquent en général les recommandations ministérielles, mais que la charge du programme et le manque de temps sont des facteurs déterminants à l'adhésion au programme par compétences. Tout d'abord, il a été déterminé que très peu d’enseignants utilisent la planification à rebours et que très peu d'évaluations permettent aux élèves de faire des choix, de formuler des conjectures, de faire des essais, de partir de leurs propres questions ou de concevoir leur propre protocole. Heureusement, la collecte de données a révélé que les enseignants utilisent davantage l'évaluation formative. De plus, la majorité des enseignants utilisent l'interprétation critériée en comparant les élèves à leurs critères personnels ou aux critères du programme. Les enseignants communiquent alors régulièrement les résultats des évaluations, de même que de la rétroaction, aux élèves et à leurs parents. Malgré tout, il semblerait que le contexte pandémique n'ait influencé que très peu les pratiques évaluatives des enseignants. Finalement, des suggestions à cet effet sont proposées.
94

La valeur des ressources archéologiques dans la Convention du patrimoine mondial de l'UNESCO

Papagiannidis, Christophe January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
95

Les subventions gouvernementales et valeur de la firme

Grimard, Paul 27 March 2024 (has links)
« Il s'agit dans notre recherche de caractériser le phénomène des subventions gouvernementales en vue d'en mesurer l'impact sur la valeur de la firme. Notre démarche nous amènera d'abord à cerner quelque peu la nature des subventions ainsi que ses modalités et caractéristiques économiques puis à formuler et à tester diverses hypothèses reliant l'importance des subventions à la valeur de la firme. L'intervention de l'Etat aux fins d'influencer les décisions d'investissement des entreprises n'est pas un phénomène nouveau. Elle peut se manifester par l'aide directe sous forme de subventions financières, par prises de participation, par nationalisations, etc.. A notre connaissance, les recherches publiées dans le domaine visaient soit à montrer qualitativement ou quantitativement l'importance des subventions, soit à vérifier l'efficacité des moyens mis en oeuvre pour atteindre les objectifs déclarés. Aucune d'entre elles n'aurait abordé le phénomène dans ses effets possibles sur la richesse des actionnaires des firmes subventionnées. Cette omission laisse à penser que l'interprétation de la subvention par le marché boursier ne peut pas apporter d'éclairage valable sur le phénomène. Il nous importera plus loin de vérifier cela. L'adoption de l'optique du marché boursier aux fins de caractériser le phénomène des subventions ne se justifie pas seulement par son originalité. Elle devrait permettre de cerner quelque peu les effets externes de l'obtention d'une subvention et ainsi contribuer à la critique des critères d'attribution actuellement en vigueur et à l'établissement de nouveaux critères. Enfin, et sur un plan plus général, elle devrait fournir une indication sur la nature de l'accueil réservé par les investisseurs à l'intervention directe de l'Etat auprès des entreprises du secteur privé. L'étude est menée en six étapes: Définition d'une subvention gouvernementale, Revue des écrits, Enoncé des hypothèses de travail, Description de la méthodologie, Présentation des données et Analyse des résultats. La conclusion reprend succintement les inférences tirées de l'analyse et indique les avenues de recherche possibles sur le sujet. »--Pages 3-4
96

La participation à l'évaluation : du concept à la mesure

Daigneault, Pierre-Marc 18 April 2018 (has links)
La popularité croissante des approches participatives représente une tendance lourde dans le champ de l’évaluation des politiques. La prolifération des définitions et des termes utilisés pour désigner la participation génère cependant beaucoup de confusion chez les chercheurs et praticiens du domaine. Il n’existe en outre aucun instrument de mesure adéquat de la participation, ce qui freine l’avancement des connaissances. Trois questions de recherche structurent cette thèse : 1) Qu’est-ce que la participation à l’évaluation?; 2) Comment traduire ce concept en un instrument de mesure opérationnel?; et 3) Est-ce que cet instrument mesure la participation de manière fidèle et valide? Une conceptualisation cohérente de l’évaluation participative s’inscrivant dans la foulée des travaux de Cousins et Whitmore (1998) est d’abord proposée. Cette conceptualisation, fondée sur la logique des conditions nécessaires et suffisantes, est opérationnalisée en un instrument de mesure de la participation. L’instrument (Participatory Evaluation Measurement Instrument – PEMI) fait ensuite l’objet d’une validation empirique à partir d’un échantillon de 40 cas d’évaluation tirés de la littérature et d’un sondage auprès de leurs auteurs. Trois éléments sont appréciés quantitativement : 1) la fidélité intercodeur; 2) la convergence des scores des codeurs et des auteurs sur le PEMI; et 3) la convergence des scores des auteurs sur le PEMI et un instrument de mesure alternatif. De manière générale, cette étude suggère que le PEMI génère des scores dont la fidélité et la validité sont d’un niveau acceptable. Troisièmement, une étude de validation du PEMI combinant méthodes qualitatives et quantitatives est présentée. Le recours aux méthodes mixtes a généré un cycle inattendu – mais bénéfique – de révision de l’instrument et de validation quantitative supplémentaire. Les résultats de validation suggèrent que la version révisée du PEMI, désormais fondée sur une structure conceptuelle hybride, est plus en phase avec l’opinion des répondants quant au niveau de participation des cas d’évaluation. La valeur ajoutée des méthodes mixtes à des fins de validation est également discutée. Une réflexion sur le potentiel scientifique de l’instrument de mesure, en particulier dans le cadre de recherches empiriques sur la relation entre participation et utilisation de l’évaluation, vient conclure cette thèse. / The growing popularity of participatory approaches represents an important trend in the field of program evaluation. The proliferation of definitions and terms used to designate stakeholder participation, however, generates a lot of confusion among researchers and practitioners. Moreover, the dearth of adequate instruments to measure participation hinders knowledge accumulation. This dissertation is structured around three research questions: 1) What is stakeholder participation in evaluation? 2) How is this concept translated into an operational measurement instrument? and 3) Does this instrument allow for the reliable and valid measurement of stakeholder participation? A systematic and coherent conceptualization of participatory evaluation is first proposed based on the work of Cousins and Whitmore (1998). This conceptualization, which is based on the logic of necessary and sufficient conditions, is operationalized in a measurement instrument. The instrument (Participatory Evaluation Measurement Instrument – PEMI) is then empirically validated using a sample of 40 evaluation cases from the literature and a survey of their authors. Three elements are quantitatively assessed: 1) intercoder reliability; 2) convergence between coders’ and authors’ scores on the PEMI; and 3) convergence between authors’ scores on the PEMI and an alternative measurement instrument. Considered globally, this study suggests that the PEMI can generate reliable and valid scores. Finally, a validation study combining qualitative and quantitative methods is presented. The use of mixed methods has generated an unexpected but most welcome cycle of instrument revision and further quantitative validation. The validation results suggest that the revised version of the PEMI, now based on a hybrid conceptual structure, is more in line with our respondents’ opinions with respect to the level of stakeholder participation in their particular evaluation case. The added value of mixed methods for validation purposes is also discussed using counterfactual reasoning. Reflections on the scientific and practical potential of the measurement instrument, on the relationship between stakeholder participation and evaluation use in particular, conclude this dissertation.
97

Risk estimation and prediction of cyber attacks

Yermalovich, Pavel 17 February 2021 (has links)
L’utilisation de l’information est étroitement liée à sa sécurité. Le fait d’exploiter des vulnérabilités permet à une tierce personne de compromettre la sécurité d’un système d’information. La modélisation des menaces aide à prévoir les attaques les plus probables visant une infrastructure donnée afin de mieux les contrer. Le projet de recherche proposé « Estimation des risques et prédiction des cyber-attaques » vise la combinaison de différentes techniques de prédiction de cyber-attaques pour mieux protéger un système informatique. Il est nécessaire de trouver les paramètres les plus informatifs, à savoir les marqueurs de prédiction d’attaque, pour créer des fonctions de probabilité d’attaque en fonction de temps. La prédiction d’une attaque est essentielle pour la prévention des risques potentiels. Par conséquent, la prévision des risques contribue beaucoup à l’optimisation de la planification budgétaire de la sécurité de l’information. Ce travail scientifique se concentre sur l’ontologie et les étapes d’une cyber-attaque, ainsi que les principaux représentants du côté attaquant et leur motivation. La réalisation de ce travail scientifique aidera à déterminer, en temps réel, le niveau de risque d’un système d’information afin de le reconfigurer et mieux le protéger. Pour établir le niveau de risque à un intervalle de temps sélectionné dans le futur, il faut effectuer une décomposition mathématique. Pour ce faire, nous devons sélectionner les paramètres du système d’information requis pour les prévisions et leurs données statistiques pour l’évaluation des risques. Néanmoins, le niveau de risque réel peut dépasser l’indicateur établi. N’oublions pas que, parfois, l’analyse des risques prend trop de temps et établit des valeurs de risques déjà dépassées. Dans la réalisation de ce travail scientifique, nous continuerons d’examiner la question de l’obtention de valeurs de risque en temps réel. Pour cela, nous introduirons la méthode automatisée d’analyse des risques, qui aidera à révéler la valeur du risque à tout moment. Cette méthode constitue la base pour prédire la probabilité d’une cyber-attaque ciblée. Le niveau de risque établi permettra d’optimiser le budget de sécurité de l’information et de le redistribuer pour renforcer les zones les plus vulnérables. / The use of information is inextricably linked with its security. The presence of vulnerabilities enables a third party to breach the security of information. Threat modelling helps to identify those infrastructure areas, which would be most likely exposed to attacks. This research project entitled “Risk estimation and prediction of cyber attacks” aims to combine different techniques for predicting cyber attacks to better protect a computer system. It is necessary to find the most informative parameters, namely the attack prediction markers, to create functions of probability of attack as a function of time. The prediction of an attack is essential for the prevention of potential risk. Therefore, risk forecasting contributes a lot to the optimization of the information security budget planing. This scientific work focuses on ontology and stages of a cyberattack, as well as the main representatives of the attacking side and their motivation. Carrying out this scientific work will help determine, in real time, the risk level of an information system in order to reconfigure and better protect it. To establish the risk level at a selected time interval in the future, one has to perform a mathematical decomposition. To do this, we need to select the required information system parameters for the predictions and their statistical data for risk assessment. Nevertheless, the actual risk level may exceed the established indicator. Let us not forget that sometimes, the risk analysis takes too much time and establishes already outdated risk values. In this scientific work, we will continue reviewing the issue of obtaining real-time risk values. For this, we will introduce the automated risk analysis method, which will help to reveal the risk value at any time point. This method forms the basis for predicting the probability of a targeted cyber attack. The established risk level will help to optimize the information security budget and redistribute it to strengthen the most vulnerable areas.
98

Les freins institutionnels et organisationnels à l’intégration de l’évaluation de programmes dans la culture des organisations publiques en Haïti.

Borgella, Pauliana 16 January 2024 (has links)
L’évaluation des programmes a été introduite dans la gestion des programmes publics en Haïti en 1978. Cependant, quatre décennies plus tard, le pays n’a pas fait de progrès significatifs dans son institutionnalisation. Pour comprendre pourquoi, une étude approfondie des obstacles à l’intégration de l’évaluation de programme dans la culture des organisations publiques en Haïti a été entreprise. Cette question est également pertinente pour d’autres pays en développement comme Haïti. L’étude s’est appuyée sur des approches néo-institutionnelles et organisationnelles comme base théorique, et les données ont été collectées par le biais d’une enquête sur le terrain utilisant des méthodes mixtes et des techniques de triangulation. Les résultats de l’étude suggèrent qu’il serait opportun de redéfinir les relations entre les parties prenantes de la mise en œuvre et de l’évaluation des programmes et des politiques publiques, y compris les partenaires financiers internationaux et les bénéficiaires, en termes d’augmentation de l’implication des agences de mise en œuvre dans le processus d’évaluation. La recherche a également montré que la restructuration organisationnelle avant l’institutionnalisation, le renforcement des capacités des parties prenantes nationales et la sensibilisation aux avantages de l’évaluation sont des conditions préalables importantes pour la cohérence du processus d’institutionnalisation. Enfin, ce document s’aligne sur la position des sociologues néo-institutionnalistes qui pensent que la culture est une force naturelle avec laquelle il faut compter lorsqu’il s’agit d’institutionnaliser de nouvelles approches. Notre contribution est à la fois empirique et méthodologique. Les données ont été collectées dans des organisations gouvernementales chargées de la mise en œuvre, de l’évaluation et de l’audit des politiques et programmes publics. En plus des entretiens semi-structurés, nous avons utilisé des outils de diagnostic de la culture organisationnelle couramment utilisés dans le secteur privé, associés à d’autres utilisés dans les organisations publiques, communautaires et à but non lucratif. Cela nous a permis de ne pas perdre de vue les normes des sciences de gestion, tout en gardant à l’esprit l’objectif de l’action publique. Enfin, l’étude appelle à une réflexion théorique sur des flexibilités conceptuelles pour des outils de gestion qui peuvent ne pas être adaptés à un contexte culturel donné.
99

Évaluation de la collaboration interorganisationnelle : le cas de la clinique communautaire de santé et d'enseignement SPOT-CCSE

Samson, Esther 24 April 2018 (has links)
L'importance des collaborations entre organisations pour faire face à des enjeux de santé publique complexes tel l'accès aux soins pour les populations en situation de vulnérabilité est de plus en plus reconnue. Ce mémoire a pour objet l'évaluation de la collaboration interorganisationnelle au sein de la clinique communautaire de santé et d'enseignement SPOT-CCSE. Les objectifs généraux de l'évaluation sont de comprendre les caractéristiques de la collaboration interorganisationnelle au sein de SPOT-CCSE et de dégager des pistes d'amélioration et des recommandations pour SPOT-CCSE. Appuyé sur une recension des écrits sur le sujet, un devis mixte comportant un volet quantitatif – questionnaire en ligne, ainsi qu'un volet qualitatif – entrevues individuelles et groupes de discussion, a été utilisé. Il en ressort que la collaboration interorganisationnelle au sein de SPOT-CCSE présente de grandes forces, en particulier au plan du climat relationnel. Des ajustements sont recommandés principalement au regard des processus internes.
100

Intégration de la toxicogénomique à l'évaluation du risque à la santé humaine : une étude exploratoire

Vachon, Julien 24 April 2018 (has links)
L’évaluation du risque à la santé humaine (ÉRSH) doit s’adapter aux défis du 21e siècle, et la toxicogénomique est au cœur des changements que les agences réglementaires veulent implantés. Cependant, l’utilisation de données issues de la toxicogénomique en ÉRSH est encore marginale. L’objectif de cette étude est d’étudier l’état de l’utilisation de la toxicogénomique en ÉRSH au Canada et de caractériser, de façon exploratoire, les facteurs individuels et organisationnels entravant une telle utilisation. L’étude comporte deux volets. Le premier consistait en une enquête par questionnaire électronique menée auprès d’évaluateurs de risque canadiens. Vingt-neuf (29) participants ont complété et retourné le questionnaire. Le deuxième consistait en un examen de la portée des publications toxicogénomiques portant sur les trihalométhanes. L’examen de la portée a identifié 9 publications satisfaisant aux critères de sélection, lesquelles ont été incluses dans l’analyse. Les résultats démontrent que l’utilisation de la toxicogénomique en ÉRSH reste marginale, 85% des répondants au sondage ayant rapporté n’avoir jamais utilisé de telles données dans leur pratique. Le principal facteur individuel entravant l’utilisation de données toxicogénomiques en ÉRSH semble être le manque de connaissance en toxicogénomique chez les évaluateurs de risque (68% des répondants n’étant « pas » ou « peu familiers » avec le concept). Les principaux facteurs organisationnels identifiés sont le manque de lignes directrices guidant l’utilisation de la toxicogénomique en ÉRSH, et le manque de leadership et de soutien de la part des organisations envers le développement de telles lignes directrices ainsi qu'envers la formation des évaluateurs de risque. Les résultats de l’examen de la portée démontrent que la faible disponibilité (n=9) et la qualité faible ou incertaine des publications toxicogénomiques (3/9 satisfaisant aux critères de qualité) peuvent également être des freins importants. Les résultats permettent de suggérer des pistes d’interventions visant à appuyer l’application de la toxicogénomique en ÉRSH. / Human health risk assessment (HHRA) must be adapted to the challenges of the 21st century, and toxicogenomics data are at the centre of the paradigm that regulatory agencies worldwide are trying to implement. However, the use of toxicogenomics data in HHRA is still limited. The study aims to explore the state of the use of toxicogenomics in HHRA and to characterise individual and organisational factors that impede such a use. The study was conducted in two parts. The first part consisted in an online survey targeted at Canadian risk assessors. Twenty-nine (29) completed surveys were returned after two months of solicitation. The second part consisted in a scoping review of the toxicogenomics publications on trihalomethanes. The scoping review identified nine (9) publications satisfying the eligibility criteria, and were included in the analysis. Results show that the use of toxicogenomics in HHRA is still marginal, 85% of survey respondents having reported having never used such data in their practice. The main individual factor impeding the use of toxicogenomics in HHRA is the lack of knowledge of toxicogenomics by risk assessors (68% of respondents are “not at all” or “only a little” familiar with the concept). The main organisational factors are the lack of recognised guidelines guiding the use of toxicogenomics in HHRA, and the lack of leadership and support of organisations towards the development of such guidelines and towards training of risk assessors. Results from the scoping review show that the low availability (n=9) and the low or uncertain quality of toxicogenomics publications (3/9 satisfying the essential quality criteria) can also be an important barrier. The results allowed to suggest interventions aimed at supporting the use of toxicogenomics data in HHRA.

Page generated in 0.8277 seconds