• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 616
  • 145
  • 82
  • 77
  • 58
  • 47
  • 37
  • 34
  • 9
  • 9
  • 9
  • 9
  • 6
  • 5
  • 3
  • Tagged with
  • 1147
  • 658
  • 172
  • 161
  • 146
  • 118
  • 113
  • 98
  • 94
  • 93
  • 88
  • 80
  • 80
  • 79
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Construction d'un outil d’évaluation de la durabilité des fermes laitières québécoises : des indicateurs agroenvironnementaux, technico-économiques et sociaux comme outils de diagnostic

Bélanger, Valérie 20 April 2018 (has links)
L’application du concept d’agriculture durable est essentielle afin de faciliter la mise en place d’outils d’évaluation aux plans environnemental, économique et social. Cependant, il existe peu d'outils permettant d’évaluer la durabilité à l’échelle de la ferme dans le contexte nord-américain. L’objectif général de la recherche consistait à élaborer une méthode d'évaluation de la durabilité globale des fermes laitières québécoises basée sur des indicateurs agroenvironnementaux, technico-économiques et sociaux comme outil d’autoévaluation et d’aide à la décision. Afin d’atteindre cet objectif, une méthodologie des parties prenantes a été utilisée pour développer chacun des volets de durabilité. Les composantes de la durabilité de chaque volet ont été identifiées et définies, ainsi que des indicateurs permettant d'évaluer l'état de chaque composante. Pour ce faire, des experts du secteur agricole comprenant chercheurs, intervenants et producteurs, ont été consultés selon deux processus participatifs que sont la technique Delphi et le focus group. Un système de pointage, des valeurs de références pour les indicateurs et une pondération de ceux-ci au sein de chaque composante ont été élaborés afin d’arriver à un score par volet pour chaque ferme. La méthode développée, nommée DELTA, comprend un ensemble de 43 indicateurs. Les indicateurs ont été testés sur 40 fermes laitières de deux régions agricoles contrastées. Finalement, une validation par l’usager a été réalisée auprès des producteurs ayant participé à la démarche. Cette validation comprenait trois sections : la perception de la démarche, la cohérence des résultats et la portée de l’outil. Les résultats des fermes de l’enquête ont été intégrés en utilisant les graphiques en radar ; ces derniers permettant l’identification rapide des points forts et points à améliorer pour chaque ferme. Les trois volets ont été pondérés de façon égale tandis que la pondération des composantes à l’intérieur de chacun des volets est différente. Les résultats démontrent que des fermes semblables par la taille du troupeau et par la superficie cultivée peuvent avoir des niveaux différents de durabilité. L’outil d’autoévaluation permettra de suivre l’évolution d’une ferme par rapport à l’évaluation de sa durabilité et ce, dû à la sensibilité de la méthode aux changements des pratiques que les producteurs apporteront sur leur entreprise. / The notion of sustainability is included in the development of agriculture by integrating three dimensions, which are environment, economy and society. However, there are few tools for assessing farm level sustainability in the North American context. The overall objective of the research was to develop a method for assessing the global sustainability of Quebec dairy farms based on agri-environmental, technical-economic and social indicators as a self-assessment and decision-aid tool. To achieve this objective, the same methodology was used for each dimension of sustainability. The components of sustainability for each dimension were identified and defined, as well as indicators to assess the status of each component. To accomplish this, experts in the agricultural sector, including researchers, stakeholders and farmers, were consulted using two participatory processes that are the Delphi technique and the focus group. For each component, a scoring system, reference values for the indicators and weighting of these were elaborated to obtain a score for each farm. This assessment method, named DELTA, comprises a set of 43 indicators. The indicators were tested on 40 dairy farms of two contrasting agricultural regions. Finally, a validation by the user was conducted among the farmers that participated in the process from the beginning of the project. This validation consisted of three sections: the perception of the process, the consistency of the results and the utility of the tool. The results of the indicators were integrated using radar graphs, the latter allowing the rapid identification of strengths and areas for improvement for each farm. The three dimensions were equally weighted, while the weighting of components within each dimension may be different. The results demonstrate that similar farms by herd size and acreage may have different levels of sustainability. The self-assessment tool will track the evolution of a farm relative to the assessment of its sustainability and this, due to the sensitivity of the method to changes in practices that farmers will bring on to their business.
382

Grille d'évaluation de la valorisation des fourrages dans les fermes laitières québécoises

Coulombe, Marie-Christine 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Cette étude visait à développer une grille d'évaluation de la valorisation des fourrages sur les fermes laitières québécoises. Une recherche exploratoire a aussi été menée sur les motivations et les freins à l'adoption de quatre pratiques favorisant une meilleure valorisation des fourrages par les producteurs laitiers. La production de fourrages, leur coût de production et leur utilisation par le troupeau ainsi que l'efficacité des chantiers de récolte sont les axes de la gestion des fourrages qui ont été considérés comme étant critiques. À l'aide des quatre indicateurs principaux et des neuf indicateurs secondaires développés, il est possible d'évaluer les entreprises laitières en matière de valorisation des fourrages. La grille s'est avérée fonctionnelle dans l'ensemble des situations étudiées et a répondu aux attentes des conseillers et des producteurs interrogés. L'étude sur l'adoption des pratiques a mis en lumière le rôle des conseillers et a démontré que l'utilisation de la grille d'évaluation a favorisé l'adoption des pratiques proposées.
383

Énergie solaire et architecture : les outils numériques et leur utilisation par les architectes pour la conception solaire

Gagnon, Shirley 18 April 2018 (has links)
Cette recherche étudie la conception architecturale dans le but de déterminer comment l’utilisation des outils informatiques peut aider les architectes à intégrer les composantes solaires dans leurs projets. Elle a été réalisée dans le cadre de la Task 41 : Solar Energy and Architecture de l'International Energy Agency (IEA) dont les deux objectifs sont de soutenir le développement d’une architecture solaire de haute qualité et contribuer à l’amélioration des compétences des architectes dans ce domaine. De plus, cette recherche vise à décrire et comprendre les facteurs architecturaux qui influencent le développement d’une architecture solaire de qualité, en ce qui a trait à la pratique de l’architecture, aux principes fondamentaux de l’architecture solaire et à l’attitude des concepteurs. Afin de répondre à ces objectifs, la recherche utilise deux méthodes distinctes et complémentaires : un inventaire des outils informatiques pour l’architecture ainsi qu’une enquête internet auprès des concepteurs. La première partie de ce mémoire présente l’inventaire de 56 outils informatiques (CAAO, logiciels de visualisation et de simulation) utilisés par les architectes. Les résultats de l’analyse de cet inventaire révèlent les limites des outils solaires précis pour les premières étapes de conception, la spécialisation systémique des logiciels disponibles, l’absence de résultats numériques clairs pouvant appuyer la prise de décision en début de conception, un manque d'informations claires à propos du calcul du comportement de la lumière lors de la génération des images de synthèse, et les limites de la visualisation des systèmes solaires actifs. La deuxième partie de ce mémoire prend la forme d’une analyse complémentaire des données recueillies par une enquête internationale réalisée auprès de 350 professionnels du secteur du bâtiment. Les résultats démontrent que les répondants s’efforcent de concevoir des bâtiments solaires en utilisant surtout les principes solaires passifs (gains solaires thermiques et éclairage naturel) au meilleur de leurs connaissances. Malgré tout, l’enquête révèle certains obstacles liés aux outils informatiques et à leur utilisation, tels que leur complexité, l’investissement nécessaire en termes d’apprentissage et la faible intégration au processus normal de conception. Finalement, l’ensemble des résultats obtenus a permis de relever neuf actions potentielles pour poursuivre l’adaptation de la pratique actuelle de l’architecture vers une architecture solaire de qualité et la diffusion des connaissances relatives à l’architecture solaire. / This research focuses on architectural design in order to determine how the use of software can help architects integrate solar energy components in their projects. This research was conducted as part of International Energy Agency (IEA) Task 41: Solar Energy and Architecture which pursued the following objectives: to support the development of a high quality solar architecture and to improve architects’ skills in this field. The third objective consisted of describing and understanding the factors that influence the architectural development of high quality solar buildings, in terms of architectural practice, solar architecture principles and architects’ attitude relative to solar design. To achieve these objectives, the research was carried out using into two distinct and complementary methods: an inventory of software used by architects and an online survey among buildings practitioners. The first part of the research presents results of a state-of-the-art review of 56 computer tools (CAAD, visualisation and simulation software) used by architects. The results reveal a lack of advanced solar tools for early design phase (EDP) work, systemic specialization of available software, a lack of clear numerical feedback yielding intelligent decisions at EDP, a lack of clear information about the validity of rendering algorithm, and a lack of tools for the architectural integration of active solar systems. The second part of the research presents an additional analysis of data collected by an international survey among 350 building practitioners. The results show that respondents develop solar buildings mainly by using passive solar principles (passive solar gain and daylighting) according to the best of their knowledge. The survey also revealed some barriers related to computer tools and their use, such as complexity, high learning curve and poor integration into the normal design process. Finally, the overall results identify nine potential actions to adapt the current architectural practice to a high quality solar design and dissemination of knowledge on solar architecture.
384

Réponse fonctionnelle dans la sélection d'habitat du caribou forestier en forêt boréale aménagée

Moreau, Guillaume 18 April 2018 (has links)
L'objectif de la recherche était de déterminer si les caribous forestiers changeaient leur sélection des forêts denses et matures de conifères en fonction de l'abondance des perturbations anthropiques dans leur domaine vital, entre domaines vitaux et aux deux niveaux simultanément. L'étude visait donc à mettre en évidence des réponses fonctionnelles dans leur sélection d'habitat. Vingt-sept caribous ont été suivis par télémétrie et ces observations ont été utilisées pour construire des fonctions de sélection des ressources. Ces analyses démontrent que les caribous variaient leur sélection des forêts de conifères selon le niveau de perturbations anthropiques à la fois dans leur domaine vital, entre domaines vitaux et aux deux niveaux imbriqués. Les caractéristiques des réponses fonctionnelles variaient entre les saisons. La considération de cette plasticité comportementale permet d'obtenir une description plus fidèle de la dynamique spatiale du caribou et, également, de réévaluer le potentiel des forêts résiduelles pour sa conservation en forêt boréale aménagée.
385

Une approche incarnée du vieillissement normal et pathologique : compréhension du fonctionnement mnésique selon les interactions entre mémoire et perception

Vallet, Guillaume 18 April 2018 (has links)
Le vieillissement et la maladie d’Alzheimer sont caractérisés par des difficultés mnésiques essentiellement épisodiques. Ces difficultés sont associées à leurs altérations sensorielles et perceptives. Ces liens s’expliqueraient naturellement par les approches incarnées de la cognition qui définissent des propriétés et processus communs entre mémoire et perception. Ces approches supposent une émergence dynamique des connaissances à partir d’un système de mémoire unique dans lequel les connaissances sont définies comme ancrées dans leurs propriétés modales, essentiellement celles sensorimotrices. À travers la nature des interactions multisensorielles pour des connaissances familières, ce travail de thèse propose de tester les approches incarnées de la cognition auprès de jeunes adultes, personnes âgées saines et patients souffrant de la maladie d’Alzheimer. Ces interactions sont supposées être indirectes et sémantiques dans les approches multisystémiques, alors qu’elles seraient directes et perceptives pour les approches incarnées. Deux séries d’expériences ont été conduites. Pour chacune d’elle, une batterie complète de tests neuropsychologiques ainsi qu’un paradigme d’amorçage inter-sensoriel (audition vers vision) ont été complétés. L’originalité du paradigme fut l’ajout, pour la moitié des amorces auditives, d’un masque visuel sans signification. L’Expérience 1 reposait sur un format à long terme – deux phases distinctes – alors que l’Expérience 2 sur un format à court terme – amorce et cible présentées dans un même essai. Cette adaptation permet la manipulation de la congruence sémantique afin de tester plus précisément le rôle de l’attention dans ces interactions multisensorielles. Les résultats démontrent un effet d’amorçage inter-sensoriel pour les jeunes adultes et les personnes âgées. Le masque a interféré avec cet effet d’amorçage, mais uniquement lorsque l’amorce et la cible correspondent à une même connaissance. Cette interférence et sa spécificité supportent l’hypothèse d’interactions multisensorielles directes et perceptives ce qui suggèrent que les jeunes adultes comme les personnes âgées auraient des connaissances modales. En revanche, les patients Alzheimer ne présentent pas d’effet d’amorçage alors que celui-ci est de nature perceptive (effet du masque). Ces résultats supportent l’idée d’une déconnexion cérébrale dans la maladie d’Alzheimer. L’ensemble des données permet de supposer que les difficultés mnésiques dans le vieillissement s’expliqueraient essentiellement par une dégradation de la qualité de leurs connaissances, et donc de leur perception. Les troubles mnésiques dans la maladie d’Alzheimer proviendraient quant à eux d’un déficit d’(ré)-intégration dynamique des différentes composantes des connaissances. Cette recherche supporte les approches incarnées de la cognition et démontre la pertinence de ces approches pour des problématiques neuropsychologiques comme celle du vieillissement. Ces approches ouvrent la voie à de nouvelles recherches plaçant les interactions entre mémoire et perception au coeur du fonctionnement mnésique. / Normal aging as Alzheimer’s disease are characterized by memory disorders, primarily for episodic memory. These two populations also present a sensory and perceptive decline, which are strongly correlated with their cognitive impairment. The links between memory and perception may be easily explained in the embodied cognition theory. Indeed, embodiment states that knowledge dynamically emerges from a single memory system in which knowledge remains grounded in its properties, essentially sensory-motor properties. Consequently, perception and memory are closer than previously thought and the links between perception and memory moving to the foreground. The objective of the present research is to assess the embodied cognition theory applied to normal aging and Alzheimer’s disease. To this aim, the nature of the semantic multisensory interactions was tested. According to the multiple memory systems framework, these interactions are indirect and semantic, whereas the embodied cognition theory states that these interactions are direct and perceptual. Young adults, healthy elderly and patients with Alzheimer’s disease completed two experiments. Each experiment was composed of a complete neuropsychological battery and one cross-modal priming paradigm (audition to vision). The novelty of the paradigm was to present a visual meaningless mask for half of the sound primes. Experiment 1 was composed of two distinct phases, whereas the prime and the target were presented in the same trial in Experiment 2. The adaptation of the paradigm in Experiment 2 allowed manipulating the semantic congruency in order to test the attention hypothesis that might underlie the cross-modal interactions. The results demonstrated a significant cross-modal priming effect in young and healthy elderly adults. The mask has interfered with the priming effect only in the semantic congruent situations. The mask interference and its specificity support the direct and perceptual nature hypothesis of the semantic multisensory interactions. This is suggesting that young and elderly adults have modal knowledge. Reversely, the patients with Alzheimer’s disease did not show any priming effect while the effect is perceptual. This result supports the cerebral disconnection hypothesis in Alzheimer’s disease. The data taken together suggest that memory disorders in normal aging could be related to a degradation of the quality of their perception and thus of knowledge. Memory impairments in Alzheimer’s disease might come from an integration disorder to bind dynamically the different components of a memory. The present research support the embodied cognition theory and demonstrates the interest of this kind of approach to explore memory functioning in neuropsychology, such as in aging. These approaches open new avenues of research by focusing on processes rather than systems and by putting on the foreground the interactions between memory and perception.
386

Modèle d'évaluation des performances d'une ligne de production d'une séquence de N produits distincts sur M machines avec (M-1) stocks tampons

Haddad, Samir 19 April 2018 (has links)
Dans ce mémoire on considère une ligne de production constituée de M machines et de (M-l) stocks tampons conçue pour traiter une séquence de N produits distincts. A chaque produit on associe un temps de mise en route et un temps de traitement sur chaque machine. Ces produits sont traités par lots de tailles connues. Les stocks tampons ont pour but de découpler les différentes machines dont la cadence varie d'un produit à l'autre. La capacité de chaque stock tampon est supposée connue. Un modèle de programmation a été utilisé pour déterminer la durée de traitement de la séquence. Un programme a été mis au point pour déduire les temps d'attente des produits de chaque lot sur chaque machine (famine, blocage et maintenance dans le cas de machines non fiables). Le modèle et programme développé permettent d'évaluer d'autres indicateurs de performances pour différents scénarii de production et de maintenance.
387

Inhibition de la formation de dimères de 2,2,2-trifluoroacétophénone (TFAP) sur le Pt (111) par co-adsorption avec de l'acide trifluoroacétique (TFA) : ralentissement des réactions racémiques compétitives dans la catalyse hétérogène asymétrique

Brunelle, Jean 18 April 2018 (has links)
La réaction d'Orito est une réaction catalytique impliquant l'hydrogénation énantiosélective des α-céto-esters et des cétones activées. Cette réaction est généralement effectuée avec un catalyseur hétérogène sur lequel est adsorbée une molécule chirale que l'on appelle dans ce contexte modificateur. D'autres réactions énantiosélective sont possibles par cette technique, mais l'hydrogénation est celle qui est la plus largement étudiée. La présente étude est axée sur la compréhension du mécanisme à l'origine de l'énantiosélectivité de la réaction d'Orito. Près de 30 ans après sa découverte par Orito, cette réaction est encore mal comprise. La compréhension des mécanismes à l'origine des réactions présentement utilisées est pourtant la première étape avant l'exportation de ces connaissances à d'autres procédés. La perception générale des principes de la catalyse hétérogène asymétrique comme trop compliquée ou comme propre à une mince gamme de réactions nuit beaucoup au développement d'autres réactions s'appuyant sur les mêmes fondations. La catalyse hétérogène asymétrique possède pourtant plusieurs avantages, notamment en ce qui a trait à la séparation du produit et à la réduction des coûts et des rejets. Les outils et techniques modernes offrent aujourd'hui des moyens qui n'étaient pas disponibles il y a seulement quelques années. Ils permettent d'aller sonder au coeur de la réaction les mécanismes à l'origine de l'énantiosélectivité d'un système. Le 2,2,2-trifluoroacétophénone (TFAP) une cétone activée, possède plusieurs atouts qui en font un excellent sujet d'étude. Le produit de l'hydrogénation chirale de composée fluorée démontre un grand potentiel comme agent antiinflammatoire, anticancer ou médicament cardiovasculaire. Une publication de Bartok et al. [3] présente ses travaux sur l'hydrogénation du TFAP par du Pt/A1O₃ modifié avec systématiquement plusieurs molécules de la famille cinchonas La cinchonidine (CD) est un produit naturel peu coûteux qui reste encore aujourd'hui le modificateur le plus utilisé et étudié. Il est généralement reconnu dans la littérature que l'induction de l'asymétrie implique la formation de complexes un pour un (1 :1) entre la CD et V a-céto-esters à la surface du catalyseur. Dans son étude des performances énantiosélectives de cette réaction dans différentes conditions avec différend modificateur, Bartok note plusieurs effets de solvants et additifs et présentent les résultats de taux de conversion et les pourcentages d'énantiosélectivité pour chacun. Ils découvrent notamment que l'ajout de petites quantités d'acide trifluoroacétique (TFA) au solvant ralentit la réaction, mais augmentent considérablement l'énantiosélectivité. Les auteurs spéculent sur la formation d'un complexe de trois molécules entre le TFAP, la cinchonidine et le TFA. Les travaux présentés dans ce mémoire porteront en partie sur la co-adsorption sur un cristal de platine (111) du TFAP et du TFA dans le but d'explorer par microscopie à effet tunnel de possibles interactions entre le TFA et le TFAP, qui pourrait expliquer l'augmentation de l'énantiosélectivité et le ralentissement de la réaction. La deuxième partie des travaux présentés portera sur l'étude préliminaire de l'adsorption de la cinchonidine sur le platine. La théorie essentielle à la compréhension du projet sera tout d'abord présentée. Les systèmes et appareils nécessaires pour l'étude par microscopie à effet tunnel (STM) d'adsorption de molécules sur un cristal de platine ainsi que la modification de la chambre de traitement de l'échantillon du montage seront ensuite décrits en détail dans la partie expérimentale. Une description détaillée de la marche à suivre pour opérer le système est également fournie en annexe sous la forme d'une procédure d'opération. La partie résultats couvrira plus spécifiquement l'étude de l'effet d'un additif, le TFA, sur la formation de dimères du réactif TFAP. Ces résultats font l'objet d'une publication [19]. Les résultats d'études de la co-adsorption du TFAP et TFA seront présentés et discutés en tenant compte des résultats de Bartok et al. [3] sur l'effet de l'ajout de TFA sur l'hydrogénation énantiosélective du TFAP par du platine modifié à la CD. Nos résultats STM montrent que la présence de faibles quantités de TFA sur la face (111) du platine inhiberait la formation de dimères de TFAP. Une revue des données disponibles sur l'hydrogénation énantiosélective du TFAP suggère que ce phénomène pourrait expliquer, en partie au moins, le ralentissement de la réaction qui accompagne l'augmentation de l'énantiosélectivité observé par Bartok et al. [3] lors de ces expériences avec le TFA [3]. Il sera par la suite présenté des résultats préliminaires sur l'adsorption de la CD sur Pt (111) qui seront comparés aux résultats DFTs disponibles dans la littérature. / Réaction d'Orito
388

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
389

La mesure de la satisfaction des clients : effet de la polarité, du nombre de points et de l'étiquetage de l'échelle de réponse sur la distribution des réponses et sur les qualités psychométriques

Renaud, Jean-Sébastien 18 April 2018 (has links)
Plusieurs auteurs suspectent que la grande proportion de scores élevés dans les études de satisfaction des clients restreint la variance et les covariances des items et d’un questionnaire de satisfaction et, par conséquent, que ceci affecte négativement leurs qualités psychométriques. Dans ce contexte, des auteurs ont suggéré d’accroître la sensibilité des échelles de réponse des questionnaires de satisfaction afin d’augmenter la variance associée à la caractéristique mesurée (i.e., la variance vraie), c’est-à-dire la satisfaction. Pour ce faire, ils ont proposé de manipuler deux caractéristiques de l’échelle de réponse : sa polarité et son nombre de points. S’inscrivant dans cette problématique, l’objectif de cette étude est d’évaluer l’effet de la polarité (bipolaire c. unipolaire), du nombre de points (six c. dix) et, à titre exploratoire, de l’étiquetage (i.e., avec ou sans étiquettes) de l’échelle de réponse sur la distribution des réponses ainsi que sur les qualités psychométriques d’un questionnaire de satisfaction des clients et de ses items. L’étude prend comme cadre théorique l’approche cognitive des méthodes de sondage, le principal courant d’études s’intéressant au comportement de réponse à un questionnaire, et emploie un devis quasi-expérimental, plus précisément un plan factoriel incomplet. Ce plan comporte six groupes de comparaison et approximativement 150 sujets se retrouvent dans chacun d’eux, pour une taille totale d’échantillon de 907 participants. Les résultats de l’étude indiquent que les indices de dispersion (i.e., écart-type, variance) et les qualités psychométriques des items et d’un questionnaire de satisfaction sont égaux ou inférieurs lorsque l’échelle de réponse est unipolaire plutôt que bipolaire. Conséquemment, nous recommandons d’employer une échelle de réponse bipolaire plutôt qu’unipolaire dans un questionnaire de satisfaction. Les résultats nous apprennent aussi que l’effet de la polarité est difficile à prédire, car il diffère selon que l’échelle de réponse compte six ou dix points et selon qu’elle possède ou pas des étiquettes. En ce qui a trait à l’effet du nombre de points de l’échelle de réponse, les résultats de l’étude amènent à conclure qu’utiliser une échelle de réponse en six points plutôt qu’en dix est sans effet sur les qualités psychométriques d’un questionnaire de satisfaction et de ses items. L’échelle de réponse en six points pourrait donc représenter un choix parcimonieux. L’étude fait aussi ressortir que la polarité, le nombre de points et l’étiquetage de l’échelle de réponse ont peu d’effet sur les qualités psychométriques d’un questionnaire de satisfaction et de ses items et, en ce sens, que ces caractéristiques de l’échelle de réponse ont une importance secondaire dans la construction d’un questionnaire de satisfaction. Enfin, les résultats permettent de penser que la distribution asymétrique négative des scores de satisfaction ne représente pas une menace importante pour les qualités psychométriques d’un questionnaire de satisfaction et de ses items. Mots clés : questionnaire autoadministré, satisfaction des clients, psychométrie, échelle de réponse, items, qualités psychométriques
390

Une étude acoustique des voyelles orales susceptibles d'être diphtonguées en français québécois

Leblanc, Guillaume 18 April 2018 (has links)
Mémoire réalisé dans le cadre d'un programme en extension avec l’UQAC. / Une diphtongue ou voyelle diphtonguée est caractérisée par un changement de timbre en cours d'émission. Phonémique dans certaines langues, phonétique dans d'autres, elle est en français québécois une façon perceptuellement efficace de différencier une voyelle longue d'une brève. Cependant, comme aucune voyelle ne peut être prononcée avec un timbre absolument stable, une définition telle que celle donnée plus haut s'avère trop générale. Cette recherche postule que la diphtongaison s'organise selon une certaine dynamique acoustique et que l'évolution temporelle de cette dynamique permet à l'auditeur de percevoir une diphtongue. Nous cherchons donc ici à isoler quelques indices acoustiques susceptibles de favoriser la perception d'une diphtongue en français québécois, en étudiant les productions de 10 locuteurs masculins issus de deux régions différentes du Québec. Nos résultats suggèrent deux profils distincts de diphtongaison, dont l'un semble limité aux voyelles arrondies. Les occurrences perçues comme étant diphtonguées montrent des points communs en ce qui concerne la distance parcourue par leur vecteur dans un espace psychoacoustique, la linéarité ou non de leur trajectoire, ainsi que le rapport entre la pente de leurs différentes sections.

Page generated in 0.0365 seconds