101 |
Caractérisation des aérosols de pollution dans le Nord de la France : relation entre masse, propriétés optiques, distribution verticale et météorologie / Characterization of aerosol pollution in North of France : relation between mass, optical properties , vertical distribution and meteorologyBoyouk, Neda 10 December 2009 (has links)
Une atmosphère saine est un besoin élémentaire pour le bien être et la santé humaine. La matière particulaire en suspension (Particle Matter, PM) est bien connue pour avoir un impact significatif sur la santé. Les mesures de PM2.5 et PM10 au niveau du sol reflètent l’influence de la dynamique de la couche limite et du mélange des aérosols locaux ou advectés sur de grandes distances. Le lien entre épaisseur optique en aerosol (aerosol optical thickness, AOT) et PM dépend de la relation entre propriétés optiques et massiques et de la distribution verticale des particules dans l’atmosphère. Nous présentons 3 expériences de terrain dédiées à la caractérisation des aérosols de pollution dans le Nord de la France: la première lors d’un évenement de pollution printanier sur Lille, la seconde durant un événement de pollution hivernal sur Dunkerque et la troisième durant des occurrences de brise de mer sur le littoral Dunkerquois. Nous avons utilisé 2 systèmes Lidar différents, le premier dans le visible (532 nm) et le second dans l’UV (355 nm); un photomètre solaire automatique et des mesures de PM2.5 et PM10 par TEOM. L’altitude supérieure de la couche de mélange (Mixed boundary layer, MBL) est détectée par Lidar et nous avons été capable de suivre le développement classique de la couche limite convective ainsi que des décroissances brutales d’altitude de la MBL dues à la brise de mer. Les profils d’extinction aérosols ont été estimés en utilisant un rapport Lidar de 67 sr à 532 nm à Lille, 77 sr à 532 nm et 30 sr à 355 nm à Dunkerque. Nous avons analysé l’impact du transport grande échelle de masses d’air polluée, du développement convectif de la MBL et du développement de la cellule de brise de mer sur les profils verticaux d’extinction en aérosols. Le signal Lidar dans les premières centaines de mètres est très bien corrélé (coefficient de corrélation supérieur à 0.9) avec les concentrations massiques mesurées au sol dans tous les cas. Il est également montré que l’introduction de la hauteur de la MBL permet une meilleure détermination des PM à partir de l’épaisseur optique. / Clean air is considered to be a basic requirement for human health and well-being. Particulate matter is known to have a significant impact on health. The variability of Particle Matter (PM2.5 and PM10) concentrations recorded at ground-level is influenced by the boundary layer dynamics, local emissions, and advection and mixing of large scale transported aerosols. The link between columnar aerosol optical thickness (AOT) and ground-level PM depends on the relationship between mass and optical properties and on the vertical distribution of aerosols in the atmosphere. We present three field experiments dedicated to the characterization of pollution aerosols in the North of France: the first one during a spring pollution episode in metropolitan area of Lille (50.61°N, 3.14°E), the second one during a winter pollution episode in the industrial coastal city of Dunkerque (51°04'N; 2°38'E) and the third one during summer sea breezes on coastal area of Dunkerque. We have used 2 different Lidar systems, one in the UV (355 nm) and the other one in the visible (532 nm), an automatic sun photometer, and PM2.5 and PM10 measurements with TEOM. The mixed layer (MBL) top altitude is detected from the Lidar signal and we were able to monitor the classical diurnal evolution of the convective continental boundary as well as short-time decreases in the MBL height due to sea breeze occurrences. The aerosol extinction profiles were estimated using a Lidar ratio of 67 sr at 532 nm in Lille, and 77 sr at 532 nm and 30 sr at 355 m in Dunkerque. We have analyzed the impact of long range transport of polluted air masses, convective development of the MBL, and sea breeze development on the vertical profile of aerosol extinction coefficient. The Lidar signal in the first few hundred meters is well correlated (correlation coefficient above 0.9) with the PM concentrations in all cases. It is found that introducing the Lidar derived MBL height enable a better estimation of PM from measured AOT. Clean air is considered to be a basic requirement for human health and well-being. Particulate matter is known to have a significant impact on health. The variability of Particle Matter (PM2.5 and PM10) concentrations recorded at ground-level is influenced by the boundary layer dynamics, local emissions, and advection and mixing of large scale transported aerosols. The link between columnar aerosol optical thickness (AOT) and ground-level PM depends on the relationship between mass and optical properties and on the vertical distribution of aerosols in the atmosphere. We present three field experiments dedicated to the characterization of pollution aerosols in the North of France: the first one during a spring pollution episode in metropolitan area of Lille (50.61°N, 3.14°E), the second one during a winter pollution episode in the industrial coastal city of Dunkerque (51°04'N; 2°38'E) and the third one during summer sea breezes on coastal area of Dunkerque. We have used 2 different Lidar systems, one in the UV (355 nm) and the other one in the visible (532 nm), an automatic sun photometer, and PM2.5 and PM10 measurements with TEOM. The mixed layer (MBL) top altitude is detected from the Lidar signal and we were able to monitor the classical diurnal evolution of the convective continental boundary as well as short-time decreases in the MBL height due to sea breeze occurrences. The aerosol extinction profiles were estimated using a Lidar ratio of 67 sr at 532 nm in Lille, and 77 sr at 532 nm and 30 sr at 355 m in Dunkerque. We have analyzed the impact of long range transport of polluted air masses, convective development of the MBL, and sea breeze development on the vertical profile of aerosol extinction coefficient. The Lidar signal in the first few hundred meters is well correlated (correlation coefficient above 0.9) with the PM concentrations in all cases. It is found that introducing the Lidar derived MBL height enable a better estimation of PM from measured AOT.
|
102 |
Modélisaton et sécurité des réseauxCormier, Alexandre 13 April 2018 (has links)
L'avènement d'Internet révolutionne l'accès à l'information, mais contribue également à l'essor de nouveaux services, notamment le commerce électronique, à l'allègement de la bureaucratie et à l'arrivée d'une multitude de e-services. Or, le développement de cette technologie de l'information s'est accompagné d'une panoplie de problématiques. Parmi celles-ci, les plus inquiétantes ont trait à la sécurité puisqu'elles mettent en péril le bon fonctionnement de ces services. Le présent mémoire approfondit ces problématiques de sécurité selon une approche formelle : les algèbres de processus. Dans un premier temps, le fruit de la recherche sur les failles de sécurité réseau de niveau deux et trois de la couche TCP/IP et d'une étude comparative de l'expressivité des principales algèbres de processus est présenté. Dans un second temps, les caractéristiques souhaitées d'une algèbre de modélisation de réseau sont mises en exergue et sont intégrées dans la syntaxe et la sémantique d'une nouvelle algèbre. Finalement, une nouvelle algèbre de processus pour la modélisation de réseau, Netcal, ainsi que les principes d'un système de détection de failles d'architecture et de configuration de réseau sont explicités.
|
103 |
La relation entre le niveau de production divergente à contenu sémantique et figural à des tests de créativité et les besoins interpersonnels mesurés par le FIRO-B de SchutzDufresne, Jean-Pierre 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
104 |
Inférence de certificats pour la vérification statique des programmes JavaMenif, Emna 18 April 2018 (has links)
La Sécurité des Systèmes d'Information est l'un des défis les plus urgents des différents organismes de la société actuelle. Le problème de sécurité a émergé du progrès technologique rapide qui pousse à l'utilisation des \emph{Systèmes d'Information}. L'un de ces progrès est l'utilisation de code mobile. En effet, pour protéger ses informations critiques d'une éventuelle menace d'un code mobile, un organisme doit chercher des solutions de plus en plus élaborées. Une des approches émergeantes pour aborder ce problème est la compilation certifiée. Il s'agit d'une approche statique, basée sur le langage et génère en plus du code objet, un certificat constitué des informations relatives aux aspects de sécurité d'un programme. En plus des avantages de l'analyse statique, cette approche fait coopérer le producteur du code et son consommateur. De plus, ce dernier n'a plus à faire confiance au producteur. Dans cette thèse nous avons appliqué cette approche au langage Java afin de vérifier statiquement la sécurité. En effet, Java couvre une gamme de périphériques, d'ordinateurs et de réseaux grâce à son évolutivité, son efficacité, sa portabilité et sa sécurité. Toutefois, les propriétés de sécurité de haut niveau sont vérifiées dynamiquement dans Java par le vérificateur du \emph{bytecode} et le gestionnaire de sécurité. Nous proposons alors de concevoir et d'implanter un compilateur certificateur pour Java (JACC) afin d'accroître la flexibilité, l'efficacité et la robustesse de l'architecture de sécurité de Java. Le certificat que génère JACC est vérifié statiquement par le vérificateur de l'architecture JACC. Il est constitué d'annotations qui essaient de reporter et abstraire au mieux le comportement du programme. Les principaux résultats qui nous ont permis d'atteindre ces objectifs sont: \begin{enumerate} \item la définition de la syntaxe et sémantique des annotations du certificat; \item la conception et l'implantation de JACC en partant de Jikes, un compilateur pour le langage Java développé par IBM. Nous avons également pu mener une étude expérimentale pour mesurer la performance de JACC ainsi que la taille des fichiers \emph{.class} générés et nous les avons comparés à Jikes; \item l'élaboration d'un cadre formel pour spécifier le module d'inférence. Cette spécifi\-cation décrit la sémantique opérationnelle de chaque étape d'inférence et ce pour l'ensemble des \emph{opcodes} ainsi qu'un système de types pour les annotations du certificat. \end{enumerate} / Information Systems Security is one of the most pressing challenges facing all kind of organizations today. The security problem has raised from rapid technological advances that are stimulating a greater use of \emph{Information Systems} in world-wide organizations. One of these advances is the use of mobile code. Keeping critical information safe from malicious mobile code is challenging. One way to address the security issue for mobile code is using certifying compilation. The certifying compilation is a language-based, static technique used to collect information (certificate) regarding the safety and security of a software. In addition to the advantages of the static analysis, this approach alleviates the burden on the consumer. The other advantage of this approach is to restrict the trust of the consumer to the verifier only. In this thesis we have applied this approach to Java to check safety and security statically. As we know, Java is present in a wide range of devices, computers, and networks due to it's versatility, efficiency, platform portability and security . Nevertheless, high-level security properties are verified by bytecode verifier and security manager at run time. The main objectives of this thesis are the design and the implementation of a Java certifying compiler (JACC) that helps to increase the flexibility, efficiency and robustness of the Java security architecture. Indeed, JACC certificate is verified statically by the JACC verifier to ensure high-level security properties. The certificate is made up of annotations that try to capture the behavior of a software and represent it in an abstract form. This behavior could be critical and aims to threaten the software user. The main research contributions that led to reach these objectives are: \begin{enumerate} \item the definition of the certificate syntax and semantic; \item the design and the implementation of JACC based on Jikes. We have also measured the generated \emph{.class} files sizes and JACC performance and compared them to Jikes; \item the elaboration of a formal framework in which we formally specify the certificate inference. This specification describes the operational semantic of each inference step as long as a type system for the certificate annotations. \end{enumerate}
|
105 |
L'effet du degré de spécificité des objectifs pédagogiques sur la construction de tests de rendement scolaireGirard, Richard 25 April 2018 (has links)
Au cours des vingt dernières années, les objectifs pédagogiques ont été l’objet d'une préoccupation accrue tant du côté de leur formulation que du côté de leur interprétation. L'expression "comportement observable" est devenue une sorte de cliché lorsqu'on parle de formulation d'objectifs. La publication de la Taxonomie des Objectifs pédagogiques de Benjamin Bloom en 1956 est considérée comme un événement important. Cependant, il faut concéder à Ralph Tyler (1950) le crédit d'avoir été le premier à insister sur l'importance des objectifs définis en termes opérationnels. Aux noms de Bloom et de Tyler, ajoutons ceux de Mager (1962), Krathwohl (1964), Gagné (1965), Baker (1967) et Sullivan (1969) qui ont tenté de clarifier et de spécifier de quelle manière les objectifs devaient être formulés. Cette importance accordée à la formulation des objectifs est explicable par les décisions multiples qui peuvent être prises concernant par exemple la planification de l'enseignement et l'évaluation. Cette importance est également explicable par la possibilité qu’il y ait plusieurs personnes engagées dans une prise de décision quelconque depuis leur formulation jusqu'à leur interprétation. Une question fondamentale se pose alors: l'intention initiale exprimée dans un objectif est-elle perçue de la même façon par des personnes différentes? Dans le cadre de la présente recherche, cette question a été soulevée en considérant certaines décisions qui peuvent être prises dans le domaine de l'évaluation du rendement scolaire et plus précisément au niveau de l' élaboration d'instruments de mesure» / Québec Université Laval, Bibliothèque 2014
|
106 |
Étude de la possibilité de rédiger une épreuve diagnostique dans le cadre de la mesure reliée à un domaineTorkia-Lagacé, Mirette 11 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
107 |
Mesures optiques de la concentration du frasil en laboratoire par transmissométrie et imagerie optique par holographie numériqueLahnichi, Adil 13 December 2019 (has links)
La détermination de la concentration du frasil ainsi que ses caractéristiques géométriques est un défi majeur du point de vue technologique. Plusieurs instruments ont été utilisés par de nombreux chercheurs pour arriver à comprendre le comportement du frasil et à déterminer ses propriétés. Ce projet de recherche a pour but d’essayer de définir la concentration du frasil ainsi que ses caractéristiques géométriques à l’aide des instruments optiques. En premier lieu, la concentration du frasil dans un volume d’eau prédéfini a été évaluée à l’aide d’un transmissomètre dont la longueur d’onde est de 660 nm. Les résultats de ces expérimentations vont permettre de comprendre, en fonction des conditions entourant l’expérimentation, l’évolution de la concentration du frasil et son comportement vis-à-vis l’instrument optique et par la suite, de déterminer une relation entre la concentration du frasil et le taux d’atténuation de la transmission de la lumière du transmissomètre. En deuxième lieu, les propriétés géométriques du frasil souvent reportées à un disque d’un diamètre environ égal à dix (10) fois son épaisseuront été évaluées à l’aide d’un deuxième instrument optique qui utilise la technique de l’holographie numérique enligne nommée le LISST-HOLO. Cet instrument permet de capturer une image holographique des particules en suspension dans un volume d’eau de 1,86 cm³. Après la réalisation des expérimentations en laboratoire dans un environnement contrôlé avec l’utilisation des instruments optiques, on devrait comprendre et déterminer le comportement de ses instruments vis-à-vis la formation du frasil. Les résultats découlant permettent la calibration des instruments afin de procéder à leur déploiement dans un environnement naturel (rivière) pour étudier la formation du frasil. / The determination of the concentration of frazil ice and its geometric characteristics is a major challenge. Several instruments have been used by many researchers to understand the behavior of frazil ice and determine its properties. The purpose of this research project is to try to define frazil concentration and its geometric characteristics using optical instruments. Firstly, the concentration of frazil ice in a predefined volume of water was evaluated using a transmissometer. The results of these experiments will make it possible to understand, the evolution of frazil concentration and thebehavior of theoptical instrument. Then a relationship between the concentration frazil and the attenuation rate of transmissometer light transmission will be determined. Secondly, the geometrics properties of the frazil ice were evaluated with a second optical instrument that uses the technique of in-line digital holography (LISST-HOLO). This instrument captures a holographic image of suspended particles in a water volume of 1.86 cm³. Once laboratory experiments in a controlled environment with the use of optical instruments will be executed, we will understand the behavior of these instruments as for the formation of frazil ice. The results allow calibration of the instruments in orderto proceed with their deployment in a natural environment to study the formation of frazil ice in a river for example.
|
108 |
Sécurité FPGA : analyse de la cybersécurité des dispositifs SoC FPGA / Analyse de la cybersécurité des dispositifs SoC FPGAProulx, Alexandre 09 October 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2022 / Alors que les appareils de tous les jours deviennent de plus en plus intelligents et interconnectés, il existe un besoin d'appareils intégrés dotés de capacités de traitement étendues qui favorisent des cycles de développement courts. Dans les applications IoT (Internet of Things), il est également nécessaire que ces dispositifs intégrés soient à faible consommation d'énergie et à faible latence pour traiter efficacement les données de plusieurs capteurs en parallèles. Ce besoin peut être largement satisfait par les dispositifs SoC FPGA ou System-on-Chip Field Programmable Gate Array (en français, systèmes sur puce intégrant des circuits logiques programmables). Les dispositifs SoC FPGA intègrent un HPS (Hard Processing System) étroitement lié à une structure FPGA. Tout en permettant un délai de conception rapide par rapport aux dispositifs ASIC (Application-Specific Integrated Circuit) traditionnels, le SoC FPGA permet d'apporter des mises à niveau matérielles aux dispositifs déployés via ses diverses interfaces. De plus, la combinaison du HPS avec le FPGA apporte de nombreux avantages aux applications comme l'intelligence artificielle en permettant la mise en œuvre avec facilité de circuits massivement parallèles. Cependant, le problème avec les dispositifs SoC FPGA réside dans la manière dont les données de configuration sont stockées. Par exemple, dans les dispositifs ASIC, le circuit est implémenté directement dans le silicium. Alors qu'un acteur malveillant pourrait effectuer la rétro-ingénierie du silicium pour récupérer la fonction du circuit, un tel exploit nécessite des équipements coûteux, des connaissances approfondies et un processus fastidieux. Cependant, étant donné que les FPGA sont composés d'une structure reconfigurable, les données de configuration doivent être stockées dans une structure de mémoire à l'intérieur de l'appareil. L'extraction de ces données pourrait fournir à un acteur malveillant des informations précieuses sur le fonctionnement du circuit sans nécessairement impliquer le processus de rétro-ingénierie matérielle long et coûteux. Ce mémoire se concentre sur l'aspect cybersécurité des dispositifs SoC FPGA qui pourraient mettre en péril les données de configuration du FPGA. Par exemple, alors que les périphériques FPGA traditionnels peuvent être correctement sécurisés en limitant l'accès aux interfaces directement connectées à la mémoire des données de configuration, les interconnexions complexes du HPS avec le FPGA ajoutent un niveau de complexité qui transfère nécessairement la tâche de sécuriser le périphérique aux développeurs. Cette complexité accrue est la principale préoccupation étudiée dans ce mémoire. Nous visons à produire un modèle générique de menace de cybersécurité pour les dispositifs SoC FPGA afin de fournir une base de référence sur laquelle les concepteurs peuvent s'appuyer tout en effectuant l'analyse de cybersécurité de leurs conceptions. Nous effectuons un examen approfondi des attaques existantes sur les appareils SoC FPGA et identifions les vulnérabilités potentielles. L'une des vulnérabilités identifiées, qui concerne les effets des injections de fautes électromagnétiques, fait l'objet d'une étude approfondie de sa faisabilité. Une deuxième vulnérabilité identifiée, liée à la mémoire synchrone dynamique à accès aléatoire (SDRAM) est confirmée via une démonstration pratique qui exploite le processus de démarrage du dispositif SoC FPGA. / As everyday devices become increasingly intelligent and further interconnected, there is a need for integrated devices with extensive processing capabilities that favour short development cycles. In applications of the Internet of Things (IoT), there is a further need for these integrated devices to be low-power and low-latency to efficiently process data from multiple sensors in a parallel fashion. This need can largely be met by Systems on a Chip (SoC) Field Programmable Gate Array (FPGA) devices. SoC FPGA devices incorporate a hard processing system (HPS) intricately connected with an FPGA fabric. While allowing for a quick design turnaround time compared to traditional Application-Specific Integrated Circuit (ASIC) devices, SoC FPGA conveniently allows for hardware upgrades to be brought to deployed devices through its various interfaces. Furthermore, the combination of the HPS with the FPGA brings many advantages to applications such as artificial intelligence by allowing massively parallel circuits to be implemented with relative ease. However, how the configuration data is stored is a concern with SoC FPGA devices. For instance, in ASIC devices, the circuit is implemented directly within the silicon. While a malicious actor could reverse engineer the silicon to retrieve the circuit's function, such a feat requires expensive equipment, extensive expert knowledge, and a tedious process. However, since FPGA devices are composed of a reconfigurable fabric, one must store the configuration data within a memory structure inside the device. Extracting this data could provide a malicious actor with valuable insight into the circuit's function without necessarily implicating the expensive and time-consuming hardware reverse engineering process. This thesis focuses on the cybersecurity aspect of SoC FPGA devices that could jeopardize the FPGA's configuration data. For instance, while one can adequately secure traditional FPGA devices by limiting access to interfaces directly connected to configuration data's memory, the HPS's intricate interconnections with the FPGA add a level of complexity that necessarily handovers the task of securing the device to the developers. This increased complexity is the primary concern being investigated in this thesis. We aim to derive a generic cybersecurity threat model for SoC FPGA devices to provide a baseline for designers to build upon while performing the cybersecurity analysis of their designs. We provide a thorough review of existing attacks on SoC FPGA devices and identify potential vulnerabilities. One of the identified vulnerabilities, which deals with the effects of electromagnetic fault injections, is the subject of an in-depth investigation into its feasibility. A second identified vulnerability related to the Synchronous Dynamic Random Access Memory (SDRAM) is confirmed via a practical demonstration that exploits the boot process of the SoC FPGA device.
|
109 |
Optimisation de trajectoire pour l'augmentation des capacités des manipulateurs robotiquesGallant, André 10 February 2024 (has links)
Aujourd’hui, les manipulateurs robotiques sont appelés à effectuer une gamme de plus en plus large de tâches allant au-delà des applications traditionnelles. Un tel type d’application est l’interaction physique humain-robot. Pour que ces systèmes soient sécuritaires, il peut être souhaitable de réduire leur poids et leur force en réduisant la taille de leurs actionneurs. En effet, réduire la taille des actionneurs augmente la sécurité de deux manières, l’inertie du manipulateur diminue et les couples générés par les moteurs sont fortement réduits. Cependant, le principal inconvénient de ces manipulateurs est la réduction de leur capacité de charge utile. C’est pourquoi une meilleure utilisation des capacités articulaires est nécessaire pour leur permettre d’accomplir des tâches qu’elles ne pourraient normalement pas accomplir. Ainsi, cette thèse présente une étude de deux types principaux de tâches pour lesquelles une stratégie d’optimisation de trajectoire efficace peut être particulièrement utile. La première tâche consiste à soulever des objets lourds, c’est-à-dire, qui dépassent la capacité de charge utile d’un manipulateur. L’étude de cette tâche pourrait mener à la conception de manipulateurs plus légers et plus capables. Ce travail se concentre sur l’étude des méthodes de génération de trajectoires permettant aux manipulateurs ayant des actionneurs relativement faibles de soulever des charges lourdes en exploitant pleinement leur dynamique. La deuxième tâche étudiée dans cette thèse est la tâche de lancer des objets. Plus précisément, la portée des manipulateurs est étudiée, c’est-à-dire, la distance maximale à laquelle un objet peut être lancé avec un manipulateur donné est recherchée. Cette tâche est étudiée à trois niveaux de complexité : la recherche de la distance maximale possible avec des contraintes de vitesse, la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes cinématiques et la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes dynamiques. Enfin, des critères de performance sont établis à partir de ces deux types de tâches afin d’aider au processus de conception d’un nouveau manipulateur. Ainsi, une simulation d’optimisation de la conception est effectuée à titre de preuve de concept. / Today, robotic manipulators are being called upon to perform an increasingly wide range of tasks that extend beyond the conventional ones required in traditional applications. One such type of application is physical human-robot interaction. In order for such systems to be safe, it can be desirable to decrease their weight and strength by reducing the size of their actuators.Indeed, reducing the size of the actuators increases safety in two manners, the inertia of the manipulator decreases and the torques generated by the motors are greatly reduced. However, the main drawback of such manipulators is the reduction of their payload capacity.Therefore, better usage of the limited joint efforts is required to enable them to perform tasks that they would normally not be able to accomplish. Thus, this thesis presents a study of two main types of tasks where an effective trajectory optimisation strategy can be particularly valuable. The first task is that of lifting heavy objects, i.e., objects that exceed the conservative estimate of the payload capacity of a manipulator. Studying this task could lead to the design of lighter,more capable manipulators. This work focuses on studying trajectory generation methods to enable manipulators with relatively weak actuators to lift heavy payloads by fully utilizing their dynamics. The second task studied in this thesis is the task of throwing objects. Specifically, the distance throwing capabilities of manipulators is studied where the maximum distance that an object can be thrown with a given manipulator is sought. This task is studied at three levels of complexity: finding the maximum possible throwing capacity of manipulators with velocity constraints, finding the maximum throwing capacity considering a full trajectory with kinematic constraints, and finding the maximum throwing capacity considering a full trajectory with dynamic constraints. Finally, performance criteria are established from these two types of tasks in order help in the process of designing a new manipulator. Thus, a simple design optimisation simulation is performed as a proof of concept.
|
110 |
Étude comparée de la valeur informative de deux types de question dans l'évaluation de la performance à des tâches de résolution de problèmeVoyer, Jean-Paul 25 April 2018 (has links)
Depuis quelques années on note une tendance nouvelle à privilégier la valeur diagnostique et pronostique des tests autant académiques que psychologiques (Siegel, 1963; Glaser. 1963: Stoddard. 1969; Evans. 1970 Dziunban et Vickery, 1973; Estes, 1974). Tout en présentant des différences marquées au niveau de l'approche conceptuelle utilisée et des aspects du problème privilégiés, ces efforts divers incitent tous à la mise au point d'instruments de mesure basés sur des théories de l'intelligence et/ou de l'apprentissage. La présente étude s'inscrit dans cette ligne de recherche et, dans un certain sens, cherche à traduire au niveau des items une partie des préoccupations exprimées par ces auteurs à l'endroit des tests. L'étude comparée de la valeur informative de deux formes de question revêt enfin un intérêt tout-à-fait particulier dans un contexte où il est souvent nécessaire de recourir à un nombre très limité d'items pour estimer une compétence particulière. Voici maintenant un bref aperçu des composantes principales du présent compte-rendu de recherche. Le premier chapitre sera consacré à une présentation générale de l'objectif de la recherche, de la perspective dans laquelle il se situe ainsi que des limites principales qui le circonscrivent. Viendra ensuite une analyse critique des études sur le sujet, analyse qui débouchera sur le choix d'un modèle théorique de la résolution de problème et sur l'identification des critères à partir desquels nous procéderons à l'étude comparative des formes de question. Le second chapitre se terminera avec la formulation définitive du sujet sous la forme d'hypothèses de recherche. Le troisième chapitre sera consacré à la description des modalités d'intervention et des moyens mis en oeuvre pour procéder au contrôle empirique des hypothèses de recherche. Il inclura une présentation de l'échantillon et des instruments de mesure utilisés ainsi que de la stratégie expérimentale exploitée et des modèles d'analyse statistique retenus. Les résultats de cette dernière analyse seront exposés et discutés dans le chapitre suivant, le quatrième et dernier chapitre. La formulation de quelques recommandations et un bref résumé de l'expérience viendront mettre un terme à ce rapport de recherche. / Québec Université Laval, Bibliothèque 2014
|
Page generated in 0.0539 seconds