Spelling suggestions: "subject:"mesures"" "subject:"lesures""
111 |
Suivi électromagnétique en curiethérapie à haut débit de dose : performance et rôle de la technologieTho, Daline 13 December 2023 (has links)
La curiethérapie à haut débit de dose est un traitement anti-cancer utilisé pour différents sites tels les cancers gynécologiques, la prostate, le sein, la tête et le cou. La technique consiste à déposer de la dose de radiation près ou à l'intérieur de la tumeur. Différentes étapes composent ce traitement et des erreurs peuvent s'introduire dans chacune d'entres elles. Par le passé, plusieurs études ont utilisé la dosimétrie in vivo pour détecter et éliminer certaines erreurs de la chaîne. Cette pratique n'est pas uniformisée, puisqu'aucune solution commerciale n'existe sur le marché actuellement. En plus de la dosimétrie, des systèmes de suivi élecromagnétique ont aussi prouvé qu'ils pouvaient être utilisés pour la détection d'erreurs avant le traitement. Ce projet de doctorat explore des erreurs possibles dans la chaîne de traitement et propose le suivi électromagnétique comme étant une solution pour éviter celles-ci. Dans cette thèse, la fabrication d'un dosimètre et l'utilisation du suivi électromagnétique dans le cadre de la curiethérapie à haut débit de dose y sont traitées. Tout d'abord, une étude rétrospective a été complétée pour faire ressortir les performances requises d'un dosimètre in vivo utilisé pendant des traitements du cancer de la prostate. Les positions d'arrêts et les temps d'arrêts de tous les patients ont été extraits des fichiers de chaque traitement. Un dosimètre virtuel a été positionné dans un des cathéters de traitement pour chacun des patients. Une comparaison des temps d'arrêts et des positions d'arrêt sa été complétée pour l'identification des cathéters. Il a été démontré qu'une précision de 1 mm sur la distance source-dosimètre serait idéale. Pour la cohorte de patient utilisée, les temps d'arrêts sont de meilleurs discriminants que les positions d'arrêts. Une précision temporelle de 0,1 s serait idéale. Par la suite, une sélection du capteur électromagnétique pour la construction d'un dosimètre intégrant le suivi électromagnétique de sa position a été réalisée. La dépendance angulaire et la distance capteur-scintillateur ont aussi été étudiées. Parmi les capteurs disponibles, celui possédant le plus petit effet sur la réponse du scintillateur a été utilisé. La reconstruction d'un prototype d'un applicateur blindé pour les cancers gynécologiques a été faite à l'aide du suivi électromagnétique (EM). L'erreur moyenne du capteur sélectionné pour cette étude était de 0,17 mm lorsqu'il se trouvait à 250 mm du générateur de champ. Aucune différence significative sur la mesure n'a été observée à proximité du blindage de cet applicateur. Le suivi EM a aussi été testé lorsqu'il était intégré dans un câble de vérification d'un projecteur de source (Flexitron, Elekta Brachytherapy, Veenendaal, Pays-Bas). Les coordonnées de reconstructions ont été prises lors de la rétraction du câble de vérification. Une comparaison des reconstructions avec différentes vitesses de rétraction du câble a été faite. Les décalages de 5 mm ont tous été identifiés avec une vitesse de reconstruction de 10 cm/s. Néanmoins, il faut une vitesse maximale de 2,5 cm/s pour détecter les décalages de 1 mm. Deux dosimètres avec suivi EM ont été construits, soit un avec une fibre scintillante de plastique(BCF-60) et l'autre avec un scintillateur inorganique (ZnSe:O). Les dosimètres construits ont été calibrés. Les mesures de dose ont été faites en respectant les conditions de diffusion complète et ont été comparées avec le formalisme du TG-43. Par rapport à ce dernier, le dosimètre organique avait une différence de 1,7± 0,2 % alors que l'inorganique possédait une différence de 1,5± 0,7 %pour des distances source-dosimètre allant de 8 mm à 60 mm. Une étude de détection d'erreur a été accomplie. Un gain maximal de 24,0 % est observé pour les déplacements latéraux de 0,5 mm pour le dosimètre inorganique lorsque le suivi EM est utilisé, tandis qu'un gain maximal pour les déplacements longitudinaux (0,5 mm) de 17,4 % a été montré pour ce même scintillateur. Les différents résultats de ce projet quantifient les gains ainsi que les perpectives que l'ajout du suivi EM apportent à la curiethérapie HDR et justifient son introduction dans ce domaine. / High-dose-rate (HDR) brachytherapy is a cancer treatment used for various sites such as gynecological, prostate, breast, head and neck cancers. The technique consists in delivering a dose of radiation by having one or multiple sources in close proximity or with in a tumor. This is a multi-step process and errors can happen at any step during its execution. Several studies have used in vivo dosimetry to detect and avoid possible errors. This practice is not standardized, as no commercial solution currently exists on the market. In addition to dosimetry, electromagnetic (EM) tracking systems have also proven to be useful for the detection of some pre-treatment errors. This thesis explores errors that can occur during the treatment process and suggests a solution based on electromagnetic tracking. The construction of a dosimeter and the use of an EM tracking will be studied in the context of high-dose-rate (HDR) brachytherapy. First, a retrospective study was completed to highlight the required performance of an in vivo dosimeter during prostate cancer treatments. Dwell positions and dwell times for all patients were extracted from each treatment file. A virtual dosimeter was positioned in one of the treatment catheters for each patient. A comparison of each dwell times and dwell positions was completed for the identification of catheters. It has been shown that an accuracy of 1 mm would be ideal on the source-dosimeter distance. For the studied patient cohort, dwell times are better discriminators than dwell positions. This study showed that it is important to avoid placing the dosimeter near the center of the implant. Then, a selection of components for the construction of the dosimeter was performed. Among the available sensors, the one with the smallest impact on the scintillator response was chosen for the work quantifying the gain of EM tracking. The angular dependence and the sensor-scintillator distance were also studied. The reconstruction of a shielded applicator prototype for gynecological cancer was made using EM tracking. An average error of the selected sensor for this study was 0.17 mm when it was 250 mm from the field generator. EM tracking was also tested when integrated into the check cable of an after loader (Flexitron, Elekta Brachytherapy, Veenendaal, Netherlands). The reconstruction coordinates were taken during retraction of the check cable. A comparison of the reconstructions for different cable speeds was made. From this study, the speed for a linear path reconstruction is recommended at 5 cm/s. The 5-mm shifts were all identified with a reconstruction speed of 10 cm/s. Nevertheless, a maximum speed of 2.5 cm/s was needed to detect 1-mm shifts. Two dosimeters were constructed, one with a plastic scintillating fiber (BCF-60) and one with an inorganic scintillator(ZnSe:O). All dose measurements were made in full scatter conditions and were compared with the TG-43 formalism. Compared to the latter, the organic dosimeter had a difference of 1.7± 0.2 % while the inorganic had a difference of 1.5± 0.7 % over an interval of 8 mm to 60 mm from the source. An error detection study was performed and a comparison was made to determine the gain provided by the EM tracking. A maximum gain of 24.0 % was observed with a lateral displacement of 0.5 mm for the inorganic dosimeter. For longitudinal displacements (0.5 mm), a maximum gain of 17.4 % was shown for this same scintillator. The different results obtained in this project will quantify the performance for the construction of an in vivo dosimeter for HDR brachytherapy. The gains from the addition of EM monitoring to HDR brachytherapy will justify its use in this field.
|
112 |
Memory-Constrained Security EnforcementTalhi, Chamseddine 12 April 2018 (has links)
Avec l'extension des cellulaires, des réseaux sans fil et des périphériques mobiles, Java est devenu incontestablement l'environnement d'exécution le plus populaire. Cela est dû à ses aspects de sécurité, portabilité, mobilité et réseaux. Dans ce contexte, la plateforme de choix est Java ME-CLDC. Aussi, vu le nombre grandissant d'applications Java destinées aux périphériques mobiles, la sécurité est devenue un enjeu crucial à considérer d'une manière primordiale. Sécuriser ce type d'applications devient plus qu'impératif, notamment lorsque celles-ci manipulent des données confidentielles telles que les informations relatives aux transactions électroniques. Plus encore, les périph ériques supportant Java se retrouvent souvent interconnectées, ce qui signifie que les applications peuvent ainsi créer des connexions réseaux et faire circuler des données critiques sur les canaux de communications. Cependant, les efforts considérables déployés afin de sécuriser Java ME-CLDC se heurtent à des contraintes de limitations strictes de l'espace mémoire disponible, au sein des périphériques en question. Dans cette optique, cette thèse étudie le problème du maintien de la sécurité sous contraintes mémoire, et cela en analysant la sécurité de la plateforme Java ME-CLDC. Plus précisément, les objectifs majeurs de notre sujet de recherche sont (1) l'évaluation et l'amélioration de la sécurité de Java ME-CLDC et (2) la modélisation du monitoring d'exécution (EM) en y introduisant des contraintes mémoire. à vrai dire, EM constitue une classe importante et omniprésente parmi tous les mécanismes de sécurité utilisés dans les plateformes Java. Les principaux résultats auxquels a abouti notre investigation sont les suivants : - Une analyse de la sécurité de Java ME-CLDC. Les deux contributions principales qu'a engendré cette analyse sont l'analyse de vulnérabilité et l'analyse des risques de cette plateforme. L'analyse de vulnérabilité a révélé la présence de certaines faiblesses dans la plateforme, elle a montré également la manière permettant d'améliorer son modèle de sécurité. Quant à l'analyse des risques, elle a fourni une estimation de la gravité des risques associés aux vulnérabilités décelées. - Une modélisation du monitoring d'exécution sous contraintes mémoire. Cette modélisation couvre aussi bien les moniteurs conventionnels que des moniteurs plus puissants. Les contributions principales qui découlent de notre modélisation sont les suivantes: Premièrement, nous avons défini une nouvelle classe d'automates, dite Bounded History Automata (BHA) ou automates à historique borné, classe d'automate qui permet de spécifier les mécanismes EM opérant sous contraintes mémoire. Deuxièmement, nous avons identifié une nouvelle taxonomie orientée mémoire des propriétés assurées par EM. Troisièmement, nous avons étudié les propriétés localement testables qui peuvent être assurées par des EMs opérant sous contraintes mémoire. Cela est fait en deux étapes: on commence par identi- fier les propriétés assurées par EMs qui sont de nature locale, ensuite on vérifie si ces dernières peuvent être spécifiées par des BHAs. / With the proliferation of mobile, wireless and internet-enabled devices (e.g., PDAs, cell phones, pagers, etc.), Java is emerging as a standard execution environment due to its security, portability, mobility and network support features. The platform of choice in this setting is Java ME-CLDC. With the large number of applications available for Javaenabled network-connected devices, security is of paramount importance. Applications can handle user-sensitive data such as phonebook data or bank account information. Moreover, Java-enabled devices support networking, which means that applications can also create network connections and send or receive data. However, the considerable efforts of securing Java ME-CLDC are constrained by strict memory limitations of the target devices. This thesis aims at investigating memory-constrained security by analyzing the security of Java ME-CLDC and characterizing enforceable security policies. More precisely, the main objectives of our research are (1) evaluating and improving the security of Java ME-CLDC and (2) characterizing memory-constrained execution monitoring; an important class of security mechanisms. The main results of our research are the following: - A security analysis of Java ME-CLDC. The two main contributions of this analysis are a vulnerability analysis and a risk analysis of the platform. The vulnerability analysis revealed the presence of vulnerabilities in the platform and showed how to improve the underlying security model. The risk analysis provided a seriousness estimation of the risks associated with the uncovered vulnerabilities. - A characterization of memory-constrained execution monitoring. This characterization covers conventional monitors as well as more powerful monitors. The contribution of this characterization is mainly threefold. First, we deffined a new automata class, called Bounded History Automata (BHA), to specify memoryconstrained EM enforcement. Second, we identiffied a new memory-directed taxonomy of EM-enforceable properties. Third, we investigated the enforcement of local properties using memory-constrained EM. This was performed by identifying BHA-enforceable local properties and explaining how to check whether an EM-enforceable policy is local or not.
|
113 |
Inférence de certificats pour la vérification statique des programmes JavaMenif, Emna 18 April 2018 (has links)
La Sécurité des Systèmes d'Information est l'un des défis les plus urgents des différents organismes de la société actuelle. Le problème de sécurité a émergé du progrès technologique rapide qui pousse à l'utilisation des \emph{Systèmes d'Information}. L'un de ces progrès est l'utilisation de code mobile. En effet, pour protéger ses informations critiques d'une éventuelle menace d'un code mobile, un organisme doit chercher des solutions de plus en plus élaborées. Une des approches émergeantes pour aborder ce problème est la compilation certifiée. Il s'agit d'une approche statique, basée sur le langage et génère en plus du code objet, un certificat constitué des informations relatives aux aspects de sécurité d'un programme. En plus des avantages de l'analyse statique, cette approche fait coopérer le producteur du code et son consommateur. De plus, ce dernier n'a plus à faire confiance au producteur. Dans cette thèse nous avons appliqué cette approche au langage Java afin de vérifier statiquement la sécurité. En effet, Java couvre une gamme de périphériques, d'ordinateurs et de réseaux grâce à son évolutivité, son efficacité, sa portabilité et sa sécurité. Toutefois, les propriétés de sécurité de haut niveau sont vérifiées dynamiquement dans Java par le vérificateur du \emph{bytecode} et le gestionnaire de sécurité. Nous proposons alors de concevoir et d'implanter un compilateur certificateur pour Java (JACC) afin d'accroître la flexibilité, l'efficacité et la robustesse de l'architecture de sécurité de Java. Le certificat que génère JACC est vérifié statiquement par le vérificateur de l'architecture JACC. Il est constitué d'annotations qui essaient de reporter et abstraire au mieux le comportement du programme. Les principaux résultats qui nous ont permis d'atteindre ces objectifs sont: \begin{enumerate} \item la définition de la syntaxe et sémantique des annotations du certificat; \item la conception et l'implantation de JACC en partant de Jikes, un compilateur pour le langage Java développé par IBM. Nous avons également pu mener une étude expérimentale pour mesurer la performance de JACC ainsi que la taille des fichiers \emph{.class} générés et nous les avons comparés à Jikes; \item l'élaboration d'un cadre formel pour spécifier le module d'inférence. Cette spécifi\-cation décrit la sémantique opérationnelle de chaque étape d'inférence et ce pour l'ensemble des \emph{opcodes} ainsi qu'un système de types pour les annotations du certificat. \end{enumerate} / Information Systems Security is one of the most pressing challenges facing all kind of organizations today. The security problem has raised from rapid technological advances that are stimulating a greater use of \emph{Information Systems} in world-wide organizations. One of these advances is the use of mobile code. Keeping critical information safe from malicious mobile code is challenging. One way to address the security issue for mobile code is using certifying compilation. The certifying compilation is a language-based, static technique used to collect information (certificate) regarding the safety and security of a software. In addition to the advantages of the static analysis, this approach alleviates the burden on the consumer. The other advantage of this approach is to restrict the trust of the consumer to the verifier only. In this thesis we have applied this approach to Java to check safety and security statically. As we know, Java is present in a wide range of devices, computers, and networks due to it's versatility, efficiency, platform portability and security . Nevertheless, high-level security properties are verified by bytecode verifier and security manager at run time. The main objectives of this thesis are the design and the implementation of a Java certifying compiler (JACC) that helps to increase the flexibility, efficiency and robustness of the Java security architecture. Indeed, JACC certificate is verified statically by the JACC verifier to ensure high-level security properties. The certificate is made up of annotations that try to capture the behavior of a software and represent it in an abstract form. This behavior could be critical and aims to threaten the software user. The main research contributions that led to reach these objectives are: \begin{enumerate} \item the definition of the certificate syntax and semantic; \item the design and the implementation of JACC based on Jikes. We have also measured the generated \emph{.class} files sizes and JACC performance and compared them to Jikes; \item the elaboration of a formal framework in which we formally specify the certificate inference. This specification describes the operational semantic of each inference step as long as a type system for the certificate annotations. \end{enumerate}
|
114 |
L'effet du degré de spécificité des objectifs pédagogiques sur la construction de tests de rendement scolaireGirard, Richard 25 April 2018 (has links)
Au cours des vingt dernières années, les objectifs pédagogiques ont été l’objet d'une préoccupation accrue tant du côté de leur formulation que du côté de leur interprétation. L'expression "comportement observable" est devenue une sorte de cliché lorsqu'on parle de formulation d'objectifs. La publication de la Taxonomie des Objectifs pédagogiques de Benjamin Bloom en 1956 est considérée comme un événement important. Cependant, il faut concéder à Ralph Tyler (1950) le crédit d'avoir été le premier à insister sur l'importance des objectifs définis en termes opérationnels. Aux noms de Bloom et de Tyler, ajoutons ceux de Mager (1962), Krathwohl (1964), Gagné (1965), Baker (1967) et Sullivan (1969) qui ont tenté de clarifier et de spécifier de quelle manière les objectifs devaient être formulés. Cette importance accordée à la formulation des objectifs est explicable par les décisions multiples qui peuvent être prises concernant par exemple la planification de l'enseignement et l'évaluation. Cette importance est également explicable par la possibilité qu’il y ait plusieurs personnes engagées dans une prise de décision quelconque depuis leur formulation jusqu'à leur interprétation. Une question fondamentale se pose alors: l'intention initiale exprimée dans un objectif est-elle perçue de la même façon par des personnes différentes? Dans le cadre de la présente recherche, cette question a été soulevée en considérant certaines décisions qui peuvent être prises dans le domaine de l'évaluation du rendement scolaire et plus précisément au niveau de l' élaboration d'instruments de mesure» / Québec Université Laval, Bibliothèque 2014
|
115 |
Étude de la possibilité de rédiger une épreuve diagnostique dans le cadre de la mesure reliée à un domaineTorkia-Lagacé, Mirette 11 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
116 |
Sécurité FPGA : analyse de la cybersécurité des dispositifs SoC FPGA / Analyse de la cybersécurité des dispositifs SoC FPGAProulx, Alexandre 09 October 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2022 / Alors que les appareils de tous les jours deviennent de plus en plus intelligents et interconnectés, il existe un besoin d'appareils intégrés dotés de capacités de traitement étendues qui favorisent des cycles de développement courts. Dans les applications IoT (Internet of Things), il est également nécessaire que ces dispositifs intégrés soient à faible consommation d'énergie et à faible latence pour traiter efficacement les données de plusieurs capteurs en parallèles. Ce besoin peut être largement satisfait par les dispositifs SoC FPGA ou System-on-Chip Field Programmable Gate Array (en français, systèmes sur puce intégrant des circuits logiques programmables). Les dispositifs SoC FPGA intègrent un HPS (Hard Processing System) étroitement lié à une structure FPGA. Tout en permettant un délai de conception rapide par rapport aux dispositifs ASIC (Application-Specific Integrated Circuit) traditionnels, le SoC FPGA permet d'apporter des mises à niveau matérielles aux dispositifs déployés via ses diverses interfaces. De plus, la combinaison du HPS avec le FPGA apporte de nombreux avantages aux applications comme l'intelligence artificielle en permettant la mise en œuvre avec facilité de circuits massivement parallèles. Cependant, le problème avec les dispositifs SoC FPGA réside dans la manière dont les données de configuration sont stockées. Par exemple, dans les dispositifs ASIC, le circuit est implémenté directement dans le silicium. Alors qu'un acteur malveillant pourrait effectuer la rétro-ingénierie du silicium pour récupérer la fonction du circuit, un tel exploit nécessite des équipements coûteux, des connaissances approfondies et un processus fastidieux. Cependant, étant donné que les FPGA sont composés d'une structure reconfigurable, les données de configuration doivent être stockées dans une structure de mémoire à l'intérieur de l'appareil. L'extraction de ces données pourrait fournir à un acteur malveillant des informations précieuses sur le fonctionnement du circuit sans nécessairement impliquer le processus de rétro-ingénierie matérielle long et coûteux. Ce mémoire se concentre sur l'aspect cybersécurité des dispositifs SoC FPGA qui pourraient mettre en péril les données de configuration du FPGA. Par exemple, alors que les périphériques FPGA traditionnels peuvent être correctement sécurisés en limitant l'accès aux interfaces directement connectées à la mémoire des données de configuration, les interconnexions complexes du HPS avec le FPGA ajoutent un niveau de complexité qui transfère nécessairement la tâche de sécuriser le périphérique aux développeurs. Cette complexité accrue est la principale préoccupation étudiée dans ce mémoire. Nous visons à produire un modèle générique de menace de cybersécurité pour les dispositifs SoC FPGA afin de fournir une base de référence sur laquelle les concepteurs peuvent s'appuyer tout en effectuant l'analyse de cybersécurité de leurs conceptions. Nous effectuons un examen approfondi des attaques existantes sur les appareils SoC FPGA et identifions les vulnérabilités potentielles. L'une des vulnérabilités identifiées, qui concerne les effets des injections de fautes électromagnétiques, fait l'objet d'une étude approfondie de sa faisabilité. Une deuxième vulnérabilité identifiée, liée à la mémoire synchrone dynamique à accès aléatoire (SDRAM) est confirmée via une démonstration pratique qui exploite le processus de démarrage du dispositif SoC FPGA. / As everyday devices become increasingly intelligent and further interconnected, there is a need for integrated devices with extensive processing capabilities that favour short development cycles. In applications of the Internet of Things (IoT), there is a further need for these integrated devices to be low-power and low-latency to efficiently process data from multiple sensors in a parallel fashion. This need can largely be met by Systems on a Chip (SoC) Field Programmable Gate Array (FPGA) devices. SoC FPGA devices incorporate a hard processing system (HPS) intricately connected with an FPGA fabric. While allowing for a quick design turnaround time compared to traditional Application-Specific Integrated Circuit (ASIC) devices, SoC FPGA conveniently allows for hardware upgrades to be brought to deployed devices through its various interfaces. Furthermore, the combination of the HPS with the FPGA brings many advantages to applications such as artificial intelligence by allowing massively parallel circuits to be implemented with relative ease. However, how the configuration data is stored is a concern with SoC FPGA devices. For instance, in ASIC devices, the circuit is implemented directly within the silicon. While a malicious actor could reverse engineer the silicon to retrieve the circuit's function, such a feat requires expensive equipment, extensive expert knowledge, and a tedious process. However, since FPGA devices are composed of a reconfigurable fabric, one must store the configuration data within a memory structure inside the device. Extracting this data could provide a malicious actor with valuable insight into the circuit's function without necessarily implicating the expensive and time-consuming hardware reverse engineering process. This thesis focuses on the cybersecurity aspect of SoC FPGA devices that could jeopardize the FPGA's configuration data. For instance, while one can adequately secure traditional FPGA devices by limiting access to interfaces directly connected to configuration data's memory, the HPS's intricate interconnections with the FPGA add a level of complexity that necessarily handovers the task of securing the device to the developers. This increased complexity is the primary concern being investigated in this thesis. We aim to derive a generic cybersecurity threat model for SoC FPGA devices to provide a baseline for designers to build upon while performing the cybersecurity analysis of their designs. We provide a thorough review of existing attacks on SoC FPGA devices and identify potential vulnerabilities. One of the identified vulnerabilities, which deals with the effects of electromagnetic fault injections, is the subject of an in-depth investigation into its feasibility. A second identified vulnerability related to the Synchronous Dynamic Random Access Memory (SDRAM) is confirmed via a practical demonstration that exploits the boot process of the SoC FPGA device.
|
117 |
Mesures optiques de la concentration du frasil en laboratoire par transmissométrie et imagerie optique par holographie numériqueLahnichi, Adil 01 May 2024 (has links)
La détermination de la concentration du frasil ainsi que ses caractéristiques géométriques est un défi majeur du point de vue technologique. Plusieurs instruments ont été utilisés par de nombreux chercheurs pour arriver à comprendre le comportement du frasil et à déterminer ses propriétés. Ce projet de recherche a pour but d’essayer de définir la concentration du frasil ainsi que ses caractéristiques géométriques à l’aide des instruments optiques. En premier lieu, la concentration du frasil dans un volume d’eau prédéfini a été évaluée à l’aide d’un transmissomètre dont la longueur d’onde est de 660 nm. Les résultats de ces expérimentations vont permettre de comprendre, en fonction des conditions entourant l’expérimentation, l’évolution de la concentration du frasil et son comportement vis-à-vis l’instrument optique et par la suite, de déterminer une relation entre la concentration du frasil et le taux d’atténuation de la transmission de la lumière du transmissomètre. En deuxième lieu, les propriétés géométriques du frasil souvent reportées à un disque d’un diamètre environ égal à dix (10) fois son épaisseuront été évaluées à l’aide d’un deuxième instrument optique qui utilise la technique de l’holographie numérique enligne nommée le LISST-HOLO. Cet instrument permet de capturer une image holographique des particules en suspension dans un volume d’eau de 1,86 cm³. Après la réalisation des expérimentations en laboratoire dans un environnement contrôlé avec l’utilisation des instruments optiques, on devrait comprendre et déterminer le comportement de ses instruments vis-à-vis la formation du frasil. Les résultats découlant permettent la calibration des instruments afin de procéder à leur déploiement dans un environnement naturel (rivière) pour étudier la formation du frasil. / The determination of the concentration of frazil ice and its geometric characteristics is a major challenge. Several instruments have been used by many researchers to understand the behavior of frazil ice and determine its properties. The purpose of this research project is to try to define frazil concentration and its geometric characteristics using optical instruments. Firstly, the concentration of frazil ice in a predefined volume of water was evaluated using a transmissometer. The results of these experiments will make it possible to understand, the evolution of frazil concentration and thebehavior of theoptical instrument. Then a relationship between the concentration frazil and the attenuation rate of transmissometer light transmission will be determined. Secondly, the geometrics properties of the frazil ice were evaluated with a second optical instrument that uses the technique of in-line digital holography (LISST-HOLO). This instrument captures a holographic image of suspended particles in a water volume of 1.86 cm³. Once laboratory experiments in a controlled environment with the use of optical instruments will be executed, we will understand the behavior of these instruments as for the formation of frazil ice. The results allow calibration of the instruments in orderto proceed with their deployment in a natural environment to study the formation of frazil ice in a river for example.
|
118 |
Modélisaton et sécurité des réseauxCormier, Alexandre 13 April 2018 (has links)
L'avènement d'Internet révolutionne l'accès à l'information, mais contribue également à l'essor de nouveaux services, notamment le commerce électronique, à l'allègement de la bureaucratie et à l'arrivée d'une multitude de e-services. Or, le développement de cette technologie de l'information s'est accompagné d'une panoplie de problématiques. Parmi celles-ci, les plus inquiétantes ont trait à la sécurité puisqu'elles mettent en péril le bon fonctionnement de ces services. Le présent mémoire approfondit ces problématiques de sécurité selon une approche formelle : les algèbres de processus. Dans un premier temps, le fruit de la recherche sur les failles de sécurité réseau de niveau deux et trois de la couche TCP/IP et d'une étude comparative de l'expressivité des principales algèbres de processus est présenté. Dans un second temps, les caractéristiques souhaitées d'une algèbre de modélisation de réseau sont mises en exergue et sont intégrées dans la syntaxe et la sémantique d'une nouvelle algèbre. Finalement, une nouvelle algèbre de processus pour la modélisation de réseau, Netcal, ainsi que les principes d'un système de détection de failles d'architecture et de configuration de réseau sont explicités.
|
119 |
La relation entre le niveau de production divergente à contenu sémantique et figural à des tests de créativité et les besoins interpersonnels mesurés par le FIRO-B de SchutzDufresne, Jean-Pierre 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
120 |
Descripteurs couleur locaux invariants aux conditions d'acquisitionSong, Xiaohu 08 December 2011 (has links) (PDF)
La mise au point de descripteurs locaux discriminants est aujourd'hui une priorité dans de nombreuses applications comme la reconnaissance d'objets, le suivi d'objets, la reconstruction 3D ou l'estimation de mouvement. La problématique réside dans le fait que ces descripteurs doivent être invariants aux conditions d'acquisition tout en conservant un pouvoir discriminant important. Dans ce contexte, nous nous sommes intéressés à l'invariance des descripteurs locaux de la littérature. Nous les avons notamment catégorisés en fonction des hypothèses sur lesquelles repose leur invariance. Ensuite, nous avons proposé des descripteurs locaux qui exploitent l'information de couleur dans les images. Nous avons montré que cette information peut être très pertinente lorsqu'elle est combinée à une information spatiale, à condition que son degré d'invariance soit contrôlé et adapté aux applications considérées. Ainsi, nous avons proposé un ensemble de descripteurs locaux couleur avec des degrés d'invariance différents. Ainsi, nous introduisons tout d'abord deux nouveaux descripteurs qui caractérisent les distributions spatiales des couleurs dans les régions analysées. L'idée originale consiste à appliquer des transformations affines entre les coordonnées spatiales des pixels et leurs coordonnées couleur. En effet, chaque pixel étant caractérisé par 5 valeurs, 2 coordonnées spatiales xy dans l'image et 3 composantes couleur RVB, nous proposons de rechercher une transformation affine qui permet de transformer les coordonnées xy de tous les pixels de la région concernée en coordonnées RVB de ces pixels. Nous montrons que l'application de cette transformation aux coordonnées xy fournit des coordonnées dans l'espace RVB qui a un double avantage. D'une part, les coordonnées d'un seul pixel dépendent à la fois de toutes les couleurs présentes dans la région mais aussi de leur répartition spatiale. Quelques coordonnées permettent donc de résumer efficacement le contenu de la région. D'autre part, ces coordonnées présente une invariance totale à toute transformation affine appliquée dans l'espace image 2D(invariance géométrique) et comme elles sont homogènes à des coordonnées couleur, nous pouvons leur procurer une invariance photométrique en leur appliquant des transformations affines particulières. Nous montrons que le degré d'invariance peut être contrôlé en fonction des besoins de l'application. Ces coordonnées nous permettent de définir le descripteur IVC (Image Vers Couleur). De manière similaire, nous évaluons une transformation affine de l'espace couleur à l'espace image et appliquons cette transformation aux coordonnées couleur. Les coordonnées obtenues par cette transformation sont invariantes à toute transformation affine appliquée dans l'espace couleur, elles présentent donc un degré d'invariance élevé aux variations photométriques. Ces coordonnées nous permettent de constituer le descripteur CVI (Couleur Vers Image). Nous montrons que ces deux descripteurs fournissent de très bons résultats dans le cadre de la reconnaissance d'objet et présentent une telle complémentarité que le descripteur obtenu par concaténation de IVC et CVI fournit de meilleurs résultats que la plupart des descripteurs couleur parus dans la littérature. Ensuite, nous proposons un descripteur qui présente un degré d'invariance plus élevé que les deux précédents puisqu'il n'est pas sensible aux transformations non-linéaires des couleurs modélisées par des fonctions croissantes appliquées indépendamment sur chaque composante couleur. Pour cela, nous exploitons les mesures de rang des pixels dans les images. De plus, nous utilisons les corrélations entre mesures de rang obtenues pour différentes composantes couleur. Ceci nous a permis de proposer un descripteur lui aussi très compact qui présente un degré d'invariance photométrique assez élevé. Enfin, nous abordons le problème de la caractérisation locale d'images par auto-similarités
|
Page generated in 0.0311 seconds