• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids / Auto-guérison en ligne et non clairvoyante des exécutions de chaînes de traitement sur grilles de calcul : Méthodes et évaluation dans une science-gateway pour l’imagerie médicale

Da Silva, Rafael Ferreira 29 November 2013 (has links)
Les science-gateways, telles que la Plate-forme d’Imagerie Virtuelle (VIP), permettent l’accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d’informations et de couches intergicielles utilisées créent beaucoup d’échecs et d’erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c’est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l’activité des utilisateurs n’est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l’exécution de l’application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d’information concernant les applications et ressources en production. Les ressources de calcul sont d’ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d’exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d’auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d’un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l’hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d’auto-guérison détermine le seuil de gravité des erreurs à partir de l’historique de la plate-forme. Un ensemble d’actions spécifiques est alors sélectionné par règle d’association en fonction du niveau d’erreur. / Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.
82

Codes correcteurs d'erreurs convolutifs non commutatifs / Non-commutative convolutional error correcting codes

Candau, Marion 09 December 2014 (has links)
Un code correcteur d'erreur ajoute de la redondance à un message afin de pouvoir corriger celui-ci lorsque des erreurs se sont introduites pendant la transmission. Les codes convolutifs sont des codes performants, et par conséquent, souvent utilisés. Le principe d'un code convolutif consiste à se fixer une fonction de transfert définie sur le groupe des entiers relatifs et à effectuer la convolution d'un message avec cette fonction de transfert. Ces codes ne protègent pas le message d'une interception par une tierce personne. C'est pourquoi nous proposons dans cette thèse, des codes convolutifs avec des propriétés cryptographiques, définis sur des groupes non-commutatifs. Nous avons tout d'abord étudié les codes définis sur le groupe diédral infini, qui, malgré de bonnes performances, n'ont pas les propriétés cryptographiques recherchées. Nous avons donc étudié ensuite des codes convolutifs en bloc sur des groupes finis, avec un encodage variable dans le temps. Nous avons encodé chaque message sur un sous-ensemble du groupe différent à chaque encodage. Ces sous-ensembles sont générés de façon chaotique à partir d'un état initial, qui est la clé du cryptosystème symétrique induit par le code. Nous avons étudié plusieurs groupes et plusieurs méthodes pour définir ces sous-ensembles chaotiques. Nous avons étudié la distance minimale des codes que nous avons conçus et montré qu'elle est légèrement plus petite que la distance minimale des codes en blocs linéaires. Cependant, nous avons, en plus, un cryptosystème symétrique associé à ces codes. Ces codes convolutifs non-commutatifs sont donc un compromis entre correction d'erreur et sécurité. / An error correcting code adds redundancy to a message in order to correct it when errors occur during transmission.Convolutional codes are powerful ones, and therefore, often used. The principle of a convolutional code is to perform a convolution product between a message and a transfer function, both defined over the group of integers. These codes do not protect the message if it is intercepted by a third party. That is why we propose in this thesis, convolutional codes with cryptographic properties defined over non-commutative groups. We first studied codes over the infinite dihedral group, which despite good performance, do not have the desired cryptographic properties. Consequently, we studied convolutional block codes over finite groups with a time-varying encoding. Every time a message needs to be encoded, the process uses a different subset of the group. These subsets are chaotically generated from an initial state. This initial state is considered as the symmetric key of the code-induced cryptosystem. We studied many groups and many methods to define these chaotic subsets. We examined the minimum distance of the codes we conceived and we showed that it is slightly smaller than the minimum distance of the linear block codes. Nevertheless, our codes have, in addition, cryptographic properties that the others do not have. These non-commutative convolutional codes are then a compromise between error correction and security.
83

Channel Emulation for active characterization of MIMO communication systems / Emulation de canaux pour la caractérisation Active des systèmes de communication MIMO

Arsalane, Nabil 16 December 2014 (has links)
Cette thèse s’inscrit dans le domaine de la caractérisation des systèmes de communication sans fil utilisant la diversité des antennes. En effet, ces systèmes permettent de lutter contre les évanouissements des signaux, lorsque le terminal est placé dans un environnement riche en multi-trajets. L’objectif d'une telle recherche est : d’étudier l'association de plusieurs antennes à l'émission et / ou la réception pour améliorer le bilan de liaison, et la capacité des systèmes sans fil, (diminution de BER (Bit Error Rate), augmentation de débit ...). Cette thèse s’intéresse à l'aspect électromagnétique et traitement du signal. Afin de comprendre les phénomènes mis en jeu, et de caractériser les performances du terminal, il doit être placé dans un environnement de propagation multi-trajets contrôlable dans le temps et dans l'espace.Cela nous amène à trouver des méthodes de mesures capables de reproduire des modèles de canaux de propagation réalistes. Dans le cadre de cette thèse la méthode utilisée est la chambre réverbérante. Dans cette thèse, nous nous intéressons à l'aspect temporel. La chambre réverbérante (RC) est considérée comme un outil utile pour émuler des environnements riches en multi-trajets. Dans cette contribution, ce dispositif est utilisé pour émuler des modèles canaux multi-trajets, et évaluer la performance des systèmes de communication sans fil. Cette évaluation est effectuée avec des mesures en temps réel et non temps réel. Parmi les objectifs de cette thèse est d'obtenir un modèle de simulation électromagnétique de la chambre réverbérante basé sur une approche circuit, afin de déterminer la fonction de transfert de canal en fonction des pertes. / This thesis is part of the field of the characterization of wireless communication systems using antennas diversity. Indeed, such systems allow fighting against the signals fading, when the terminal is inside a strong multipath environment. The issue of such research is: to study the association of multiple antennas at transmitting and/or receiving sides to improve the link budget, and the capacity of wireless systems, (decrease of BER (Bit Error Rate), increase of throughput …). This thesis takes an interest to the electromagnetic aspect, and signal processing. In order to understand the involved phenomena, and to characterize the terminal performance, it should be placed in a controlled multipath propagation environment in time, and in space. This brings us to find measurement methodologies able to reproduce models of realistic propagation channels. As part of this thesis the method used is the reverberation chamber. In this thesis we are interested in the time aspect. Reverberation chamber (RC) is considered as a useful tool to emulate rich multipath environments. In this contribution, this device is employed to emulate multi clusters channel models (cluster is defined as a group of multipath), and evaluate performance of wireless communication systems. This evaluation is performed with real time and not-real time measurements. It remains to note that among the objectives set out in this PhD thesis is to obtain electromagnetic simulation model of the reverberation chamber based on circuit approach, in order to determine the channel transfer function versus losses quantities.
84

Sécurité des protocoles cryptographiques fondés sur la théorie des codes correcteurs d'erreurs / Security of cryptographic protocols based on coding theory

Tale kalachi, Herve 05 July 2017 (has links)
Contrairement aux protocoles cryptographiques fondés sur la théorie des nombres, les systèmes de chiffrement basés sur les codes correcteurs d’erreurs semblent résister à l’émergence des ordinateurs quantiques. Un autre avantage de ces systèmes est que le chiffrement et le déchiffrement sont très rapides, environ cinq fois plus rapide pour le chiffrement, et 10 à 100 fois plus rapide pour le déchiffrement par rapport à RSA. De nos jours, l’intérêt de la communauté scientifique pour la cryptographie basée sur les codes est fortement motivé par la dernière annonce de la “National Institute of Standards and Technology" (NIST), qui a récemment initié le projet intitulé “Post-Quantum cryptography Project". Ce projet vise à définir de nouveaux standards pour les cryptosystèmes résistants aux attaques quantiques et la date limite pour la soumission des cryptosystèmes à clé publique est fixée pour novembre 2017. Une telle annonce motive certainement à proposer de nouveaux protocoles cryptographiques basés sur les codes, mais aussi à étudier profondément la sécurité des protocoles existants afin d’écarter toute surprise en matière de sécurité. Cette thèse suit cet ordre d’idée en étudiant la sécurité de plusieurs protocoles cryptographiques fondés sur la théorie des codes correcteurs d’erreurs. Nous avons commencé par l’étude de la sécurité d’une version modifiée du cryptosystème de Sidelnikov, proposée par Gueye et Mboup [GM13] et basée sur les codes de Reed-Muller. Cette modification consiste à insérer des colonnes aléatoires dans la matrice génératrice (ou de parité) secrète. La cryptanalyse repose sur le calcul de carrés du code public. La nature particulière des codes de Reed-Muller qui sont définis au moyen de polynômes multivariés binaires, permet de prédire les valeurs des dimensions des codes carrés calculés, puis permet de récupérer complètement en temps polynomial les positions secrètes des colonnes aléatoires. Notre travail montre que l’insertion de colonnes aléatoires dans le schéma de Sidelnikov n’apporte aucune amélioration en matière de sécurité. Le résultat suivant est une cryptanalyse améliorée de plusieurs variantes du cryptosystème GPT qui est un schéma de chiffrement en métrique rang utilisant les codes de Gabidulin. Nous montrons qu’en utilisant le Frobenius de façon appropriée sur le code public, il est possible d’en extraire un code de Gabidulin ayant la même dimension que le code de Gabidulin secret mais avec une longueur inférieure. Le code obtenu corrige ainsi moins d’erreurs que le code secret, mais sa capacité de correction d’erreurs dépasse le nombre d’erreurs ajoutées par l’expéditeur et par conséquent, un attaquant est capable de déchiffrer tout texte chiffré, à l’aide de ce code de Gabidulin dégradé. Nos résultats montrent qu’en fin de compte, toutes les techniques existantes visant à cacher la structure algébrique des codes de Gabidulin ont échoué. Enfin, nous avons étudié la sécurité du système de chiffrement de Faure-Loidreau [FL05] qui est également basé sur les codes de Gabidulin. Inspiré par les travaux précédents et, bien que la structure de ce schéma diffère considérablement du cadre classique du cryptosystème GPT, nous avons pu montrer que ce schéma est également vulnérable à une attaque polynomiale qui récupère la clé privée en appliquant l’attaque d’Overbeck sur un code public approprié. Comme exemple, nous arrivons en quelques secondes à casser les paramètres qui ont été proposés comme ayant un niveau de sécurité de 80 bits. / Contrary to the cryptosystems based on number theory, the security of cryptosystems based on error correcting codes appears to be resistant to the emergence of quantum computers. Another advantage of these systems is that the encryption and decryption are very fast, about five times faster for encryption, and 10 to 100 times faster for decryption compared to RSA cryptosystem. Nowadays, the interest of scientific community in code-based cryptography is highly motivated by the latest announcement of the National Institute of Standards and Technology (NIST). They initiated the Post-Quantum cryptography Project which aims to define new standards for quantum resistant cryptography and fixed the deadline for public key cryptographic algorithm submissions for November 2017. This announcement motivates to study the security of existing schemes in order to find out whether they are secure. This thesis thus presents several attacks which dismantle several code-based encryption schemes. We started by a cryptanalysis of a modified version of the Sidelnikov cryptosystem proposed by Gueye and Mboup [GM13] which is based on Reed-Muller codes. This modified scheme consists in inserting random columns in the secret generating matrix or parity check matrix. The cryptanalysis relies on the computation of the square of the public code. The particular nature of Reed-Muller which are defined by means of multivariate binary polynomials, permits to predict the values of the dimensions of the square codes and then to fully recover in polynomial time the secret positions of the random columns. Our work shows that the insertion of random columns in the Sidelnikov scheme does not bring any security improvement. The second result is an improved cryptanalysis of several variants of the GPT cryptosystem which is a rank-metric scheme based on Gabidulin codes. We prove that any variant of the GPT cryptosystem which uses a right column scrambler over the extension field as advocated by the works of Gabidulin et al. [Gab08, GRH09, RGH11] with the goal to resist Overbeck’s structural attack [Ove08], are actually still vulnerable to that attack. We show that by applying the Frobeniusoperator appropriately on the public key, it is possible to build a Gabidulin code having the same dimension as the original secret Gabidulin code, but with a lower length. In particular, the code obtained by this way corrects less errors than thesecret one but its error correction capabilities are beyond the number of errors added by a sender, and consequently an attacker is able to decrypt any ciphertext with this degraded Gabidulin code. We also considered the case where an isometrictransformation is applied in conjunction with a right column scrambler which has its entries in the extension field. We proved that this protection is useless both in terms of performance and security. Consequently, our results show that all the existingtechniques aiming to hide the inherent algebraic structure of Gabidulin codes have failed. To finish, we studied the security of the Faure-Loidreau encryption scheme [FL05] which is also a rank-metric scheme based on Gabidulin codes. Inspired by our precedent work and, although the structure of the scheme differs considerably from the classical setting of the GPT cryptosystem, we show that for a range of parameters, this scheme is also vulnerable to a polynomial-time attack that recovers the private key by applying Overbeck’s attack on an appropriate public code. As an example we break in a few seconds parameters with 80-bit security claim.
85

Cross-layer self-diagnosis for services over programmable networks / Auto-diagnostic multi-couche pour services sur réseaux programmables

Sánchez Vílchez, José Manuel 07 July 2016 (has links)
Les réseaux actuels servent millions de clients mobiles et ils se caractérisent par équipement hétérogène et protocoles de transport et de gestion hétérogènes, et des outils de gestion verticaux, qui sont très difficiles à intégrer dans leur infrastructure. La gestion de pannes est loin d’être automatisée et intelligent, ou un 40 % des alarmes sont redondantes et seulement un 1 ou 2% des alarmes sont corrélées au plus dans un centre opérationnel. Ça indique qu’il y a un débordement significatif des alarmes vers les adminis-trateurs humains, a comme conséquence un haut OPEX vue la nécessité d’embaucher de personnel expert pour accomplir les tâches de gestion de pannes. Comme conclusion, le niveau actuel d’automatisation dans les tâches de gestion de pannes dans réseaux télécoms n’est pas adéquat du tout pour adresser les réseaux programmables, lesquels promettent la programmation des ressources et la flexibilité afin de réduire le time-to-market des nouveaux services. L’automatisation de la gestion des pannes devient de plus en plus nécessaire avec l’arrivée des réseaux programmables, SDN (Software-Defined Networking), NFV (Network Functions Virtualization) et le Cloud. En effet, ces paradigmes accélèrent la convergence entre les domaines des réseaux et la IT, laquelle accélère de plus en plus la transformation des réseaux télécoms actuels en menant à repenser les opérations de gestion de réseau et des services, en particulier les opérations de gestion de fautes. Cette thèse envisage l’application des principes d’autoréparation en infrastructures basées sur SDN et NFV, en focalisant sur l’autodiagnostic comme facilitateur principal des principes d’autoréparation. Le coeur de cette thèse c’est la conception d’une approche de diagnostic qui soit capable de diagnostiquer de manière continuée les services dynamiques virtualisés et leurs dépendances des ressources virtuels (VNFs et liens virtuels) mais aussi les dépendances de ceux ressources virtuels de la infrastructure physique en-dessous, en prenant en compte la mobilité, la dynamicite, le partage de ressources à l’infrastructure en-dessous / Current networks serve billions of mobile customer devices. They encompass heterogeneous equipment, transport and manage-ment protocols, and vertical management tools, which are very difficult and costly to integrate. Fault management operations are far from being automated and intelligent, where around 40% of alarms are redundant only around 1-2% of alarms are correlated at most in a medium-size operational center. This indicates that there is a significant alarm overflow for human administrators, which inherently derives in high OPEX due to the increasingly need to employ high-skilled people to perform fault management tasks. In conclusion, the current level of automation in fault management tasks in Telcos networks is not at all adequate for programmable networks, which promise a high degree of programmability and flexibility to reduce the time-to-market. Automation on fault management is more necessary with the advent of programmable networks, led by with SDN (Software-Defined Networking), NFV (Network Functions Virtualization) and the Cloud. Indeed, the arise of those paradigms accelerates the convergence between networks and IT realms, which as consequence, is accelerating faster and faster the transformation of cur-rent networks leading to rethink network and service management and operations, in particular fault management operations. This thesis envisages the application of self-healing principles in SDN and NFV combined infrastructures, by focusing on self-diagnosis tasks as main enabler of self-healing. The core of thesis is to devise a self-diagnosis approach able to diagnose at run-time the dynamic virtualized networking services and their dependencies from the virtualized resources (VNFs and virtual links) but also the dependencies of those virtualized resources from the underlying network infrastructure, taking into account the mobility, dynamicity, and sharing of resources in the underlying infrastructure
86

Approche d'intégrité bout en bout pour les communications dans les systèmes embarqués critiques : application aux systèmes de commande de vol d'hélicoptères / End to end integrity approach for communication incritical embedded systems : application to helicopters flight control systems

Zammali, Amira 13 January 2016 (has links)
Dans les systèmes embarqués critiques, assurer la sûreté de fonctionnement est primordial du fait, à la fois, des exigences en sûreté dictées par les autorités de certification et des contraintes en sûreté de ces systèmes où des défaillances pourraient conduire à des évènements catastrophiques, voire la perte de vies humaines. Les architectures de ces systèmes sont aujourd'hui de plus en plus distribuées, s'appuyant sur des réseaux numériques complexes, ce qui pose la problématique de l'intégrité des communications. Dans ce contexte, nous proposons une approche bout en bout pour l'intégrité des communications, basée sur le concept du " canal noir " introduit par l'IEC 61508. Elle utilise les codes détecteurs d'erreurs CRC, Adler et Fletcher. Selon le niveau de redondance des systèmes, nous proposons une approche multi-codes (intégrité jugée sur un lot de messages) pour les systèmes dotés d'un niveau de redondance important et une approche mono-code (intégrité jugée sur chaque message) pour les autres cas. Nous avons validé ces propositions par des expérimentations évaluant le pouvoir de détection intrinsèque de chaque code détecteur et la complémentarité entre ces code en termes de pouvoir de détection, ainsi que leurs coûts de calcul avec une analyse de l'impact du type de leur implémentation et de l'environnement matériel (standard et embarqué : processeurs i7, STM32, TMS320C6657 et P2020). L'approche mono-code a été appliquée à un cas d'étude industriel : les futurs systèmes de commande de vol d'Airbus Helicopters. / In critical embedded systems, ensuring dependability is crucial given both dependability requirements imposed by certification authorities and dependability constraints of these systems where failures could lead to catastrophic events even loss of human lives. The architectures of these systems are increasingly distributed deploying complex digital networks which raise the issue of communication integrity. In this context, we propose an end to end approach for communication integrity. This approach is based on the "black channel" concept introduced by IEC 61508. It uses error detection codes particularly CRC, Adler and Fletcher. Depending on the redundancy level of targeted systems, we propose a multi-codes approach (integrity of a set of messages) for systems with an important redundancy level and a single- code approach (integrity per message) for the other cases. We validated our proposals through experiments in order to evaluate intrinsic error detection capability of each error detection code, their complementarity in terms of error detection and their computational costs by analyzing the impact of the type of implementation and the hardware environment (standard or embedded: i7, STM32, TMS320C6657 and P2020 processors). The single-code approach was applied to an industrial case study: future flight control systems of Airbus Helicopters.
87

Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiers

Ghazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
88

Les prix à la pompe à Québec réagissent-ils plus rapidement aux hausses qu'aux baisses du coût de l'essence?

Gilbert-Gonthier, Mathieu 19 April 2018 (has links)
Dans plusieurs marchés de l’essence, les prix semblent s’ajuster plus rapidement après des hausses que des baisses des coûts. Cet ajustement asymétrique pourrait entraîner un surcoût pour les automobilistes puisque les prix descendent plus lentement qu’ils le devraient. Plusieurs études ont été réalisées sur le sujet et la plupart indiquent la présence du phénomène. Au Québec, les rares études ont toutefois apporté des résultats mitigés. Ce mémoire vise à tester la présence d’ajustement asymétrique du prix de l’essence à Québec. Nous estimons trois modèles à correction d’erreur et deux d’entre eux indiquent la présence d’asymétrie. En particulier, nous trouvons que l’asymétrie s’observe en fonction de la marge bénéficiaire des essenceries et non du signe des variations des coûts, contrairement à ce que confirment plusieurs études. Plus précisément, le prix semble s’ajuster plus rapidement lorsque la marge est basse. Toutefois, nous estimons que l’asymétrie engendre un surcoût minime pour les automobilistes.
89

L’erreur lexicale au secondaire : analyse d’erreurs lexicales d’élèves de 3e secondaire et description du rapport à l’erreur lexicale d’enseignants de français

Anctil, Dominic 12 1900 (has links)
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale. / This research aims to describe 1) francophone students’ lexical errors in writing and 2) teachers’ relation to lexical errors (conception of error, vocabulary evaluation practices, feedback provided). The first part of the research consists in a three-level error analysis: 1) a linguistic description based on an error typology, 2) an evaluation of error gravity and 3) an explanation of the possible sources of error. The corpus analyzed is composed of 300 texts written in French class by 3rd year high school students. The analysis revealed 1144 lexical errors. The most common are semantic problems (30%), errors related to morphosyntactic properties of words (21%) and the use of colloquial words (17%). This distribution shows that half of the lexical errors are due to a lack of knowledge of word properties other than meaning and form. The evaluation of error gravity is based on three criteria: their acceptability according to dictionaries, their impact on comprehension and their degree of integration to language. Problems related to register are usually those perceived as less serious and semantic problems represent the vast majority of serious errors. The third level of analysis concerns the possible causes of the errors and identifies three main sources: influence of oral language, semantic proximity and formal similarity between the word used and the target word. The second part of the thesis concerns French teachers’ relation to lexical errors and is based on the analysis of 224 corrected essays and eight interviews. When correcting, teachers focus their attention on errors involving morphosyntactic properties of words (gender, invariability, government pattern), which they consider as grammatical errors. The more genuine lexical errors (semantic errors, use of colloquial words and collocation errors) are rarely pointed out, and comments provided regarding these types of errors are vague and inconsistent, giving students very few hints for correction. The evaluation of vocabulary in written production is always subject to a qualitative assessment, based on the teacher’s general impression rather than specific criteria, the only clear indicator being repetition. The explanations teachers provide about lexical problems rely heavily on intuition, which shows some deficiencies in their training in regards to vocabulary.
90

Les erreurs écrites en espagnol L2 en contexte universitaire français : analyse et remédiation / Written errors in Spanish as a second language in the French university system : analysis and remediation / Los errores escritos en espagnol lengua segunda en contexto universitario francés : análisis y remediación

Galiza, Lorena Inès 22 March 2018 (has links)
Cette thèse s’inscrit au sein de la recherche sur l’analyse d’erreurs en espagnol langue seconde et dans une démarche d’enseignement de la langue à des apprenants non natifs dans le cadre universitaire français. A partir d’un corpus de données écrites centrées sur des productions dirigées en espagnol d’étudiants francophones spécialistes de l’université française, nous avons entrepris un travail d’analyse des erreurs des catégories grammaticales de l’espagnol pour en créer des types. En nous focalisant sur les typologies des erreurs lexico-orthographiques, lexico-sémantiques, lexico-syntaxiques et lexico-morphologiques, cette analyse a débouché sur un travail d’étiologie basé sur les erreurs d’interférence et de transfert négatif des langues connues de nos informateurs, erreurs les plus fréquentes. En vue d’une remédiation de ces erreurs pour le développement de la compétence linguistique voire plurilingue des apprenants, nous proposons des pistes didactiques tenant compte des objectifs et des compétences requises afin qu’ils acquièrent le niveau B1 du CECRL. / This work is about error analysis in Spanish as a second language and is aimed at improving language teaching to non-native learners in the French university system. Based on the study of a corpus of supervised written productions in Spanish from French-speaking specialist students in French universities, we analysed grammatical errors in Spanish in order to create an original typology. By focusing on the lexicon and the spelling, the lexicon and the semantics as well as lexical and morphological typologies of errors, this analysis allowed us to produce a work of etiology, mostly based on the errors of interference and negative transfer caused by the foreign languages already known to our students. So as to help the students deal with these errors and help them improve at their linguistic – and also multilingual – competences, we made didactic suggestions taking into account the goals and skills expected from students necessary to reach the B1 level of CECRL. / Esta tesis se inscribe en el seno de la investigación sobre el análisis de errores en español lengua segunda y en un enfoque de enseñanza de la lengua a aprendices no nativos en el marco universitario francés. A partir de un corpus de datos escritos centrados en producciones dirigidas en español de estudiantes francófonos especialistas de la universidad francesa, hemos iniciado un trabajo de análisis de los errores de las categorías gramaticales del español para crear diferentes tipos de ellas. Con el foco puesto en las tipologías de los errores léxico-ortográficos, léxico-semánticos, léxico-sintácticos y léxico-morfológicos, este análisis ha llevado a un trabajo de etiología basado en los errores de interferencia y transferencia negativa de las lenguas conocidas por nuestros informantes, errores más frecuentes. Con miras a una remediación de estos errores para lograr el desarrollo de la competencia linguística incluso plurilingüe de los aprendices, proponemos pistas didácticas teniendo en cuenta los objetivos y las competencias requeridas para que éstos adquieran el nivel B1 del CECRL.

Page generated in 0.0606 seconds