151 |
Commutations sûres de mode pour les systèmes à événements discretsFaraut, Gregory 07 December 2010 (has links) (PDF)
Le travail présenté dans ce mémoire concerne une démarche de conception appliquée à une gestion modale pour les systèmes à événements discrets (SED). Un mode est une configuration particulière du système où celui-ci exploite un ensemble de composants et doit respecter un ensemble de spécifications. La problématique de la gestion de mode porte principalement sur la conception des modes et sur leurs commutations. Notre objectif est de proposer une démarche de conception complètement définie où les spécifications sont assurément respectées, et où seules les commutations désirées entre modes peuvent se produire. Il est également vérifié que toute commutation dans un mode mène de manière sûre dans un autre mode. Pour réaliser cet objectif, nous utilisons la théorie de contrôle par supervision qui permet de concevoir des modèles sûrs par construction tel que les spécifications utilisées pour la construction soient respectées. La démarche proposée possède plusieurs étapes séparant ainsi les différentes études de conception. La première concerne la formalisation du cahier des charges en modèles automate à états. L'étude suivante concerne le comportement interne où celui-ci doit respecter les spécifications propres aux modes, indépendamment des autres modes. Cette étape valide le comportement de chaque mode, avant d'étudier leurs commutations. La troisième étape étudie le comportement commutatif tel que les spécifications de commutations soient respectées. Cette étape spécifie les commutations désirées, et inversement celles non voulues. L'étape suivante est l'exécution d'une fonction de suivi de trajectoire qui vérifie que toutes les commutations mènent bien dans un autre mode. Dans le cas contraire, la fonction de suivi identifie et caractérise les commutations problématiques afin d'aider le concepteur dans la résolution de ces situations. Enfin, une étape de fusion d'états finalise la démarche afin de fournir un modèle par mode qui représente le comportement de celui-ci. Pour montrer l'applicabilité de la démarche proposée, et sa faculté à être utilisée en milieu industriel, nous l'utilisons sur un exemple de taille importante utilisée dans la littérature.
|
152 |
Modulation de l'apprentissage visuel par stimulation électrique transcrânienne à courant direct du cortex préfrontalLafontaine, Marc Philippe 08 1900 (has links)
Le traitement visuel répété d’un visage inconnu entraîne une suppression de l’activité neuronale dans les régions préférentielles aux visages du cortex occipito-temporal. Cette «suppression neuronale» (SN) est un mécanisme primitif hautement impliqué dans l’apprentissage de visages, pouvant être détecté par une réduction de l’amplitude de la composante N170, un potentiel relié à l’événement (PRE), au-dessus du cortex occipito-temporal. Le cortex préfrontal dorsolatéral (CPDL) influence le traitement et l’encodage visuel, mais sa contribution à la SN de la N170 demeure inconnue. Nous avons utilisé la stimulation électrique transcrânienne à courant direct (SETCD) pour moduler l’excitabilité corticale du CPDL de 14 adultes sains lors de l’apprentissage de visages inconnus. Trois conditions de stimulation étaient utilisées: inhibition à droite, excitation à droite et placebo. Pendant l’apprentissage, l’EEG était enregistré afin d’évaluer la SN de la P100, la N170 et la P300. Trois jours suivant l’apprentissage, une tâche de reconnaissance était administrée où les performances en pourcentage de bonnes réponses et temps de réaction (TR) étaient enregistrées. Les résultats indiquent que la condition d’excitation à droite a facilité la SN de la N170 et a augmentée l’amplitude de la P300, entraînant une reconnaissance des visages plus rapide à long-terme. À l’inverse, la condition d’inhibition à droite a causé une augmentation de l’amplitude de la N170 et des TR plus lents, sans affecter la P300. Ces résultats sont les premiers à démontrer que la modulation d’excitabilité du CPDL puisse influencer l’encodage visuel de visages inconnus, soulignant l’importance du CPDL dans les mécanismes d’apprentissage de base. / Repeated visual processing of an unfamiliar face suppresses neural activity in face-specific areas of the occipito-temporal cortex. This "repetition suppression" (RS) is a primitive mechanism involved in learning of unfamiliar faces, which can be detected through amplitude reduction of the N170 event-related potential (ERP). The dorsolateral prefrontal cortex (DLPFC) exerts top-down influence on early visual processing. However, its contribution to N170 RS and learning of unfamiliar faces remains unclear. Transcranial direct current stimulation (tDCS) transiently increases or decreases cortical excitability, as a function of polarity. We hypothesized that DLPFC excitability modulation by tDCS would cause polarity-dependent modulations of N170 RS during encoding of unfamiliar faces. tDCS-induced N170 RS enhancement would improve long-term recognition reaction time (RT) and/or accuracy rates, whereas N170 RS impairment would compromise recognition ability. Participants underwent three tDCS conditions in random order at ~72 hour intervals: right anodal/left cathodal, right cathodal/left anodal and sham. Immediately following tDCS conditions, an EEG was recorded during encoding of unfamiliar faces for assessment of P100 and N170 visual ERPs. P300 was analyzed to detect prefrontal function modulation. Recognition tasks were administered ~72 hours following encoding. Results indicate the right anodal/left cathodal condition facilitated N170 RS and induced larger P300 amplitudes, leading to faster recognition RT. Conversely, the right cathodal/left anodal condition caused increases in N170 amplitudes and RT, but did not affect P300. These data are the first to demonstrate that DLPFC excitability modulation can influence early visual encoding of unfamiliar faces, highlighting the importance of DLPFC in basic learning mechanisms.
|
153 |
Polar lows dans l'hémisphère Nord : influence de l'environnement de grande échelle, de sa variabilité et de ses modifications avec le changement climatiqueMallet, Paul-Etienne 26 June 2013 (has links) (PDF)
Les polar lows (PLs) sont d'intenses dépressions maritimes propres aux hautes latitudes. De faible extension spatiale et temporelle, ils n'en sont pas moins dangereux, s'accompagnant de vents violents et de fortes précipitations, provoquant une très faible visibilité et des vagues importantes. Le but de cette thèse est d'étudier l'impact de la variabilité atmosphérique sur leur formation, et notamment d'évaluer leur évolution dans le cadre du changement climatique. Dans un premier temps, l'environnement de grande échelle conduisant au développement de PLs est déterminé. Dans ce but, l'ensemble des observations homogènes de PLs disponibles et des réanalyses atmosphériques (ERA-I pour la période la plus récente, NCEP/NCAR sinon) sont utilisés. On montre que le géopotentiel à 500 hPa, l'écart de température entre la surface de l'océan et 500 hPa, le vent et la température en basses couches, ainsi que le tourbillon potentiel (PV) à 300 hPa présentent des anomalies significatives sur de grandes étendues, centrées sur les zones de formation des Pls. L'accent est mis sur les mers Nordiques pour lesquelles on dispose d'une climatologie de Pls large et homogène, bien que d'autres régions de l'hémisphère Nord soient aussi étudiées (mer du Labrador, golfe d'Alaska...). Les PLs se développent après une phase de mise en place progressive des conditions synoptiques favorable, leur déclenchement étant marqué par une intensification des anomalies de vent et de PV. Des différences existent entre les différentes régions de formation, notamment au niveau du flux de basse couche, indiquant une hétérogénéité dans l'influence relative des différents forçages. Une seconde partie est consacrée à étudier l'influence de la variabilité atmosphérique sur les PLs. Deux approches de cette variabilité sont alors considérées: les structures de téleconnection sur le Pacifique Nord et les régimes de temps sur l'Atlantique Nord et l'Europe. Les structures de téléconnection reposent sur l'idée que la variabilité atmosphérique peut être décrite par des variations dans l'intensité de structures particulières à grande échelle, persistantes et récurrentes. L'étude des liens entre ces structures et les variables clefs pour la formation de PLs permet de mettre en évidence pour chaque région du Pacifique Nord les influences respectives de chacune des structures sur les Pls. L'idée sous-tendant le concept de régimes de temps est que la variabilité atmosphérique pourrait être décrite comme une alternance entre différents états préférentiels quasi-stationnaires. Les quatre régimes déterminés sur l'Atlantique Nord et l'Europe ont une durée typique de 8-10 jours, similaire à l'existence d'un environnement typique associé au développement de PLs. Ils apparaissent particulièrement discriminants pour la formation de PLs: en mers de Norvège et de Barents, 75% des PLs observés se forment en Altantic Ridge ou dans la phase négative de l'Oscillation Nord Atlantique (NAO), alors qu'en mer du Labrador, une grande majorité des PLs observés se développent durant la phase positive de la NAO. La dernière partie est une étude exploratoire de l'évolution du comportement des PLs dans le cadre du changement climatique. Celui-ci est susceptible d'influer sur la répartition et les fréquences d'apparition des PLs en modifiant les conditions de grande échelle contrôlant leur genèse. L'étude porte d'abord sur le rôle de la glace de mer et de son évolution sur les PLs. Finalement, l'évolution de variables clefs dans le développement de PLs est étudié à partir de sorties de la simulation climatique ECHAM5/MPI-OM. Les résultats de cette étude suggèrent une diminution de l'activité des PLs, avec de fortes disparités régionales, ainsi que des changements dans la distribution saisonnière. Les résultats de cette thèse renforcent les connaissances sur les PLs et fournissent de nouveaux éléments pour améliorer leur prévision à court et plus long terme.
|
154 |
Étude électrophysiologique de la mémoire à court terme auditiveGuimond, Synthia 05 1900 (has links)
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique. / We studied the neuronal mechanisms that implement acoustic short-term memory (ASTM) for pitch using event-related potentials (ERP). Experiment 1 isolated an ERP component, the sustained anterior negativity (SAN), that increased in amplitude with increasing memory load in ASTM using stimuli with equal duration at all memory loads. The SAN load effect found in Experment 1, when pitch had to be remembered to perform the task, was absent in Experiment 2 using the same sounds when memory was not required. In Experiment 3 the memory task was performed without or with concurrent articulatory suppression during the retention interval, to suppress rehearsal via an articulatory loop. Load-related effects found in Experiment 1 were found again, whether participants engaged in concurrent suppression or not. The results suggest that the SAN reflects activity required to maintain pitch objects in an ASTM system that is distinct from articulatory rehearsal.
|
155 |
Simulation d'événements rares par Monte Carlo dans les réseaux hautement fiablesSaggadi, Samira 08 July 2013 (has links) (PDF)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple, s'intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu'un groupe sélectionné de noeuds (qui peut être juste une paire) puissent communiquer, ou s'intéresser aux systèmes d'alimentation électriques où l'on veut estimer le risque que l'électricité n'est pas fournie à certains noeuds, ou encore, étudier la fiabilité des systèmes de transport, où les liens représentent les routes et sont soumis à des dommages. Dans tous ces cas, un ensemble de noeuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Les réseaux de communication moderne se caractérisent par leur grande taille, donc l'estimation via la simulation de Monte Carlo devient souvent un choix favorable. Un algorithme de Monte Carlo sous sa forme standard, échantillonne N réalisations du graphe (représentant le réseau) indépendantes, et la défiabilité est estimée à partir de la proportion des N réalisations pour lesquelles les noeuds sélectionnés ne sont pas connectés. Dans ces réseaux, les probabilités de défaillance des liens (arcs) sont généralement petites et donc les pannes d'un réseau deviennent des événements rares. Cela pose un défi majeur pour estimer la fiabilité d'un réseau. Dans cette thèse, nous présentons différentes techniques basées sur l'échantillonnage préférentiel (Importance Sampling en anglais IS), pour l'estimation de la fiabilité d'un réseau. Grace à cette technique les probabilités originales d'échantillonnage des arcs sont remplacées par de nouvelles probabilités, puis multiplier l'ancien estimateur par le quotient de vraisemblance (likelihood ratio) pour rester sans biais. On s'intéresse tout particulièrement à l'étude et au calcul de la fiabilité des réseaux hautement fiables et représentés par des graphes statiques. Dans ce cas la défiabilité est très petite, parfois de l'ordre de 10−10, ce qui rend l'approche standard de Monte Carlo inutile, car pour pouvoir estimer cette probabilité il nous faut un échantillon de taille supérieure à dix milliards. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons étudié, analysé et développé les points suivants : - En premier lieu nous avons développé une méthode basée sur l'échantillonnage préférentiel. Le processus d'échantillonnage de tous les arcs du graphe sous la nouvelle probabilité est représenté par une chaîne de Markov, telle qu'à chaque étape on détermine l'état d'un arc avec une nouvelle probabilité déterminée en fonction de l'état de tous les arcs précédemment échantillonnés. Les fonctions valeurs de la nouvelle probabilité sont approchées par les coupes minimales possédant la plus grande probabilité de défiabilité, elle est le produit des défiabilités des arcs de la coupe. Des preuves de bonnes propriétés de l'estimateur basé sur l'échantillonnage préférentiel sont faites. - Un deuxième point a été abordé et développé, consiste à appliquer des techniques de réduction série-parallèle à chaque étape de l'échantillonnage IS précédemment décrit, afin de réduire substantiellement et la variance et le temps de simulation. - Le dernier point consiste à combiner pour approximation de l'estimateur à variance nulle, l'approximation de la défiabilité par une coupe minimale qui sous-estime la défiabilité avec une autre approximation basée sur les chemins minimaux qui la sur-estime. Des algorithmes d'optimisation sont utilisés pour rechercher le facteur optimal d'ajustement des deux approximations pour minimiser la variance.
|
156 |
Développer des compétences : une approche didactique à partir de la phénoménologie de l'imprévu appliquée aux évènements artistiques.Pinelli, Nicolas 09 July 2010 (has links) (PDF)
Pour développer des compétences, cette approche didactique tente de retrouver des voies de passage des savoirs aux compétences. Pour cela, une démarche déductive installe un dialogue entre six modèles théoriques (pédagogie, didactique, formation, management, socioconstructivisme et cognitivisme). Parallèlement, une démarche inductive construit un modèle expérimental (comportements, stratégies et typologie situationnelle), soutenu par un diagnostic situationnel. Ce diagnostic évalue et repère des imprévus dans l'activité de travail, avec des paramètres situationnels (individus, faits, objets, lieux et moments). Ils sont classés en invariants, variables et prodromes, selon des critères d'existence, de récurrence, de concordance et de causalité. Ils agissent aussi comme des catalyseurs situationnels. La phénoménologie de l'imprévu analyse des situations, vécues par des professionnels et des étudiants, issues des événements artistiques (cirque, danse, musique et télévision). Elle va alors surprendre des flagrants délits d'ingérence. Trois concepts théoriques (procédural, ergologique et systémique) guident notre réflexion tout au long de cette double démarche. Les résultats de cette recherche s'appuient sur des observations, des entretiens et un questionnaire. Des voies de passage s'expriment à travers des liens statistiques de convergence, de divergence (modèle expérimental), de pertinence (modèles théoriques) et de cohérence (tous les modèles). Une congruence didactique complète cette relation entre des savoirs disponibles et des compétences prescrites. Il en ressort un modèle situationnel et didactique transférable dans un dispositif de formation et pour la prévention des risques socioprofessionnels.
|
157 |
Discours de presse et veille stratégique d'événements Approche textométrique et extraction d'informations pour la fouille de textesErin, Macmurray 02 July 2012 (has links) (PDF)
Ce travail a pour objet l'étude de deux méthodes de fouille automatique de textes, l'extraction d'informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l'extraction d'informations, il s'agit d'identifier et d'étiqueter des unités de connaissances, entités nommées -- sociétés, lieux, personnes, qui servent de points d'entrée pour les analyses d'activités ou d'événements économiques -- fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en oeuvre un ensemble de modèles statistiques permettant l'analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l'extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d'une procédure d'extraction d'informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l'issue de la comparaison est exposé l'apport des deux méthodes de fouille pour la veille d'événements.
|
158 |
Contributions à la modélisation, l'évaluation de performances et la commande des systèmes à événements discretsBoukra, Rabah 02 December 2013 (has links) (PDF)
Les travaux abordés dans cette thèse concernent la modélisation des systèmes à événements discrets à l'aide d'automates à multiplicités dans l'algèbre (max,+), appelés automates (max,+). Nous proposons des représentations alternatives pour les automates (max,+). Celles-ci traduisent l'évolution des automates de façon approximative, car seuls leurs comportements extrémaux sont décrits, mais il est escompté de pouvoir résoudre à l'aide de celles-ci des problèmes importants avec une complexité raisonnable. Plus exactement, des équations récursives ont été définies dans l'algèbre (max,+) et l'algèbre (min,+) afin de décrire les comportements pire-cas et meilleur-cas des automates (max,+). Il est montré que ces représentations permettent d'évaluer les performances de systèmes avec une faible complexité de calcul. L'influence d'une entrée exogène peut être prise en compte dans ces représentations et on obtient alors un modèle analogue aux équations d'état standard pour les systèmes non-autonomes dans l'algèbre (max,+). Cette caractéristique permet l'adaptation de lois de commande développées pour les systèmes (max,+) linéaires aux systèmes à événements discrets appréhendés à l'aide d'automates (max,+).
|
159 |
Etudes expérimentales et numériques des instabilités non-linéaires et des vagues scélérates optiquesWetzel, Benjamin 06 December 2012 (has links) (PDF)
Ces travaux de thèse rapportent l'étude des instabilités non-linéaires et des évènements extrêmesse développant lors de la propagation guidée d'un champ électromagnétique au sein de fibresoptiques. Après un succinct rappel des divers processus linéaires et non-linéaires menant à lagénération de super continuum optique, nous montrons que le spectre de celui-ci peut présenterde larges fluctuations, incluant la formation d'événements extrêmes, dont les propriétés statistiqueset l'analogie avec les vagues scélérates hydrodynamiques sont abordées en détail. Nous présentonsune preuve de principe de l'application de ces fluctuations spectrales à la génération de nombres etde marches aléatoires et identifions le phénomène d'instabilité de modulation, ayant lieu lors de laphase initiale d'expansion spectrale du super continuum, comme principale contribution à la formationd'événements extrêmes. Ce mécanisme est étudié numériquement et analytiquement, en considérantune catégorie de solutions exactes de l'équation de Schrödinger non-linéaire présentant descaractéristiques de localisations singulières. Les résultats obtenus sont vérifiés expérimentalement,notamment grâce à un système de caractérisation spectrale en temps réel et à l'utilisation conjointede métriques statistiques innovantes (ex : cartographie de corrélations spectrales). L'excellent accordentre simulations et expériences a permis de valider les prédictions théoriques et d'accéder àune meilleure compréhension des dynamiques complexes inhérentes à la propagation non-linéaired'impulsions optiques.
|
160 |
Particle methods in finance / Les méthodes de particule en financeMiryusupov, Shohruh 20 December 2017 (has links)
Cette thèse contient deux sujets différents la simulation d'événements rares et un transport d'homotopie pour l'estimation du modèle de volatilité stochastique, dont chacun est couvert dans une partie distincte de cette thèse. Les méthodes de particules, qui généralisent les modèles de Markov cachés, sont largement utilisées dans différents domaines tels que le traitement du signal, la biologie, l'estimation d'événements rares, la finance, etc. Il existe un certain nombre d'approches basées sur les méthodes de Monte Carlo, tels que Markov Chain Monte Carlo (MCMC), Monte Carlo séquentiel (SMC). Nous appliquons des algorithmes SMC pour estimer les probabilités de défaut dans un processus d'intensité basé sur un processus stable afin de calculer un ajustement de valeur de crédit (CV A) avec le wrong way risk (WWR). Nous proposons une nouvelle approche pour estimer les événements rares, basée sur la génération de chaînes de Markov en simulant le système hamiltonien. Nous démontrons les propriétés, ce qui nous permet d'avoir une chaîne de Markov ergodique et nous montrons la performance de notre approche sur l'exemple que nous rencontrons dans la valorisation des options. Dans la deuxième partie, nous visons à estimer numériquement un modèle de volatilité stochastique, et à le considérer dans le contexte d'un problème de transport, lorsque nous aimerions trouver «un plan de transport optimal» qui représente la mesure d'image. Dans un contexte de filtrage, nous le comprenons comme le transport de particules d'une distribution antérieure à une distribution postérieure dans le pseudo-temps. Nous avons également proposé de repondérer les particules transportées, de manière à ce que nous puissions nous diriger vers la zone où se concentrent les particules de poids élevé. Nous avons montré sur l'exemple du modèle de la volatilité stochastique de Stein-Stein l'application de notre méthode et illustré le biais et la variance. / The thesis introduces simulation techniques that are based on particle methods and it consists of two parts, namely rare event simulation and a homotopy transport for stochastic volatility model estimation. Particle methods, that generalize hidden Markov models, are widely used in different fields such as signal processing, biology, rare events estimation, finance, etc. There are a number of approaches that are based on Monte Carlo methods that allow to approximate a target density such as Markov Chain Monte Carlo (MCMC), sequential Monte Carlo (SMC). We apply SMC algorithms to estimate default probabilities in a stable process based intensity process to compute a credit value adjustment (CV A) with a wrong way risk (WWR). We propose a novel approach to estimate rare events, which is based on the generation of Markov Chains by simulating the Hamiltonian system. We demonstrate the properties, that allows us to have ergodic Markov Chain and show the performance of our approach on the example that we encounter in option pricing.In the second part, we aim at numerically estimating a stochastic volatility model, and consider it in the context of a transportation problem, when we would like to find "an optimal transport map" that pushes forward the measure. In a filtering context, we understand it as the transportation of particles from a prior to a posterior distribution in pseudotime. We also proposed to reweight transported particles, so as we can direct to the area, where particles with high weights are concentrated. We showed the application of our method on the example of option pricing with SteinStein stochastic volatility model and illustrated the bias and variance.
|
Page generated in 0.0712 seconds