• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 48
  • 20
  • 1
  • 1
  • Tagged with
  • 190
  • 59
  • 53
  • 50
  • 46
  • 41
  • 33
  • 31
  • 28
  • 23
  • 22
  • 22
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Étude électrophysiologique de la mémoire à court terme auditive

Guimond, Synthia 05 1900 (has links)
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique. / We studied the neuronal mechanisms that implement acoustic short-term memory (ASTM) for pitch using event-related potentials (ERP). Experiment 1 isolated an ERP component, the sustained anterior negativity (SAN), that increased in amplitude with increasing memory load in ASTM using stimuli with equal duration at all memory loads. The SAN load effect found in Experment 1, when pitch had to be remembered to perform the task, was absent in Experiment 2 using the same sounds when memory was not required. In Experiment 3 the memory task was performed without or with concurrent articulatory suppression during the retention interval, to suppress rehearsal via an articulatory loop. Load-related effects found in Experiment 1 were found again, whether participants engaged in concurrent suppression or not. The results suggest that the SAN reflects activity required to maintain pitch objects in an ASTM system that is distinct from articulatory rehearsal.
152

Simulation d'événements rares par Monte Carlo dans les réseaux hautement fiables

Saggadi, Samira 08 July 2013 (has links) (PDF)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple, s'intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu'un groupe sélectionné de noeuds (qui peut être juste une paire) puissent communiquer, ou s'intéresser aux systèmes d'alimentation électriques où l'on veut estimer le risque que l'électricité n'est pas fournie à certains noeuds, ou encore, étudier la fiabilité des systèmes de transport, où les liens représentent les routes et sont soumis à des dommages. Dans tous ces cas, un ensemble de noeuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Les réseaux de communication moderne se caractérisent par leur grande taille, donc l'estimation via la simulation de Monte Carlo devient souvent un choix favorable. Un algorithme de Monte Carlo sous sa forme standard, échantillonne N réalisations du graphe (représentant le réseau) indépendantes, et la défiabilité est estimée à partir de la proportion des N réalisations pour lesquelles les noeuds sélectionnés ne sont pas connectés. Dans ces réseaux, les probabilités de défaillance des liens (arcs) sont généralement petites et donc les pannes d'un réseau deviennent des événements rares. Cela pose un défi majeur pour estimer la fiabilité d'un réseau. Dans cette thèse, nous présentons différentes techniques basées sur l'échantillonnage préférentiel (Importance Sampling en anglais IS), pour l'estimation de la fiabilité d'un réseau. Grace à cette technique les probabilités originales d'échantillonnage des arcs sont remplacées par de nouvelles probabilités, puis multiplier l'ancien estimateur par le quotient de vraisemblance (likelihood ratio) pour rester sans biais. On s'intéresse tout particulièrement à l'étude et au calcul de la fiabilité des réseaux hautement fiables et représentés par des graphes statiques. Dans ce cas la défiabilité est très petite, parfois de l'ordre de 10−10, ce qui rend l'approche standard de Monte Carlo inutile, car pour pouvoir estimer cette probabilité il nous faut un échantillon de taille supérieure à dix milliards. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons étudié, analysé et développé les points suivants : - En premier lieu nous avons développé une méthode basée sur l'échantillonnage préférentiel. Le processus d'échantillonnage de tous les arcs du graphe sous la nouvelle probabilité est représenté par une chaîne de Markov, telle qu'à chaque étape on détermine l'état d'un arc avec une nouvelle probabilité déterminée en fonction de l'état de tous les arcs précédemment échantillonnés. Les fonctions valeurs de la nouvelle probabilité sont approchées par les coupes minimales possédant la plus grande probabilité de défiabilité, elle est le produit des défiabilités des arcs de la coupe. Des preuves de bonnes propriétés de l'estimateur basé sur l'échantillonnage préférentiel sont faites. - Un deuxième point a été abordé et développé, consiste à appliquer des techniques de réduction série-parallèle à chaque étape de l'échantillonnage IS précédemment décrit, afin de réduire substantiellement et la variance et le temps de simulation. - Le dernier point consiste à combiner pour approximation de l'estimateur à variance nulle, l'approximation de la défiabilité par une coupe minimale qui sous-estime la défiabilité avec une autre approximation basée sur les chemins minimaux qui la sur-estime. Des algorithmes d'optimisation sont utilisés pour rechercher le facteur optimal d'ajustement des deux approximations pour minimiser la variance.
153

Développer des compétences : une approche didactique à partir de la phénoménologie de l'imprévu appliquée aux évènements artistiques.

Pinelli, Nicolas 09 July 2010 (has links) (PDF)
Pour développer des compétences, cette approche didactique tente de retrouver des voies de passage des savoirs aux compétences. Pour cela, une démarche déductive installe un dialogue entre six modèles théoriques (pédagogie, didactique, formation, management, socioconstructivisme et cognitivisme). Parallèlement, une démarche inductive construit un modèle expérimental (comportements, stratégies et typologie situationnelle), soutenu par un diagnostic situationnel. Ce diagnostic évalue et repère des imprévus dans l'activité de travail, avec des paramètres situationnels (individus, faits, objets, lieux et moments). Ils sont classés en invariants, variables et prodromes, selon des critères d'existence, de récurrence, de concordance et de causalité. Ils agissent aussi comme des catalyseurs situationnels. La phénoménologie de l'imprévu analyse des situations, vécues par des professionnels et des étudiants, issues des événements artistiques (cirque, danse, musique et télévision). Elle va alors surprendre des flagrants délits d'ingérence. Trois concepts théoriques (procédural, ergologique et systémique) guident notre réflexion tout au long de cette double démarche. Les résultats de cette recherche s'appuient sur des observations, des entretiens et un questionnaire. Des voies de passage s'expriment à travers des liens statistiques de convergence, de divergence (modèle expérimental), de pertinence (modèles théoriques) et de cohérence (tous les modèles). Une congruence didactique complète cette relation entre des savoirs disponibles et des compétences prescrites. Il en ressort un modèle situationnel et didactique transférable dans un dispositif de formation et pour la prévention des risques socioprofessionnels.
154

Discours de presse et veille stratégique d'événements Approche textométrique et extraction d'informations pour la fouille de textes

Erin, Macmurray 02 July 2012 (has links) (PDF)
Ce travail a pour objet l'étude de deux méthodes de fouille automatique de textes, l'extraction d'informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l'extraction d'informations, il s'agit d'identifier et d'étiqueter des unités de connaissances, entités nommées -- sociétés, lieux, personnes, qui servent de points d'entrée pour les analyses d'activités ou d'événements économiques -- fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en oeuvre un ensemble de modèles statistiques permettant l'analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l'extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d'une procédure d'extraction d'informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l'issue de la comparaison est exposé l'apport des deux méthodes de fouille pour la veille d'événements.
155

Contributions à la modélisation, l'évaluation de performances et la commande des systèmes à événements discrets

Boukra, Rabah 02 December 2013 (has links) (PDF)
Les travaux abordés dans cette thèse concernent la modélisation des systèmes à événements discrets à l'aide d'automates à multiplicités dans l'algèbre (max,+), appelés automates (max,+). Nous proposons des représentations alternatives pour les automates (max,+). Celles-ci traduisent l'évolution des automates de façon approximative, car seuls leurs comportements extrémaux sont décrits, mais il est escompté de pouvoir résoudre à l'aide de celles-ci des problèmes importants avec une complexité raisonnable. Plus exactement, des équations récursives ont été définies dans l'algèbre (max,+) et l'algèbre (min,+) afin de décrire les comportements pire-cas et meilleur-cas des automates (max,+). Il est montré que ces représentations permettent d'évaluer les performances de systèmes avec une faible complexité de calcul. L'influence d'une entrée exogène peut être prise en compte dans ces représentations et on obtient alors un modèle analogue aux équations d'état standard pour les systèmes non-autonomes dans l'algèbre (max,+). Cette caractéristique permet l'adaptation de lois de commande développées pour les systèmes (max,+) linéaires aux systèmes à événements discrets appréhendés à l'aide d'automates (max,+).
156

Etudes expérimentales et numériques des instabilités non-linéaires et des vagues scélérates optiques

Wetzel, Benjamin 06 December 2012 (has links) (PDF)
Ces travaux de thèse rapportent l'étude des instabilités non-linéaires et des évènements extrêmesse développant lors de la propagation guidée d'un champ électromagnétique au sein de fibresoptiques. Après un succinct rappel des divers processus linéaires et non-linéaires menant à lagénération de super continuum optique, nous montrons que le spectre de celui-ci peut présenterde larges fluctuations, incluant la formation d'événements extrêmes, dont les propriétés statistiqueset l'analogie avec les vagues scélérates hydrodynamiques sont abordées en détail. Nous présentonsune preuve de principe de l'application de ces fluctuations spectrales à la génération de nombres etde marches aléatoires et identifions le phénomène d'instabilité de modulation, ayant lieu lors de laphase initiale d'expansion spectrale du super continuum, comme principale contribution à la formationd'événements extrêmes. Ce mécanisme est étudié numériquement et analytiquement, en considérantune catégorie de solutions exactes de l'équation de Schrödinger non-linéaire présentant descaractéristiques de localisations singulières. Les résultats obtenus sont vérifiés expérimentalement,notamment grâce à un système de caractérisation spectrale en temps réel et à l'utilisation conjointede métriques statistiques innovantes (ex : cartographie de corrélations spectrales). L'excellent accordentre simulations et expériences a permis de valider les prédictions théoriques et d'accéder àune meilleure compréhension des dynamiques complexes inhérentes à la propagation non-linéaired'impulsions optiques.
157

Particle methods in finance / Les méthodes de particule en finance

Miryusupov, Shohruh 20 December 2017 (has links)
Cette thèse contient deux sujets différents la simulation d'événements rares et un transport d'homotopie pour l'estimation du modèle de volatilité stochastique, dont chacun est couvert dans une partie distincte de cette thèse. Les méthodes de particules, qui généralisent les modèles de Markov cachés, sont largement utilisées dans différents domaines tels que le traitement du signal, la biologie, l'estimation d'événements rares, la finance, etc. Il existe un certain nombre d'approches basées sur les méthodes de Monte Carlo, tels que Markov Chain Monte Carlo (MCMC), Monte Carlo séquentiel (SMC). Nous appliquons des algorithmes SMC pour estimer les probabilités de défaut dans un processus d'intensité basé sur un processus stable afin de calculer un ajustement de valeur de crédit (CV A) avec le wrong way risk (WWR). Nous proposons une nouvelle approche pour estimer les événements rares, basée sur la génération de chaînes de Markov en simulant le système hamiltonien. Nous démontrons les propriétés, ce qui nous permet d'avoir une chaîne de Markov ergodique et nous montrons la performance de notre approche sur l'exemple que nous rencontrons dans la valorisation des options. Dans la deuxième partie, nous visons à estimer numériquement un modèle de volatilité stochastique, et à le considérer dans le contexte d'un problème de transport, lorsque nous aimerions trouver «un plan de transport optimal» qui représente la mesure d'image. Dans un contexte de filtrage, nous le comprenons comme le transport de particules d'une distribution antérieure à une distribution postérieure dans le pseudo-temps. Nous avons également proposé de repondérer les particules transportées, de manière à ce que nous puissions nous diriger vers la zone où se concentrent les particules de poids élevé. Nous avons montré sur l'exemple du modèle de la volatilité stochastique de Stein-Stein l'application de notre méthode et illustré le biais et la variance. / The thesis introduces simulation techniques that are based on particle methods and it consists of two parts, namely rare event simulation and a homotopy transport for stochastic volatility model estimation. Particle methods, that generalize hidden Markov models, are widely used in different fields such as signal processing, biology, rare events estimation, finance, etc. There are a number of approaches that are based on Monte Carlo methods that allow to approximate a target density such as Markov Chain Monte Carlo (MCMC), sequential Monte Carlo (SMC). We apply SMC algorithms to estimate default probabilities in a stable process based intensity process to compute a credit value adjustment (CV A) with a wrong way risk (WWR). We propose a novel approach to estimate rare events, which is based on the generation of Markov Chains by simulating the Hamiltonian system. We demonstrate the properties, that allows us to have ergodic Markov Chain and show the performance of our approach on the example that we encounter in option pricing.In the second part, we aim at numerically estimating a stochastic volatility model, and consider it in the context of a transportation problem, when we would like to find "an optimal transport map" that pushes forward the measure. In a filtering context, we understand it as the transportation of particles from a prior to a posterior distribution in pseudotime. We also proposed to reweight transported particles, so as we can direct to the area, where particles with high weights are concentrated. We showed the application of our method on the example of option pricing with Stein­Stein stochastic volatility model and illustrated the bias and variance.
158

Étude longitudinale du lien prédictif entre les événements de vie négatifs et les symptômes somatiques à l’adolescence : le rôle modérateur des traits de personnalité

Samson, Sarah 05 1900 (has links)
No description available.
159

Etude de la fiabilité des algorithmes self-convergeants face aux soft-erreurs / Study of reliability of self-convergent algorithms with respect to soft errors

Marques, Greicy Costa 24 October 2014 (has links)
Cette thèse est consacrée à l'étude de la robustesse/sensibilité d'un algorithme auto-convergeant face aux SEU's. Ces phénomènes appelés aussi bit-flips qui se traduit par le basculement intempestif du contenu d'un élément mémoire comme conséquence de l'ionisation produite par le passage d'une particule chargée avec le matériel. Cette étude pourra avoir un impact important vu la conjoncture de miniaturisation qui permettra bientôt de disposer de circuits avec des centaines à des milliers de cœurs de traitement sur une seule puce, pour cela il faudra faire les cœurs communiquer de manière efficace et robustes. Dans ce contexte les algorithme dits auto-convergeants peuvent être utilis afin que la communication entre les cœurs soit fiable et sans intervention extérieure. Une étude par injection de fautes de la robustesse de l'algorithme étudié a été effectuée, cet algorithme a été initialement exécuté par un processeur LEON3 implémenté dans un FPGA embarqué dans une plateforme de test spécifique. Les campagnes préliminaires d'injection de fautes issus d'une méthode de l'état de l'art appelée CEU (Code Emulated Upset) ont mis en évidence une certaine sensibilité aux SEUs de l'algorithme. Pour y faire face des modifications du logiciel ont été effectuées et des techniques de tolérance aux fautes ont été implémentés au niveau logiciel dans le programme implémentant l'algorithme. Des expériences d'injection de fautes ont été effectués pour mettre en évidence la robustesse face aux SEUs et ses potentiels « Tallons d'Achille » de l'algorithme modifié. L'impact des SEUs a été aussi exploré sur l'algorithme auto-convergeant implémenté dans une version hardware dans un FPGA. L'évaluation de cette méthodologie a été effectuée par des expériences d'injection de fautes au niveau RTL du circuit. Ces résultats obtenus avec cette méthode ont montré une amélioration significative de la robustesse de l'algorithme en comparaison avec sa version logicielle. / This thesis is devoted to the study of the robustness/sensitivity of a self-converging algorithm with respect to SEU's. These phenomenon also called bit-flips which may modify the content of memory elements as the result of the silicon ionization resulting from the impact of a charged particles. This study may have a significant impact given the conditions of miniaturization that will soon have circuits with hundreds to thousands of processing cores on a single chip, this will require make the cores communicate effectively and robust manner. In this context the so-called self-converging algorithm can be used to ensure that communication between cores is reliable and without external intervention. A fault injection study of the robustness of the algorithm was performed, this algorithm was initially executed by a processor LEON3 implemented in the FPGA embedded in a specific platform test. Preliminary fault injection from a method the state of the art called CEU showed some sensitivity to SEUs of algorithm. To cope with the software changes were made and techniques for fault tolerance have been implemented in software in the program implementing the self-converging algorithm. The fault injection experiments were made to demonstrate the robustness to SEU's and potential problems of the modified algorithm. The impact of SEUs was explored on a hardware-implemented self-converging algorithm in a FPGA. The evaluation of this method was performed by fault injection at RTL level circuit. These results obtained with this method have shown a significant improvement of the robustness of the algorithm in comparison with its software version.
160

Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants / Dynamic context-aware services composition in ambient intelligent systems

Yachir, Ali 23 February 2014 (has links)
Avec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicile / With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptation

Page generated in 0.0682 seconds