• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 7
  • 5
  • 1
  • Tagged with
  • 40
  • 21
  • 13
  • 13
  • 12
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Capacité d'une mémoire associative à fonction de sortie chaotique

Cherif, Mounia 12 1900 (has links) (PDF)
Un des thèmes de recherche privilégié pour les sciences cognitives et l'intelligence artificielle est l'étude des capacités d'association du cerveau humain. L'objectif est de développer des modèles de mémoires dotés de caractéristiques similaires, que ce soit en termes d'adaptabilité, d'efficacité, ou de robustesse. Plusieurs modèles de mémoires associatives ont été développés et présentés dans la littérature, parmi eux le modèle de mémoire associative bidirectionnelle BAM de Kosko (Kosko, 1988). Ce modèle utilise une règle d'apprentissage hebbienne qui le rend plausible biologiquement, mais il possède plusieurs limitations cependant. En effet, sa règle d'apprentissage impose des contraintes d'orthogonalité entre les différents motifs appris qui entraine une faible capacité de mémorisation et une faible résilience face au bruit. De plus, le modèle peut apprendre uniquement des patrons encodés en binaire et linéairement séparables. De nombreux efforts ont été, et continuent aujourd'hui à être déployés pour tenter d'améliorer le modèle de Kosko. La plupart visent l'augmentation de la capacité de stockage et l'amélioration de la performance de rappel. Quelques-uns des modèles proposés réussissent à classifier des problèmes non séparables linéairement, mais s'éloignent de l'architecture originale de Kosko ou parfois, utilisent des méthodes d'apprentissage qui s'écartent du principe de Hebb, ce qui les rend moins plausibles biologiquement. Dans le présent mémoire, nous approfondissons l'étude d'un modèle récent de BAM, proposé par Chartier et Boukadoum (2006a) et caractérisé par une fonction de sortie chaotique, une architecture asymétrique, et une règle d'apprentissage hebbienne modifiée. Plus spécifiquement, nous étudions l'impact de modifier la fonction de sortie, en lui ajoutant un paramètre d'asymétrie, sur la capacité du réseau à traiter des tâches de classification non linéairement séparables. Nous nous inspirons de la théorie des catastrophes pour le cadre théorique de notre étude. Nous expérimentons sur le modèle en vue d'améliorer sa performance de classification sans complexifier son architecture ou nous écarter de la plausibilité biologique de la règle d'apprentissage. Pour ce faire, nous utilisons et comparons plusieurs algorithmes de recherche heuristiques, dont certains inspirés de l'évolution naturelle, afin de concevoir des modèles de classification puissants, potentiellement capables de reproduire l'efficacité des processus cognitifs naturels. Les principes exposés dans ce mémoire, se sont montrés efficaces pour le modèle BAM et peuvent faire l'objet de recherches intéressantes, notamment pour l'amélioration du potentiel des modèles connexionnistes récurrents. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : mémoire associative bidirectionnelle, réseaux de neurones artificiels, classification, dynamique chaotique, catastrophe fronce.
12

Approche multimodale de la mobilité urbaine : développement d'un outil d'aide à la prise de décision

Glaus, Mathias 01 January 2007 (has links) (PDF)
La voiture individuelle a permis d'agir directement sur les contraintes associées aux temps de déplacements en facilitant la mobilité individuelle et a engendré une évolution des villes qui se caractérise par des processus qui s'autoalimentent : une dispersion urbaine, une spécialisation fonctionnelle des zones et une croissance du trafic automobile. Le transport de masse conventionnel (métro, tramway, train léger), comme seule altemative à la dépendance automobile, s'adapte difficilement à cette nouvelle réalité pour répondre à une nubilité qui s'exprime variablement dans le temps et dans l'espace. Dans ce contexte, les Systèmes de Transport Cybemétiques (STC) se présentent comme une altemative technologique propice à répondre à cette mobilité collective individualisée en offrant, en tout temps, un service sur demande par le partage de véhicules autocratises fonctionnant en réseau. Si la voiture est synonyme de liberté individuelle, en revanche son utilisation privilégiée mène à un déséquilibre du système de mobilité qui se traduit par les phénomènes d'engorgements du réseau routier. A l'inverse, le transport de masse est stable à l'extrême en assujettissant les usagers à son mode opératoire rigide (corridors et cadences des véhicules préétablis). En rupture avec ces deux modes de fonctionnement, la dynamique du système de mobilité par STC repose sur la capacité à anticiper le besoin ainsi que sur la configuration des véhicules dans le réseau pour desservir adéquatement la demande individuelle formulée aux différents lieux du périmètre urbain desservi. Les résultats de la recherche ont montré que le besoin individuel en déplacements peut être appréhendé comme un phénomène chaotique. La reconstruction de l'espace d'encastrement à sept dimensions associées à la série chronologique du besoin en déplacements pour un édifice au centre-ville de Montréal permet de reconstruire le profil du besoin par pas de temps de deux minutes, à partir des évènements préalablement enregistrés. Basée sur la capacité des véhicules d'un STC d'emprunter l'ensemble des voies de guidages et l'identification des stations de départ et d'arrivée de chaque demande préalablement aux déplacements, l'application du principe du maximum d'entropie permet d'identifier les itinéraires individuels des véhicules, L'application du principe, développe partir des relations de l'entropie statistique et de la théorie de l'information, permet de diffuser les véhicules dans le réseau sous contrainte du respect des demandes des usagers et ainsi de minimiser le phénomène d'engorgement. Dans une approche dynamique de l'évolution du système, la configuration des véhicules dans un réseau STC se modifie en fonction des demandes et doit s'organiser pour répondre aux besoins à venir. Par analogie avec les systèmes naturels, l'application des principes thermodynamiques de l'enthalpie et de l'entropie permettent d'expliciter la relation entre le besoin en déplacement et l'état du système. Par raisonnement déductif, les résultats explicitent le principe d'une configuration des véhicules dans le réseau basée sur des critères caractérisant l'état du système dans sa globalité plutôt que sur des critères de proximité et de distances à parcourir. Les résultats obtenus sur la base de l'application des lois comportementales des systèmes naturels (phénomènes chaotiques et principes thermodynamiques) sont intégrables dans un modelé. Ce dernier, en tant qu'outil de représentation, permet de mettre en évidence les fonctionnalités dynamiques qui d'une part animent le système et, d'autre part en assurent la cohérence pour satisfaire les besoins individuels dans le temps et dans l'espace. Cette capacité de s'adapter aux caractéristiques du milieu dans lequel un STC est implanté, permet de générer une synergie avec les transports conventionnels pour une diversification de l'offre en transport collectif apte à s'adapter aux multiples dimensions de la demande individualisée en mobilité. Finalement, la démarche développée initie un changement de paradigme dans le domaine du transport collectif en privilégiant la variété des moyens (multiples modes et multiples itinéraires] pour rejoindre les différents lieux plut6t que la singularité d'un transport de masse. Ce changement de paradigme trouve également un écho en urbanisme ou une organisation multifonctionnelle des zones urbaines favorise une accessibilité de proximité diversifiée.
13

Absorption à deux photons et effets de corrélation quantique dans les semiconducteurs

Boitier, Fabien 01 March 2011 (has links) (PDF)
Les corrélations de photons sont à la base d'un certain nombre d'expériences et d'applications (spectroscopie de corrélation de photons, profilométrie haute résolution, cryptographie quantique, téléportation). L'évaluation de ces propriétés de corrélation revêt dès lors une importance toute particulière et correspond à la thématique dans laquelle s'inscrit ce travail de thèse de Doctorat. Tout d'abord, les concepts de compteur de photons par absorption à deux photons ont été (ré)évalués expérimentalement dans différents semiconducteurs et nous ont conduits à établir les bases d'un modèle quantique du comptage à deux photons. Par la suite, l'absorption à deux photons dans les semiconducteurs est appliquée dans une nouvelle technique qui permet la mesure du degré de cohérence d'ordre deux de sources optiques continues de faibles puissances (0,1 µW au minimum) avec une bande passante allant de 1,1 à 1,7 µm et une résolution de l'ordre de la femtoseconde. Expérimentalement, le montage est conceptuellement proche d'un interféromètre de Hanbury Brown et Twiss où, dans notre cas, les deux sous-faisceaux décalés dans le temps sont recombinés sur un compteur à deux photons. Grâce à la très large bande passante à deux photons, les corrélations de sources larges spectralement sont caractérisées au moyen de ce montage qui permet la mesure du degré de cohérence d'ordre deux de sources chaotiques aussi bien que d'un générateur paramétrique à la dégénérescence ou hors de la dégénérescence. Pour la première fois, le phénomène de bunching des photons issus d'un corps noir a été vérifié par une mesure directe. Pour ce qui est de la lumière paramétrique, après avoir développé une source de photons jumeaux, nous avons démontré que notre montage expérimental était à même de mesurer les coïncidences exactes des photons issus d'une même paire aussi bien que les coïncidences accidentelles entre photons de paires différentes en contrôlant les phénomènes de dispersion chromatiques à l'aide d'une paire de prismes. Enfin, deux modèles théoriques originaux de corrélation de photons jumeaux ont été développés, basées sur les approches quantique et classique, et sont en excellent accord avec l'ensemble de nos résultats expérimentaux.
14

Calcul de Malliavin, processus de Lévy et applications en finance : quelques contributions

Renaud, Jean-François January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
15

Décodeurs Haute Performance et Faible Complexité pour les codes LDPC Binaires et Non-Binaires / High Performance and Low Complexity Decoders for Binary and Non-Binary LDPC Codes

Li, Erbao 19 December 2012 (has links)
Cette thèse se consacre à l'étude de décodeurs itératifs, pour des codes correcteurd'erreurs binaires et non-binaires à faible densité (LDPC). Notre objectif est de modéliserdes décodeurs de complexité faibles et de faible latence tout en garantissantde bonne performances dans la région des très faibles taux d'erreur (error floor).Dans la première partie de cette thèse, nous étudions des décodeurs itératifssur des alphabets finis (Finite Alphabet iterative decoders, FAIDs) qui ont étérécemment proposés dans la littérature. En utilisant un grand nombre de décodeursFAIDs, nous proposons un nouvel algorithme de décodage qui améliore la capacité decorrections d'erreur des codes LDPC de degré dv = 3 sur canal binaire symétrique.La diversité des décodeurs permet de garantir une correction d'erreur minimale sousdécodage itératif, au-delà de la pseudo-distance des codes LDPC. Nous donnonsdans cette thèse un exemple detailé d'un ensemble de décodeur FAIDs, qui corrigetous les évènements d'erreur de poids inférieur ou égal à 7 avec un LDPC de petitetaille (N=155,K=64,Dmin=20). Cette approche permet de corriger des évènementsd'erreur que les décodeurs traditionnels (BP, min-sum) ne parviennent pas à corriger.Enfin, nous interprétons les décodeurs FAIDs comme des systèmes dynamiques etnous analysons les comportements de ces décodeurs sur des évènements d'erreur lesplus problématiques. En nous basant sur l'observation des trajectoires périodiquespour ces cas d'étude, nous proposons un algorithme qui combine la diversité dudécodage avec des sauts aléatoires dans l'espace d'état du décodeur itératif. Nousmontrons par simulations que cette technique permet de s'approcher des performancesd'un décodage optimal au sens du maximum de vraisemblance, et ce pourplusieurs codes.Dans la deuxième partie de cette thèse, nous proposons un nouvel algorithmede décodage à complexité réduite pour les codes LDPC non-binaires. Nous avonsappellé cet algorithme Trellis-Extended Min-Sum (T-EMS). En transformant le domainede message en un domaine appelée domaine delta, nous sommes capable dechoisir les déviations ligne par ligne par rapport à la configuration la plus fiable,tandis que les décodeurs habituels comme le décodeur EMS choisissent les déviationscolonne par colonne. Cette technique de sélection des déviations ligne parligne nous permet de réduire la complexité du décodage sans perte de performancepar rapport aux approches du type EMS. Nous proposons également d'ajouter une colonne supplémentaire à la représentation en treillis des messages, ce qui résoudle problème de latence des décodeurs existants. La colonne supplémentaire permetde calculer tous les messages extrinséque en parallèle, avec une implémentationmatérielle dédiée. Nous présentons dans ce manuscrit, aussi bien les architecturesmatérielles parallèle que les architectures matérielles série pour l'exécution de notrealgorithme T-EMS. L'analyse de la complexité montre que l'approche T-EMS estparticulièrement adapté pour les codes LDPC non-binaires sur des corps finis deGalois de petite et moyenne dimensions. / This thesis is dedicated to the study of iterative decoders, both for binary and non-binary low density parity check (LDPC) codes. The objective is to design low complexity and low latency decoders which have good performance in the error floor region.In the first part of the thesis, we study the recently introduced finite alphabet iterative decoders (FAIDs). Using the large number of FAIDs, we propose a decoding diversity algorithm to improve the error correction capability for binary LDPC codes with variable node degree 3 over binary symmetric channel. The decoder diversity framework allows to solve the problem of guaranteed error correction with iterative decoding, beyond the pseudo-distance of the LDPC codes. We give a detailed example of a set of FAIDs which corrects all error patterns of weight 7 or less on a (N=155,K=64,Dmin=20) short structured LDPC, while traditional decoders (BP, min-sum) fail on 5-error patterns. Then by viewing the FAIDs as dynamic systems, we analyze the behaviors of FAID decoders on chosen problematic error patterns. Based on the observation of approximate periodic trajectories for the most harmful error patterns, we propose an algorithm which combines decoding diversity with random jumps in the state-space of the iterative decoder. We show by simulations that this technique can approach the performance of Maximum LikelihoodDecoding for several codes.In the second part of the thesis, we propose a new complexity-reduced decoding algorithm for non-binary LDPC codes called trellis extended min sum (T-EMS). By transforming the message domain to the so-called delta domain, we are able to choose row-wise deviations from the most reliable configuration, while usual EMS-like decoders choose the deviations column-wise. This feature of selecting the deviations row-wise enables us to reduce the decoding complexity without any performance loss compared to EMS. We also propose to add an extra column to the trellis representation of the messages, which solves the latency issue of existing decoders. The extra column allows to compute all extrinsic messages in parallel, with a proper hardware implementation. Both the parallel and the serial hardware architectures for T-EMS are discussed. The complexity analysis shows that the T-EMS is especially suitable for high ratenon-binary LDPC codes on small and moderate fields.
16

Conception d'un système d'alimentation intégré dédié à la sécurisation des cartes à puce

Telandro, Vincent 23 November 2007 (has links) (PDF)
Le courant d'alimentation d'une carte à puce présente des corrélations significatives avec les données traitées par son microcontrôleur. Les techniques de cryptanalyse dites « par analyse en courant » exploitent ces corrélations pour déterminer les clés secrètes des cryptosystèmes embarqués. Cette étude traite de la conception d'un système d'alimentation sur puce destiné à protéger les microcontrôleurs encartables contre les attaques par analyse en courant. Le nouveau système proposé permet de réguler la tension d'alimentation interne du microcontrôleur à partir de la tension d'alimentation externe fournie par le lecteur, tout en décorrélant le courant d'alimentation externe du courant d'alimentation interne. Sa surface et son rendement respectent les contraintes imposées par le support. De plus, son architecture inclut un nouveau générateur d'horloge aléatoire basé, entre autres, sur un attracteur chaotique de type « double-scroll ». Le système a été simulé avec Eldo et les paramètres MM9 d'un procédé CMOS 0.18 µm standard de la société STMicroelectronics; les résultats des simulations témoignent de son efficacité. Par ailleurs, l'oscillateur chaotique a été fabriqué suivant le procédé CMOS 0.35 µm 2P/4M du fondeur AMS; les mesures expérimentales confirment les résultats théoriques.
17

Transition vers le chaos en convection naturelle confinée : descriptions lagrangienne et eulérienne / Transition to chaos in confined natural convection : Lagrangian and Eulerian descriptions

Oteski, Ludomir 30 June 2015 (has links)
Cette thèse est une étude numérique d'un écoulement d'air dans une cavité différentiellement chauffée bidimensionnelle en présence de gravité. Pour un rapport hauteur/largeur de deux et des parois horizontales supposées adiabatiques, l'écoulement de base correspond à une recirculation autour de la cavité avec un coeur stratifié et des couches limites verticales. Les équations de Navier-Stokes sont résolues par un code de simulation numérique directe spectrale instationnaire basé sur l’hypothèse de Boussinesq couplé à un algorithme de suivi de particules avec interpolation. Le nombre de Rayleigh basé sur la différence de température est choisi comme paramètre de contrôle de l’écoulement. La transition vers le chaos au sein de cet écoulement est explorée à la fois du point de vue eulérien (développement de l’instationnarité) et lagrangien (mélange chaotique).L'approche lagrangienne considère le mélange de traceurs passifs infinitésimaux non diffusifs. L'étude se base sur l'identification d'objets invariants de la dynamiques : points fixes, orbites périodiques et leurs variétés stable/instable, connections homoclines et hétéroclines, trajectoires toroïdales. Le mélange des traceurs est partiel lorsque l'écoulement subit une première bifurcation de Hopf. La dispersion globale des traceurs résulte d'un compromis entre la présence de tores Kolmogorov-Arnold-Moser qui jouent le rôle de barrières au mélange, et d'enchevêtrements homoclines/hétéroclines responsables du chaos lagrangien. L'étude statistique des temps de retour et du taux d'homogénéisation révèle la présence de zones où la dynamique est non hyperbolique. En augmentant le nombre de Rayleigh, le mélange devient progressivement complet avant que l'écoulement ne devienne quasi-périodique en temps. L'approche eulérienne considère les divers scénarios de transition vers le chaos par l'identification numérique d'attracteurs et des bifurcations associées lorsque le nombre de Rayleigh varie. Deux routes principales se distinguent en fonction des symétries associées aux deux premières bifurcations de Hopf du système, contenant chacune plusieurs branches hystérétiques. Trente trois régimes différents sont identifiés et analysés depuis l'écoulement stationnaire jusqu'à un écoulement chaotique voire hyperchaotique. Parmi ceux-ci, des branches de tores à deux et trois fréquences incommensurables, ainsi que des régimes intermittents sont examinés. Des diagrammes de bifurcations qualitatifs et quantitatifs sont proposés pour résumer l'ensemble des dynamiques observées. / This thesis is about the numerical study of an air flow inside a two dimensionally heated cavity. The aspect ratio height/width is set to two. Boundary conditions on horizontal walls are taken as adiabatic. In this case, the base flow consists of a recirculation around the stratified core of the cavity and of boundary layers along the vertical walls. The Navier-Stokes equations are solved using a spectral direct numerical simulation code under the Boussinesq assumption coupled with a particle tracking scheme based on interpolation. The Rayleigh number, based on the temperature difference is chosen as the control parameter of the system. The transition to chaos in this flow is considered both from the Eulerian and Lagrangian point of view.The Lagrangian point of view considers the mixing of point-wise non-diffusive passive tracers. The study is based on the identification of invariant objects: fixed points, periodic orbits and their stable/unstable manifolds,homoclinic and heteroclinic connections, toroidal trajectories.The mixing of tracers is partial when the flow undergoes the first Hopf bifurcation. The complete mixing of tracers results from a compromise between Kolmogorov-Arnold-Moser's tori, which act as barriers to mixing, and homoclinic/heteroclinic tangles which are responsible for the mixing.The statistical study of return times and the homogenisation rate shows regionswhere the dynamics is non-hyperbolic. When the Rayleigh number is increased, mixing is increasingly complete before the flow becomes quasi-periodic in time.The Eulerian description considers the transition to chaos via the numerical identification of attractors and their associated bifurcations when the Rayleigh number is varied. Two main routes are found depending on the symmetries associated with the first two Hopf bifurcations of the system. A total of thirty three different regimes are identified from steady to hyperchaotic, among which two- and three-frequency tori as well as intermittent dynamics. Both quantitative and qualitative bifurcation diagrams are suggested for the system.
18

Chaos Ondulatoire en milieux ouverts : Approche Statistique par la Théorie des Matrices Aléatoires non-hermitiennes

Poli, Charles 23 October 2009 (has links) (PDF)
Dans le domaine du Chaos Ondulatoire, les statistiques des systèmes fermés sont à l'heure ac- tuelle bien comprises. Cependant, il en est tout autrement pour les systèmes ouverts, c'est-à-dire pour des systèmes dont le couplage avec l'environnement ne peut plus être négligé. En appli- quant la Théorie des Matrices Aléatoires au formalisme de l'hamiltonien effectif, les statistiques spectrales et spatiales de systèmes chaotiques ouverts sont étudiées analytiquement. De plus, les prédictions théoriques sont systématiquement vérifiées par des simulations numériques de type matrices aléatoires. Dans le domaine spectral, les modifications engendrées par le couplage sur les écarts et les croisements évités sont illustrées par le phénomène de piégeage des résonances. Les distributions bien connues des écarts et des croisements évités sont généralisées aux systèmes chaotiques ouverts, permettant d'expliquer des résultats expérimentaux obtenus avec une cavité électromagnétique. Dans le domaine spatial, les statistiques du paramètre de non-orthogonalité, qui mesure l'effet du couplage sur les fonctions d'onde propres de l'hamiltonien effectif, sont dérivées analytiquement et sont vérifiées par des simulations numériques modélisant des cavités électromagnétiques chaotiques. Pour des systèmes dont le couplage varie, une relation entre la largeur spectrale et le paramètre de non-orthogonalité associés à une même résonance est aussi obtenue. Cette prédiction est confirmée par des expériences en élastodynamique.
19

Contributions à l'étude des marchés discontinus par le calcul de Malliavin

EL-KHATIB, Youssef 21 February 2003 (has links) (PDF)
La constatation que les prix des actifs boursiers sautent brusquement a conduit à étudier des modèles de marchés avec sauts. Cette thèse va dans cette direction. On y considère des marchés dirigés par des martingales normales qui ont la propriété de représentation chaotique: les martingales vérifiant une équation de structure déterministe, la martingale d'Azéma, etc. On trouve des stratégies de couverture pour les options européennes, asiatiques et Lookback soit par la formule d'Itô, soit par la formule de Clark-Ocone selon la plus appropriée. L'application du calcul de Malliavin au calcul des Greeks est traitée pour les options asiatiques dans le cas d'un marché dirigé par un processus de Poisson. On traite aussi de couverture dans un modèle à volatilité stochastique avec sauts où le prix de l'actif risqué est dirigé par un processus somme d'un mouvement brownien et d'un processus de Poisson 2-dimensionnels. Le marché est incomplet et il existe une infinité de mesures martingales équivalentes. On minimise l'entropie pour choisir telle mesure. Sous celle-ci on calcule la stratégie minimisant la variance.
20

Optimisation de l'hybridation des puces à ADN grâce au mélange par advection chaotique.

Beuf, Aurélien 14 November 2008 (has links) (PDF)
La détection de séquences génétiques par la technologie des puces à ADN se heurte à des problèmes de fiabilité et de reproductibilité, dus en grande partie à des problèmes de mélange. Dans toute cette thèse, nous montrons à quel point le mélange par advection chaotique améliore les performances de ces puces. Pour cela nous comparons, par une étude principalement numérique, l'efficacité de deux protocoles de mélange basés sur le principe d'injection alternée et périodique de fluide (modèle puits/sources) : l'un utilise des seringues réversibles, l'autre des pompes recyclant le fluide extrait, conduisant globalement à un mélange bien plus efficace et rapide. En outre, nous mettons en évidence le rôle important de la géométrie de la chambre. Dans un second temps, nous introduisons un modèle de capture chimique entre les monobrins d'ADN libres en volume (cibles) et ceux fixés sur la puce (sondes). Nous montrons alors numériquement que la réaction est généralement grandement limitée par la diffusion, mais que l'advection chaotique améliore les choses de manière très significative grâce au mélange. Ceci nous permet d'estimer les constantes de vitesses dans le cas statique (où la diffusion agit seule) et le cas dynamique (avec mélangeur). Enfin, profitant de l'opportunité d'un stage à l'Université de Sherbrooke, j'ai effectué un premier suivi en temps réel par SPR d'une cinétique de type "cibles en solution/sondes sur support" pour tenter de comparer les vitesses d'hybridation statique et dynamique.

Page generated in 0.0474 seconds