Spelling suggestions: "subject:"conceptuelle""
51 |
L'enseignement mutuel en Bretagne de 1815 à 1850Chalopin, Michel 28 June 2008 (has links) (PDF)
L'enseignement mutuel consiste à utiliser des élèves plus instruits pour enseigner aux autres. A la fin du XVIIIe siècle, deux pédagogues anglais, Bell et Lancaster, élaborent ce système d'instruction en direction des enfants pauvres. Celui se voulant à la fois efficace et économique, on aboutit à une sorte de révolution pédagogique. Non seulement l'enseignement est confié à des enfants mais les élèves apprennent à lire et à écrire en même temps, ce qui est une nouveauté pour l'époque. En outre, une progression rigoureuse est introduite et les élèves sont groupés selon leurs compétences. Enfin, l'emploi d'un matériel peu onéreux, ardoises et tableaux, est généralisé. La nouvelle méthode est introduite en France en 1815. En Bretagne, entre 1817 et 1822, une quarantaine d'écoles sont fondées, essentiellement dans les villes et les gros bourgs. Mais, l'Eglise y voit bientôt un système concurrent menaçant sa volonté hégémonique dans le domaine de l'instruction populaire. Il est intéressant d'observer les conséquences d'une telle innovation en Bretagne, région qui se distingue, à l'époque, par un des plus faibles niveaux d'instruction de France, une culture dominée par la religion et une vie sociale sous l'emprise des notables. Hormis les aspects religieux, sociaux et politiques, ce qui retient également l'attention, c'est la pédagogie et la condition des maîtres. Ces pionniers de l'instruction primaire font d'ailleurs l'objet d'une prosopographie permettant une approche plus sensible de cette réalité. En effet, dans ces deux domaines, peu abordés dans les études historiques, les changements apportés par l'enseignement mutuel sont loin d'être négligeables
|
52 |
Modélisation, Validation et Présynthèse de Circuits Asynchrones en SystemCKoch-Hofer, C. 26 March 2009 (has links) (PDF)
Avec les progrès technologiques en microéléctronique, les méthodes de conception traditionnelles {\og}tout synchrone{\fg} atteignent leurs limites. Une solution efficace pour résoudre ce problème est de diviser un circuit en plusieurs domaines d'horloge indépendants et de faire communiquer leurs composants avec un réseau sur puce asynchrone. Toutefois, la généralisation de cette solution est limitée par le manque d'outils adaptés à la conception de circuits asynchrones complexes tels que des réseaux sur puce asynchrones. Une contribution de cette thèse, pour pallier cette limitation, a été de développer la bibliothèque ASC qui permet de modéliser fidèlement en SystemC des circuits asynchrones insensibles aux délais. Des facilités de traçage basées sur un modèle de temps distribué ont également été développées pour être en mesure de valider par simulation le comportement d'un modèle ASC. Une dernière contribution de cette thèse a été de définir une méthode de présynthèse des structures de choix qui prennent en compte efficacement les primitives de synchronisation spécifiques aux circuits asynchrones.
|
53 |
Le signal complexe de la diffusion collective de la lumière et les écoulements turbulentsHonoré, Cyrille 05 June 1996 (has links) (PDF)
La diffusion collective de la lumière est un moyen d'observation des gaz turbulents. Un laser éclaire le volume étudié. Le champ diffusé par les molécules du gaz est détecté, sous un angle proche de la direction de propagation avant. L'information recueillie est proportionnelle à la transformée de Fourier spatiale de la densité du gaz, sur le volume d'observation, suivant le vecteur d'onde de diffusion. La détection hétérodyne permet d'avoir accès au module et à la phase de ce signal complexe.<br /> L'effet Doppler implique qu'il est possible de mesurer la vitesse de l'écoulement: à travers le spectre du signal, on retrouve, sous certaines conditions, la distribution de probabilité de la vitesse moyenne sur le volume observé. De manière instantanée, on a étudié la dérivée de la phase du signal pour déterminer sous quelles conditions, cette dérivée approche la vitesse instantanée moyenne sur le volume. L'évolution temporelle de la vitesse moyenne sur le volume est alors connue. Son spectre peut être calculé. Un coefficient de diffusion turbulente peut être établi. Les expériences liées à cette étude, ont été faites sur une couche de mélange supersonique, dans la soufflerie S150 du LÉA de Poitiers.<br /> La diffusion a aussi la propriété de sélectionner une longueur d'onde, donc une échelle du milieu observé. Cette information est présente dans le module du signal. Un dispositif permettant d'observer simultanément deux diffusions à des échelles différentes a été monté. L'expérience a porté sur un jet à symétrie axiale. L'étude des auto- et intercorrélations entre signaux à échelles différentes laisse apparaitre deux échelles de temps distinctes: un temps court, visible uniquement sur l'autocorrélation, propre à l'échelle observée, et un temps plus long, observable dans tous les cas. Ce dernier ne dépend que de l'échelle de production et de la vitesse moyenne. On a montré que ce temps long est propre aux grandes structures de la turbulence.
|
54 |
Blancheur et non-gaussianité pour la déconvolution aveugle de données brutiées : application aux signaux sismiquesLarue, Anthony 13 September 2006 (has links) (PDF)
Nous nous intéressons à la déconvolution aveugle de signaux bruités et plus précisément de signaux d'imagerie sismique. Pour réaliser l'inversion, nous souhaitons effectuer une sélection des statistiques d'ordre supérieur adaptées à la distribution du signal à déconvoluer. Pour cela, nous nous appuyons sur l'hypothèse de blancheur ou de non-gaussianité. Nous proposons une approche avec le taux d'information mutuelle comme mesure de blancheur et une autre basée sur la non-gaussianité du signal de sortie mesurée par la néguentropie. Après le développement d'algorithmes dans le domaine temporel et fréquentiel, nous caractérisons l'influence sur les critères du bruit additif présent sur les données. Nous démontrons que l'hypothèse de non-gaussianité est plus robuste à la présence d'un bruit additif sur les données blanc et gaussien. Cette approche permet pour des données synthétiques et réelles un très bon compromis entre la qualité de la déconvolution et l'amplification du bruit.
|
55 |
Architecture et Apprentissage d'un Système Hybride Neuro-Markovien pour la Reconnaissance de l'Écriture Manuscrite En-LigneCaillault, Emilie 12 December 2005 (has links) (PDF)
Les travaux présentés dans le cadre de cette thèse portent sur l'étude, la conception, le développement et le test d'un système de reconnaissance de mots manuscrits non contraints en-ligne pour une application omni-scripteurs. Le système proposé repose sur une architecture hybride neuro-markovienne comportant d'une part, un réseau de neurones à convolution (TDNN et/ou SDNN), et d'autre part des modèles de Markov à états cachés (MMC). Le réseau de neurones a une vision globale et travaille au niveau caractère, tandis que le MMC s'appuie sur une description plus locale et permet le passage du caractère au niveau mot. Nous avons d'abord étudié le système de reconnaissance au niveau caractère isolé (digits, majuscules, minuscules) et optimisé les architectures des réseaux en termes de performances et de taille. La seconde partie du travail a porté sur le passage au niveau mot. Ici, l'effort a consisté avant tout à la définition d'un schéma d'apprentissage global au niveau mot qui permet d'assurer la convergence globale du système, en définissant une fonction d'objectif qui mixe des critères basés modèle générateur (typiquement par maximum de vraisemblance) et des critères discriminants (de type maximum d'information mutuelle). Les différentes résultats présentés (sur les bases MNIST, IRONOFF, UNIPEN) montrent l'influence des principaux paramètres du système, soit en termes de topologie, de sources d'information, de modèles d'apprentissage (nombre d'états, pondération des critères, durée).
|
56 |
EXPLORATION PAR DES INTERFACES HYBRIDES DU CODE NEURONAL ET DES MÉCANISMES DE RÉGULATION DE L'INFORMATION SENSORIELLE DANS LE SYSTÈME VISUELBéhuret, Sébastien 14 May 2012 (has links) (PDF)
L'identification du codage neuronal dans le thalamus et le cortex cérébral, et en particulier dans l'aire visuelle primaire, se heurte à la complexité du réseau neuronal qui repose sur une diversité étonnante des neurones, sur les plans morphologique, biochimique et électrique, et de leurs connexions synaptiques. À cela s'ajoute une importante diversité des propriétés fonctionnelles de ces neurones reflétant en grande partie la forte récurrence des connexions synaptiques au sein des réseaux corticaux ainsi que la boucle cortico-thalamo-corticale. En d'autres termes, le calcul global effectué dans le réseau thalamo-cortical influence, via des milliers de connexions synaptiques excitatrices et inhibitrices, la spécificité de la réponse de chaque neurone. Dans une première partie, nous avons développé un modèle de bombardement synaptique contextuel reproduisant la dynamique de milliers de synapses excitatrices et inhibitrices convergeant vers un neurone cortical avec l'avantage de pouvoir paramétrer le niveau de synchronisation des synapses afférentes. Nous montrons que le niveau de synchronisation synaptique est relié au taux de corrélation de l'activité neuronale sous-liminaire dans le cortex visuel du chat, avec d'une part un régime où le codage neuronal est très redondant pour des stimulations artificielles classiquement utilisées du type réseau de luminance sinusoïdale, et d'autre part un régime où le codage neuronal est beaucoup plus riche présentant moins de corrélation neuronale pour des stimulations naturelles. Ces résultats indiquent que le taux de corrélation de l'activité neuronale sous-liminaire est un indicateur fonctionnel du régime de codage dans lequel est engagé le cortex cérébral. Dans une seconde partie, nous avons étendu l'exploration du codage neuronal au thalamus, passerelle principale qui transmet les informations sensorielles en provenance de la périphérie vers le cortex cérébral. Le thalamus reçoit un fort retour cortico-thalamique qui résulte du calcul global effectué par les aires corticales. Nous avons étudié son influence en modélisant une voie retino-thalamo-corticale mixant neurones artificiels et neurones biologiques in vitro dans laquelle un bombardement synaptique d'origine corticale est mimé via l'injection de conductances stochastiques excitatrices et inhibitrices en clamp dynamique. Cette approche confère l'avantage de pouvoir contrôller individuellement chacun des neurones thalamiques dans la voie artificielle. Nous montrons qu'un processus de facilitation stochastique à l'échelle de la population s'adjoint au gain cellulaire classique pour contrôler le transfert de l'information sensorielle de la rétine au cortex visuel primaire. Ce processus de facilitation stochastique, qui n'aurait pas pu être discerné à l'échelle de la cellule individuelle, est gouverné par le taux de corrélation inter-neuronale de l'activité neuronale dans le thalamus. À l'inverse des conceptions classiques, -un fort taux de décorrélation- optimise le transfert sensoriel de la rétine au cortex en favorisant la synchronisation des afférences synaptiques. Nous suggérons qu'une décorrélation induite par les aires corticales pourrait augmenter l'efficacité du transfert pour certaines assemblées cellulaires dans le thalamus, constituant ainsi un mécanisme attentionnel à l'échelle des circuits thalamo-corticaux. En parallèle, nous avons développé une méthode d'extraction des fluctuations des conductances synaptiques des neurones à partir d'enregistrements intracellulaires unitaires. Cette méthode devrait permettre de raffiner nos connaissances sur la nature des contextes synaptiques dans lesquels sont immergés les neurones avec des retombées potentielles sur le développement de nouveaux modèles de bombardements synaptiques. En conclusion, nos travaux confirment l'hypothèse d'un codage neuronal basé sur la synchronisation synaptique conditionnée par le niveau de corrélation de l'activité neuronale. Nos travaux sont cohérents avec de nombreuses études sur les processus attentionnels et suggèrent que des mécanismes de corrélation et décorrélation actives, ainsi que des activités oscillatoires, pourraient réguler le transfert de l'information entre les organes sensoriels et les aires corticales.
|
57 |
Fluctuations de fonctionnelles spectrales de grandes matrices aléatoires et applications aux communications numériquesKharouf, Malika 19 June 2010 (has links) (PDF)
La théorie des matrices aléatoires présente un ensemble d'outils mathématiques efficaces pour l'étude de performances des systèmes de communications numériques. L'objectif de cette thèse est de développer des résultats analytique basés sur la théorie des matrices aléatoires pour étudier les fluctuations de quelques indices de performances pour les systèmes de communications sans fil. Nous étudions dans un premier temps, les fluctuations du rapport signal sur bruit (SINR), indice de performance mesuré à la sortie d'un récepteur linéaire de Wiener, récepteur minimisant l'erreur quadratique des symboles estimés (LMMSE) pour les transmissions par la technique CDMA. Basés sur la méthode REFORM, nous montrons le comportement gaussien asymptotique pour le SINR. L'étude du SINR permet la compréhension de comportements d'autres indices de performances comme l'erreur binaire et la probabilité de dépassement. Basés sur la nature gaussienne des entrées de la matrice canal, nous utilisons des outils mathématiques dédiés aux variables gaussiennes pour évaluer ces deux indices de performances. Des simulations montrent bien la pertinence de cette approche. Il est bien connu que l'information mutuelle entre le signal émis et le signal reçu augmente avec l'utilisation des techniques de transmission multi-antennes. Nous nous intéressons à l'étude des fluctuations de cette statistique pour un modèle séparable non centré, cas Rice. Nous développons des outils mathématiques basés sur la théorie des matrices aléatoires permettant de montrer la nature gaussienne des fluctuations de l'information mutuelle.
|
58 |
Galerkin-truncated dynamics of ideal fluids and superfluids: cascades, thermalization and dissipative effectsKrstulovic, Giorgio 19 March 2010 (has links) (PDF)
Cette thèse regroupe des études portant sur la dynamique de relaxation de différents systèmes conservatifs ayant tous une troncature de Galerkin sur les modes de Fourier. On montre que, de façon très générale, ces systèmes relaxent lentement vers l'équilibre thermodynamique avec une thermalisation partielle à petite échelle qui induit une dissipation effective à grande échelle, tout en conservant les invariants globaux. La première partie de ce travail est consacrée à l'étude de la viscosité effective dans l'équation d'Euler incompressible tronquée. L'utilisation des méthodes de Monte-Carlo et de la théorie EDQNM permet la construction d'un modèle à deux fluides de ce système. Cette étude est ensuite généralisée au cas des écoulements hélicitaires. La dynamique de relaxation des écoulements décrits par les équations de la magnétohydrodynamique et des fluides compressibles tronqués est finalement caractérisée. Dans une deuxième partie, nous généralisons l'étude de la thermalisation au cas de l'équation de Gross-Pitaevski tronquée. On trouve que des effets existant dans les superfluides à température finie, comme la friction mutuelle et le ''counterflow'', sont naturellement présents dans ce modèle. On propose ainsi l'équation de Gross-Pitaevskii tronquée comme un modèle simple et riche de la dynamique superfluide à température finie. La radiation produite par le mouvement de vortex ponctuels décrits par l'équation de Gross-Pitevskii 2D est finalement caractérisée analytiquement et numériquement.
|
59 |
Contribution au développement d'une stratégie de diagnostic global en fonction des diagnostiqueurs locaux : Application à une mission spatialeIssury, Irwin 26 July 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire traitent de la synthèse d'algorithmes de diagnostic de défauts simples et multiples. L'objectif vise à proposer une stratégie de diagnostic à minimum de redondance analytique en exploitant au mieux les informations de redondance matérielle éventuellement disponibles sur le système. Les développements proposés s'inscrivent dans une démarche de coopération et d'agrégation des méthodes de diagnostic et la construction optimale d'un diagnostic global en fonction des diagnostiqueurs locaux. Les travaux réalisés se veulent génériques dans le sens où ils mêlent à la fois les concepts et outils de deux communautés : ceux de la communauté FDI (Fault Detection and Isolation) et ceux de la communauté DX (Diagnosis) dont les bases méthodologiques sont issues des domaines informatiques et intelligence artificielle. Ainsi, le problème de détection (ainsi que le problème de localisation lorsque les contraintes structurelles le permettent) est résolu à l'aide des outils de la communauté FDI tandis que le problème de localisation est résolu à l'aide des concepts de la communauté DX, offrant ainsi une démarche méthodologique agrégée. La démarche méthodologique se décline en deux étapes principales. La première phase consiste en la construction d'une matrice de signatures mutuellement exclusive. Ainsi, le problème du nombre minimal de relations de redondance analytique (RRA), nécessaires pour établir un diagnostic sans ambiguïté, est abordé. Ce problème est formalisé comme un problème d'optimisation sous contraintes qui est efficacement résolu à l'aide d'un algorithme génétique. La deuxième étape concerne la génération des diagnostics. Ainsi, pour une situation observée, identifier les conflits revient à définir les RRAs non satisfaites par l'observation. Les diagnostics sont obtenus à l'aide d'un algorithme basé sur le concept de formules sous forme MNF (Maximal Normal Form). L'intérêt majeur dans cette approche est sa capacité à traiter le diagnostic des défauts simples et multiples ainsi que le diagnostic des plusieurs modes de fautes (i.e., le diagnostic des différents types de défauts) associés à chaque composant du système surveillé. De plus, il existe des preuves d'optimalité tant au niveau local (preuve de robustesse/sensibilité) qu'au niveau global (preuve de diagnostics minimaux). La méthodologie proposée est appliquée à la mission spatiale Mars Sample Return (MSR). Cette mission, entreprise conjointement entre l'administration nationale de l'aéronautique et de l'espace (NASA) et l'agence spatiale européenne (ESA), vise à ramener des échantillons martiens sur Terre pour des analyses. La phase critique de cette mission est la phase rendez-vous entre le conteneur d'échantillons et l'orbiteur. Les travaux de recherche traitent le problème de diagnostic des défauts capteurs présents sur la chaîne de mesure de l'orbiteur pendant la phase de rendez-vous de la mission. Les résultats, obtenus à l'aide du simulateur haute fidélité de Thalès Alenia Space, montrent la faisabilité et l'efficacité de la méthode.
|
60 |
Recalage non linéaire d'images TDM et TEP dans les régions thoraciques et abdominales: etude méthodologique et application en routine cliniqueCamara-Rey, Oscar 12 1900 (has links) (PDF)
Le but de ces travaux est de proposer une contribution au recalage d'images TDM-TEP dans les régions thoraciques et abdominales. Notre méthodologie est fondée sur l'introduction de contraintes anatomiques au recalage non linéaire appliqué sur les intensités. Cette introduction est faite d'une manière explicite, en divisant la procédure en une phase d'initialisation recalant les structures segmentées dans les deux images, et une deuxième phase de recalage à niveaux de gris, raffinant l'étape précédente de l'algorithme. Les transformations sont modélisées dans les deux étapes à partir de Free Form Deformations (FFD). La segmentation est réalisée selon une procédure hiérarchique de reconnaissance de formes. La mesure fournie par le protocole d'évaluation que nous avons développé indique une erreur inférieure à 1cm pour les structures les plus significatives (poumons, foie, reins, coeur), sauf pour le stomach (erreur d'1.5cm).
|
Page generated in 0.0532 seconds