Spelling suggestions: "subject:"mesures"" "subject:"lesures""
431 |
Etude de l'interface lithium métal / électrolyte polymère fondu ou gélifié.Teyssot, Anna 27 January 2005 (has links) (PDF)
Les batteries à électrode lithium métal ont des capacités théoriques élevées, une différence de potentiel importante, des géométries adaptables. Leur développement à l'échelle industrielle est pourtant compromis par l'électrodépôt d'agrégats irréguliers de lithium (dendrites) lors de la recharge de la batterie. La croissance dendritique à faible densité de courant est mal comprise, et semble liée à une mauvaise distribution de la densité de courant locale du fait des inhomogénéités à l'interface lithium/électrolyte. Ce manuscrit présente nos résultats sur des cellules symétriques Li/Electrolyte/Li qui permettent d'étudier simultanément le dépôt et la dissolution du lithium. Ces cellules sont basées sur des systèmes à base de POE+LiTFSI fonctionnant à 80°C, et sur des systèmes à base de PVdF-HFP/POE imbibé en EC:PC+LiTFSI et fonctionnant à température ambiante. Nous avons étudié ces cellules par visualisation in situ de l'espace inter-électrodes, et par spectroscopie d'impédance. Sur des cellules de visualisation à base d'électrolyte polymère fondu chargé en sel coloré, nous avons observé l'évolution des profils d'absorption optique directement liés aux profils de concentration dans l'électrolyte. Sur le système à base d'électrolyte gélifié nous avons constaté des variations locales de densité de courant en cours de polarisation. Par impédance, nous mettons en évidence la présence de deux couches de passivation à l'interface lithium/électrolyte qui évoluent différemment en vieillissement. Lorsqu'on polarise une cellule à courant constant, sa réponse en tension met en évidence la présence d'un milieu peu diffusif à l'interface entre le lithium et l'électrolyte.
|
432 |
Etude de convergences de séries aléatoires échantillonnées, mesures de Markov quasi-Bernoulli ou quasi-Bernoulli faible et temps de retour uniforme dans les systèmes exponentiellement mélangeantsLanglet, Thomas 15 October 2009 (has links) (PDF)
Dans la première partie de cette thèse, on s'intéresse à la convergence de certaines séries aléatoires. On détermine des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence uniforme ou pour presque tout $x$ de la série $\sum_{k\geq 1}a_k f(x\cdot(X_1+\cdots+X_k)(\omega))$ pour une certaine classe de fonctions $f$. On trouve, aussi, des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence dans $L^2(\mu)$ ou $\mu$-presque partout de la série $\sum_{k\geq 1}a_k T^{(X_1+\cdots+X_k)(\omega)}(g)(x)$ pour certaines classes de fonctions $g\in L^2(\mu)$ et de flot $\{T^{t},t\in G\}$ d'opérateurs de $L^2(\mu)$ dans $L^2(\mu)$ (où $G$ est un semi-groupe de $\mathbb{R}$). La deuxième partie porte sur des propriétés de mesures : quasi-Bernoulli et quasi-Bernoulli faible. On trouve notamment des conditions nécessaires et suffisantes pour qu'une mesure de Markov inhomogène soit quasi-Bernoulli ou quasi-Bernoulli faible. On caractèrise à l'aide de ces conditions les mesures de Bernoulli qui sont quasi-Bernoulli ou quasi-Bernoulli faible. On prouve que si une mesure de Bernoulli n'ayant que des probabilités non nulles est quasi-Bernoulli faible alors elle est quasi-Bernoulli. La dernière partie est consacrée à l'étude du problème du temps de retour uniforme dans les systèmes exponentiellement mélangeant. Il s'agit d'avoir un recouvrement aléatoire de l'espace engendré par un processus exponentiellement mélangeant. Etant donné un recouvrement aléatoire, on obtient une estimation du nombre de recouvrements en fonction de la dimension maximale locale de la mesure
|
433 |
Traitement automatique d'informations appliqué aux ressources humainesKessler, Rémy 10 July 2009 (has links) (PDF)
Depuis les années 90, Internet est au coeur du marché du travail. D'abord mobilisée sur des métiers spécifiques, son utilisation s'étend à mesure qu'augmente le nombre d'internautes dans la population. La recherche d'emploi au travers des « bourses à l'emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d'informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d'information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d'outils pour automatiser les flux d'informations lors d'un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d'une entreprise à gérer efficacement et à moindre coût ces flux d'informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l'application des méthodes d'apprentissage afin d'effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l'analyse et l'intégration d'une offre d'emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d'intégrer une offre d'emploi d'une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d'assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d'effectuer un classement pertinent des candidatures. L'utilisation d'un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité.
|
434 |
Évaluation de performance d'architectures de commande de systèmes automatisés industrielsMeunier, Pascal 30 March 2006 (has links) (PDF)
Les performances temporelles d'une architecture de contrôle-commande conditionnent fortement celles du système automatisé de production commandé. Pour maîtriser ces performances temporelles, l'architecte automaticien doit pouvoir les évaluer à chaque phase du cycle de développement : de l'étude d'avant-projet à la conception détaillée ainsi que lors de la mise au point. Il n'a cependant pas les mêmes attentes concernant les performances estimées. Des résultats approximatifs, obtenus rapidement à partir de données encore imprécises, lui suffisent en début de cycle de développement, alors que des prévisions fiables, même si elles sont plus difficiles à obtenir, lui sont nécessaires en conception détaillée. L'approche que nous présentons prend en compte ces différents besoins et contraintes. Elle consiste en une méthode d'évaluation des performances temporelles d'architectures de commande complexes distribuées en réseaux, destinée à accompagner l'architecte tout au long du cycle de développement. Cette méthode est basée sur une modélisation modulaire du comportement temporel de la commande par réseaux de Petri Colorés Temporisés. Pour ce faire, trois temps sont nécessaires dans la modélisation. La modélisation de l'architecture fonctionnelle consiste à représenter les fonctions de commande, et leurs interactions. La modélisation de l'architecture matérielle permet de traduire la topologie et les connexions entre équipements de commandes (automates programmables, réseaux de communication, ...). L'affectation des fonctions de commande aux équipements ainsi que la prise en compte des communications entre ces fonctions via des réseaux de communication constitue le modèle de l'architecture opérationnelle. Une fois le modèle de comportement de l'ensemble de l'architecture opérationnelle constitué, l'évaluation des performances temporelles est réalisée par simulation du réseau de Petri obtenu. Pour valider notre approche, nous traitons un exemple significatif à l'aide de la plate forme logicielle Design CPN. Cette étude de cas nous permet de présenter une série d'études portant sur la convergence de nos modèles, sur la sensibilité des résultats de simulation aux erreurs de paramétrages et sur la précision des performances obtenues par simulation en les confrontant à celles mesurées sur le système réel.
|
435 |
Problèmes inverses dans les réseauxKauffmann, Bruno 24 March 2011 (has links) (PDF)
La croissance récente d'Internet lors deux dernières décennies a conduit à un besoin croissant de techniques permettant de mesurer la structure et la performance d'Internet. Les techniques de mesures de réseaux peuvent être classifiées en méthodes passives qui utilisent des données collectées au niveau des routeurs, et les méthodes actives, reposant sur l'injection active et l'observation de paquets-sondes. Les méthodes actives, qui sont la motivation principale de ce doctorat, sont particulièrement adaptées aux utilisateurs finaux, qui ne peuvent pas accéder aux données mesurées par les routeurs avec l'architecture actuelle d'Internet. Sur un autre plan, la théorie des réseaux se développe depuis un siècle, et de nombreux outils permettent de prédire la performance d'un système, en fonction de quelques paramètres clés. La théorie des files d'attentes émerge comme une solution particulièrement fructueuse, que ce soit pour les réseaux téléphoniques ou pour les réseaux filaires à commutation de paquet. Dans ce dernier cas, elle s'intéresse au mécanisme à l'échelle des paquets, et prédit des statistiques à ce niveau. À l'échelle des flots de paquets, la théorie des réseaux à partage de bande passante permet une abstraction de tout schéma d'allocation de bande passante, y compris le partage implicite résultant du protocole TCP. De nombreux travaux ont montré comment les résultats provenant de ces théories peuvent s'appliquer aux réseaux réels, et en particulier à Internet, et dans quels aspects le comportement de réseaux réels diffère des prédictions théoriques. Cependant, il y a eu peu de travaux établissant des liens entre le point de vue théorique d'un réseau et le problème pratique consistant à le mesurer. Le but de ce manuscrit est de bâtir quelques ponts entre le monde des méthodes de mesure par sondes actives et le monde de la théorie des réseaux. Nous adoptons l'approche des problèmes inverses, qui peuvent être vus en opposition aux problèmes directs. Un problème direct prédit l'évolution d'un système défini, en fonction des conditions initiales et d'une équation d'évolution connue. Un problème inverse observe une partie de la trajectoire d'un système défini, et cherche à estimer les conditions initiales ou paramètres pouvant conduire à cette trajectoire. Les données des méthodes de mesure par sondes actives sont les séries temporelles des pertes et délais des sondes, c'est-à-dire précisément une partie de la "trajectoire" d'un réseau. Ainsi, les méthodes de mesures par sondes actives peuvent être considérées comme des problèmes inverses pour une théorie des réseaux qui permettrait une prédiction exacte de l'évolution des réseaux. Nous montrons dans ce document comment les méthodes de mesures par sondes actives sont reliées aux problèmes inverses dans la théories des files d'attentes. Nous spécifions comment les contraintes de mesures peuvent être incluses dans les problèmes inverses, quels sont les observables, et détaillons les étapes successives pour un problème inverse dans la théorie des files d'attentes. Nous classifions les problèmes en trois catégories différentes, en fonction de la nature de leur résultat et de leur généralité, et donnons des exemples simples pour illustrer leurs différentes propriétés. Nous étudions en détail un problème inverse spécifique, où le réseau se comporte comme un réseau dit "de Kelly" avecK serveurs en tandem. Dans ce cas précis, nous calculons explicitement la distribution des délais de bout en bout des sondes, en fonction des capacités résiduelles des serveurs et de l'intensité des sondes. Nous montrons que l'ensemble des capacités résiduelles peut être estimé à partir du délai moyen des sondes pour K intensités de sondes différentes. Nous proposons une méthodes d'inversion alternative, à partir de la distribution des délais des sondes pour une seule intensité de sonde. Dans le cas à deux serveurs, nous donnons une caractérisation directe de l'estimateur du maximum de vraisemblance des capacités résiduelles. Dans le cas général, nous utilisons l'algorithme Espérance-Maximisation (E-M). Nous prouvons que dans le cas à deux serveurs, la suite des estimations de E-M converge vers une limite finie, qui est une solution de l'équation de vraisemblance. Nous proposons une formule explicite pour le calcul de l'itération quand K = 2 ou K = 3, et prouvons que la formule reste calculable quelque soit le nombre de serveurs. Nous évaluons ces techniques numériquement. À partir de simulations utilisant des traces d'un réseau réel, nous étudions indépendamment l'impact de chacune des hypothèses d'un réseau de Kelly sur les performances de l'estimateur, et proposons des facteurs de correction simples si besoin. Nous étendons l'exemple précédant au cas des réseaux en forme d'arbre. Les sondes sont multicast, envoyées depuis la racine et à destination des feuilles. À chaque noeud, elles attendent un temps aléatoire distribué de façon exponentielle. Nous montrons que ce modèle est relié au modèle des réseaux de Kelly sur une topologie d'arbre, avec du trafic transverse unicast et des sondes multicast, et calculons une formule explicite pour la vraisemblance des délais joints. Nous utilisons l'algorithme E-M pour calculer l'estimateur de vraisemblance du délai moyen à chaque noeud, et calculons une formule explicite pour la combinaison des étapes E et M. Des simulations numériques illustrent la convergence de l'estimateur et ses propriétés. Face à la complexité de l'algorithme, nous proposons une technique d'accélération de convergence, permettant ainsi de considérer des arbres beaucoup plus grands. Cette technique contient des aspects innovant dont l'intérêt peut dépasser le cadre de ces travaux. Finalement, nous explorons le cas des problèmes inverses dans la théorie des réseaux à partage de bande passante. À partir de deux exemples simples, nous montrons comment un sondeur peut mesurer le réseau en faisant varier le nombre de flots de sondes, et en mesurant le débit associé aux flots dans chaque cas. En particulier, si l'allocation de bande passante maximise une fonction d'utilité -équitable, l'ensemble des capacités des réseaux et leur nombre de connections associé peut être identifié de manière unique dans la plupart des cas. Nous proposons un algorithme pour effectuer cette inversion, avec des exemples illustrant ses propriétés numériques.
|
436 |
Contribution du modèle Age-Période-Cohorte à l'étude de l'épizootie d'Encéphalopathie Spongiforme Bovine en France et en EuropeSala, Carole-Aline 15 December 2009 (has links) (PDF)
L'encéphalopathie spongiforme bovine (ESB) est une maladie neuro-dégénérative fatale affectant les bovins ; elle est également une zoonose à l'origine du variant de la maladie de Creutzfeldt-Jakob. Identifiée pour la première fois au Royaume-Uni en 1986, cette maladie s'est rapidement étendue en Europe, malgré la mise en place de mesures de contrôle. En raison des particularités épidémiologiques de l'ESB (longue période d'incubation, âge précoce à l'infection et diagnostic post-mortem possible uniquement en fin d'incubation), l'évolution temporelle de l'exposition des bovins à l'ESB ne peut être appréhendée qu'à partir de la modélisation. Nous avons utilisé le modèle Age-Période-Cohorte afin de (ré)évaluer, en relation avec les principales mesures de contrôle, l'évolution de l'épizootie d'ESB à la lumière des données de surveillance les plus récente, en France, et dans six autres pays européens : Allemagne, Irlande, Italie, Pays-Bas, Pologne et Royaume-Uni.
|
437 |
Les mesures synchronisées par GPS pour l'amortissement des oscillations de puissance dans les grands réseaux électriques interconnectésSnyder, Aaron Francis 18 October 1999 (has links) (PDF)
Les grands réseaux électriques sont utilisés de plus en plus près de leur limite de stabilité Ceci est dû aux contraintes économiques, politiques et écologiques obligent tes opérateurs1 à exploiter leurs réseaux à la limite de sécurité. Cependant faire fonctionner un réseau trop près de ses limites crée des oscillations de puissance entre les différentes centrales et parties des réseaux liées par des interconnexions assez faibles (en, terme de nombre de lignes d'interconnexion). Ces oscillations " inter-régions " se manifestent sur les arbres des machines concernées (oscillations électro-mécaniques) et affectent la stabilité du réseau. Un moyen efficace pour remédier à ce problème consiste en une utilisation d'un correcteur dit RFC (Remote Feedback Controller). Ce correcteur utilise comme signaux d'entrée des grandeurs provenant de machines distantes du point d'installation du correcteur Ces signaux sont synchronisés par des satellites GPS (Global Positioning System). Les outils d'analyse et de calcul comme l'optimisation convexe avec contraintes LMI (inégalités matricielles linéaires), peuvent permettre le réglage de ce correcteur. Dans te cadre de cette thèse, le travail réalisé traite du problème de la conception et de l'emplacement d'un correcteur RFC utilisant des signaux d'entrée locaux et lointains synchronisés. par les satellites GPS. Les. techniques de programmation convexe avec des contraintes LMÏ sont utilisées pour le réglage de ce correcteur pour l'amortissement des oscillations inter-régions dans lés réseaux électriques. Les correcteurs réalisés sont ensuite implantés dans deux réseaux tests à 4 à 29 machines. Grâce aux techniques LMI les correcteurs sont robustes dans une grande plage de points de fonctionnement des réseaux tests et sont plus performants que les correcteurs traditionnels. De plus, ces correcteurs ne sont pas perturbés par d'éventuels problèmes dus à l'éloignement des signaux, notamment par un retard du signal ou par sa perte éventuelle.
|
438 |
Méthodologie expérimentale pour la détermination des limites d'emploi des équipements de protection individuelle des sapeurs-pompiers - Application à la lutte contre le feu par des essais sur l'Homme en conditions opérationnellesJacques, Francis 24 June 2008 (has links) (PDF)
L'évolution des règles de construction et la généralisation des matériaux de synthèse dans les aménagements des locaux d'habitation ou professionnels ont modifié les méthodes empiriques de l'attaque du feu en espace clos ou semi-confiné. Aujourd'hui, le soldat du feu doit sans cesse adapter ses moyens et ses méthodes pour rester efficace. Durement touchée par de dramatiques accidents, la Brigade s'est appuyée sur le retour d'expérience pour redéfinir les besoins opérationnels et ainsi doter ses personnels de nouvelles protections. La veste d'intervention en cuir et l'appareil respiratoire isolant (ARI) bi-bouteilles sont remplacés par des tenues d'intervention en textile et un ARI mono bouteille. Estimant cependant que la conformité aux référentiels normatifs ne suffisait par à garantir la sécurité du porte lance lors de l'attaque du feu, la Brigade a réalisé des essais ergonomiques afin de définir les limites d'emploi des nouveaux équipements par comparaison avec celles des anciens. Les bilans comparatifs des caractéristiques intrinsèques de poids et de perméabilité des deux types d'équipement, les durées estimées d'engagement du sapeur-pompier lors de l'attaque du feu obtenues par la simulation numérique et les mesures de l'évolution des comportements physiologiques du porte lance relevées d'abord en laboratoire puis lors de manœuvres d'extinction à la " maison du feu ", dans le cadre de la loi " Huriet ", sont les principales étapes du protocole d'essais. Ces travaux ont montré que les évolutions et les caractéristiques techniques des protections individuelles de nouvelle génération augmentent le niveau général de sécurité du porte-lance, mais l'augmentation de l'autonomie respiratoire offerte par l'ARI mono bouteille (environ 1 heure) pourrait conduire à une fatigue intense, une déshydratation importante ou même un risque de coup de chaleur du porte-lance, dus à sa charge de travail et aux contraintes thermiques liées à l'ambiance d'un feu. Cette étude a permis de limiter à 25 minutes l'engagement du porte-lance à l'attaque du feu en espace clos ou semi-confiné et à proposer une phase de reconditionnement si un deuxième engagement s'avère nécessaire. Par ailleurs, elle a posé le cadre méthodologique de validation d'équipements de protection intégrant les caractéristiques physiologiques du sapeur-pompier et non pas seulement les possibilités techniques offertes par les équipements.
|
439 |
De la sécurité des plateformes Java Card face aux attaques matériellesBarbu, Guillaume 03 September 2012 (has links) (PDF)
Les cartes à puce jouent un rôle crucial dans de nombreuses applications que nous utilisons quotidiennement : paiement par carte bancaire, téléphonie mobile, titres de transport électroniques, etc. C'est dans ce contexte que la technologie Java Card s'est imposée depuis son introduction en 1996, réduisant les coûts de développement et de déploiement d'applications pour cartes à puce et permettant la cohabitation de plusieurs applications au sein d'une même carte. La communauté scientifique a rapidement démontré que la possibilité donnée à un attaquant d'installer des applications sur les cartes représente une menace. Mais dans le même temps, la sécurité des systèmes embarqués a également été un sujet d'étude très productif, révélant que des algorithmes cryptographiques considérés comme sûrs pouvaient être facilement cassés si leurs implémentations ne prenaient pas en compte certaines propriétés physiques des composants électroniques qui les accueillent. En particulier, une partie des attaques publiées repose sur la capacité de l'attaquant à perturber physiquement le composant pendant qu'un calcul est exécuté. Ces attaques par injections de fautes n'ont que très peu été étudiées dans le contexte de la technologie Java Card. Cette thèse étudie et analyse la sécurité des Java Cards contre des attaques combinant injections de fautes et installations d'applications malicieuses. Tout d'abord, nous présentons différents chemins d'attaques combinées et exposons dans quelle mesure ces attaques permettent de casser différents mécanismes sécuritaires de la plateforme. En particulier, notre analyse sécuritaire permet de démontrer que la propriété de sûreté du typage, l'intégrité du flot de contrôle, ainsi que le mécanisme d'isolation des applications peuvent être contournés et exploités par des combinaisons adéquates. Puis, nous présentons différentes approches permettant d'améliorer la résistance de la plateforme Java Card ainsi que des applications qu'elle accueille contre des attaques combinées. Ainsi, nous définissons plusieurs contremesures rendant les attaques exposées ainsi que certaines attaques de l'état de l'art inopérantes, et ce en gardant à l'esprit les fortes contraintes inhérentes au monde des cartes à puce.
|
440 |
Des liquides surfondus aux verres : étude des corrélations à et hors équilibreBrun, Coralie 28 September 2011 (has links) (PDF)
Lorsqu'un liquide est refroidit suffisamment vite, la cristallisation peut être évitée. On a alors un liquide surfondu dont le temps de relaxation augmente fortement quand la température diminue vers la température de transition vitreuse Tg. En-dessous de Tg, le systèmeest dans l'état vitreux. Il vieillit : son temps de relaxation augmente au cours du temps. L'existence d'une longueur de corrélation croissante associée au ralentissement de la dynamique des liquides surfondus (ou des verres) est une des grandes questions toujours ouvertes dans la physique de la transition vitreuse. Des arguments théoriques très généraux ont montré que la mesure de la susceptibilité alternative non linéaire d'ordre trois des liquides surfondus (ou des verres) donnait directement accès à la longueur de corrélation dynamique. Nous avons mis au point une expérience à haute sensibilité permettant d'accéder à deux susceptibilités diélectriques non linéaires d'ordre trois près de Tg. Nos résultats obtenus sur du glycrol surfondu sont quantitativement en très bon accord avec les prédictions théoriques. Ils montrent que la longueur de corrélation dynamique augmente lorsque T diminue vers Tg. En dessous de Tg, l'étude du vieillissement d'une des susceptibilités non linéaires nous a permis de mettre en évidence que la longueur de corrélation dynamique augmente au cours du temps. Ces résultats renforcent le scénario selon lequel la transition vitreuse serait liée à un point critique sous-jacent, ce qui expliquerait l'ubiquité du comportement vitreux dans la nature.
|
Page generated in 0.0377 seconds