• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 473
  • 243
  • 55
  • 1
  • Tagged with
  • 767
  • 321
  • 214
  • 156
  • 106
  • 91
  • 90
  • 89
  • 86
  • 82
  • 72
  • 71
  • 64
  • 63
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Étude des phénomènes d'accélération de particules dans les régions aurorales des magnétosphères

Génot, V. 30 June 1999 (has links) (PDF)
L'accélération de particules est une thématique d'astrophysique générale qui <br />peut être étudiée dans un laboratoire naturel : les régions aurorales de la <br />Terre, et plus globalement, celles des planètes magnétisées. Ces régions sont <br />en effet le siège de nombreux processus qui donnent, entre autres, naissance <br />aux aurores boréales et australes, phénomènes spectaculaires mais dont de <br />nombreux aspects restent incompris. En particulier, de multiples mesures de <br />satellites ont montré l'existence de populations de particules énergétiques <br />précipitant vers la Terre, nécessitant le maintien d'une différence de <br />potentiel électrique élevée que la plupart des modèles proposés sont incapables <br />de reproduire. D'une manière générale, comprendre l'accélération, c'est <br />comprendre une partie du couplage dynamique entre la magnétosphère, où <br />l'énergie est libérée lors des sous-orages, et l'ionosphère où l'énergie est <br />dissipée. L'étude de cette dissipation, qui opère sur de courtes échelles <br />spatiales et temporelles, constitue le thème principal de ce travail. Dans <br />ce but, nous considérons une perturbation électromagnétique, sous forme d'onde <br />d'Alfvén, se propageant le long des lignes de champ magnétique. Son <br />interaction, en région aurorale, avec les cavités de plasma, structures <br />fortement inhomogènes, conduit à l'apparition de champs électriques parallèles <br />susceptibles d'accélérer les particules, ainsi qu'à un transfert d'énergie <br />significatif des ondes vers les électrons. Finalement, cette étude permet de <br />dégager un nouveau scénario de formation des arcs auroraux. Ce travail a été <br />mené de façon analytique avant d'être traité numériquement grâce à un code <br />particulaire.
112

Quelques problèmes aux limites pour des équations de Navier-Stokes compressibles et isentropiques

Novo, Sébastien 19 December 2002 (has links) (PDF)
Dans cette thèse, nous examinons la question d'existence de solutions faibles des équations de Navier-Stokes compressibles et isentropiques. Cette étude a été motivée par les travaux de P.L. Lions qui a apporté une réponse à cette question lorsque la région occupée par le fluide est régulière et sous des hypothèses pas toujours satisfaisantes d'un point de vue physique pour la constante adiabatique. Récemment, E. Feireisl a proposé une méthode permettant d'affaiblir ces hypothèses et l'a appliquée aux équations d'évolution. Dans le cas stationnaire, nous montrons l'existence d'une solution faible renormalisée à énergie bornée lorsque la région d'écoulement est bornée, à régularité Lipschitzienne et nous améliorons dans certains cas les hypothèses sur la constante adiabatique. Nous étudions ensuite les écoulements lorsque la région est non bornée et présente plusieurs sorties à l'infini. Dans cette situation, nous définissons les solutions faibles à énergie bornée en faisant apparaître dans l'inégalité d'énergie la notion de flux à travers chaque sortie ainsi que celle de saut de pression entre les sorties. Nous démontrons l'existence de ces solutions lorsque les sorties sont coniques alors que dans le cas où celles-ci sont cylindriques, nous prouvons qu'en général de telles solutions n'existent pas. Dans le cas non stationnaire, nous démontrons l'existence de solutions faibles pour un problème avec afflux et débit dans une région borée ayant une géométrie particulière. Ces travaux sont inspirés de ceux de E. Feireisl en optimisation de formes dans un écoulement compressible et visqueux.
113

Mesures de temps de fission par la technique d'ombre dans les monocristaux: un accès à la dissipation nucléaire

Basnary, Stéphane 18 October 2002 (has links) (PDF)
Ce travail porte sur la mesure de temps de fission par la technique d'ombre dans les monocristaux et l'interprétation de ces temps en termes de dissipation nucléaire. Nous avons étudié la fission de noyaux voisins du plomb dans la réaction ^(208)Pb+Si à 29 MeV/u à GANIL. La fission est sélectionnée par identification des numéros atomiques Z_(1) et Z_(2) des deux fragments de fission F_(1) et F_(2). La mesure de la distribution angulaire du fragment F_(1) émis avec une vitesse presque parallèle à la direction de l'axe <110>du monocristal de silicium permet d'accéder aux effets d'ombre. Cette distribution présente un creux dans la direction de l'axe <110>dont le taux de remplissage et la forme dépendent directement du temps mis par le noyau pour fissionner. La sélection événement par événement de l'énergie d'excitation s'est faite à l'aide de la réponse rapide d'ORION, un détecteur 4\pi de neutrons, et a permis un suivi des creux de blocage avec l'énergie d'excitation. Les taux de remplissage montrent des évolutions avec l'énergie d'excitation qui dépendent de la valeur de Z_(1)+Z_(2). Pour Z_(1)+Z_(2)\leq 82 et E^(*)<350 MeV, nous observons l'existence de composantes de temps de vie longs (\tau >3\times 10^(-19)s) dans les distributions de temps de fission. Une simulation des creux de blocage (incluant l'effet des émissions de post-scission) pour différents temps de vie \tau a permis d'accéder soit à la forme de la distribution des temps de fission (cas de forte statistique), soit uniquement à la valeur moyenne des temps de fission (faible statistique). Les temps longs mesurés pour le plomb ont été comparés aux temps mesurés dans une expérience similaire pour de la fission de l'uranium. L'ensemble de ces temps a été interprété dans le cadre d'approches statistiques de la fission incluant la dissipation nucléaire. Pour l'uranium, avec E^(*)\leq 250 MeV, et pour le plomb, avec 130\leq E^(*)\leq 270 MeV, les temps de fission ont été trouvés compatibles avec des coefficients de dissipation relativement élevés, \beta \geq 2\times 10^(21)s^(-1).
114

Conception et caractérisation de microgénérateurs piézoélectriques pour microsystèmes autonomes

Defosseux, Maxime 04 October 2011 (has links) (PDF)
Le contexte de cette thèse est la récupération d'énergie afin de rendre des capteurs autonomes. L'objectif de ce travail est de répondre à la problématique du couplage des microgénérateurs piézoélectriques résonants à la source de vibration mécanique. Cela nécessite de travailler à plus basse fréquence et sur des gammes de fréquences plus importantes. Pour travailler à plus basses fréquences, des poutres encastrées libres utilisant l'AlN comme matériau piézoélectrique ont été conçues, fabriquées et caractérisées. La possibilité de récupérer 0.6µW à 214Hz pour un volume de moins de 3mm3 a été prouvée. Comparées à la littérature, de très bonnes figures de mérite ont été démontrées. Pour travailler sur des gammes de fréquences plus importantes, une méthode innovante de raidissement non linéaire de la structure a été proposée et prouvée expérimentalement, avec une adaptation de la fréquence de résonance de plus de 50% en dessous de 500Hz.
115

Étude des mécanismes et modélisation du vieillissement des batteries lithium-ion dans le cadre d'un usage automobile

Badey, Quentin 22 March 2012 (has links) (PDF)
Ce travail vise à modéliser le vieillissement des batteries lithium-ion soumises à des sollicitations de type véhicule (électrique ou hybride). Cette étude a notamment pour but d'optimiser le dimensionnement des packs batteries pour véhicule et les stratégies de gestion électrique. Une approche originale, de type fatigue mécanique, a été sélectionnée car potentiellement capable de modéliser des sollicitations complexes et variées. Cette approche a été développée pour une batterie lithium-ion spécifique graphite/NCA. Il apparaît qu'un simple cumul de dommage n'est pas entièrement pertinent et que deux contributions au vieillissement sont à l'œuvre : l'une en fonction de la charge échangée et l'autre en fonction du temps. De multiples essais de vieillissement ont été effectués et montrent l'influence très importante de la température, du courant et de l'état de charge sur chacune de ces contributions. Ces essais permettent de mettre en équation l'impact de chacun de ces paramètres sur la vitesse de dégradation. Il en découle un modèle informatique de prévision du vieillissement, capable de prendre en compte les périodes d'arrêt comme de roulage. Les résultats, sur des sollicitations peu à moyennement complexes, donnent une très faible erreur au niveau de la prévision. Des analyses post-mortem ont également été effectuées sur les batteries étudiées afin de comprendre les mécanismes en jeu. Plusieurs analyses (physico-chimiques et électrochimiques, par spectroscopie d'impédance) permettent de relier les principaux mécanismes de vieillissement à chacune des deux contributions : une altération de la structure cristalline du matériau actif d'électrode positive pour la contribution fatigue, la passivation du matériau actif d'électrode négative pour la contribution temporelle. Ces analyses apportent une vision plus complète du vieillissement et justifient les hypothèses effectuées lors de la mise en place du modèle. Elles permettent également d'envisager une généralisation du modèle à d'autres technologies de batteries lithium-ion. D'ailleurs, un essai de généralisation à une autre batterie commerciale a permis de vérifier la fiabilité et de détecter les limites de notre approche.
116

Réduction de l'énergie de commande des interrupteurs De type TRIAC appliquée aux appareils ménagers

Benabdelaziz, Ghafour 14 April 2006 (has links) (PDF)
Un des principaux problèmes de notre époque concerne l'énergie électrique. Si l'industrie représente une grande part de la consommation électrique, le secteur domestique n'est pas en reste. Le secteur de l'électroménager se développe dans les pays au rythme de l'augmentation du niveau de vie des habitants. Les appareils ménagers intègrent de plus en plus des fonctions électroniques consommant aussi bien de l'énergie en mode actif qu'en mode " veille ". Dans un souci de diminuer l'énergie consommée par les appareils ménagers, il est important d'exploiter toutes les possibilités que peut fournir l'électronique pour développer de nouveaux produits à faible consommation d'énergie, tout en apportant de la valeur ajoutée en termes de protection et de réduction de coût d'un équipement ménager. Nous nous sommes focalisés sur la recherche de solution pour minimiser l'énergie de commande des interrupteurs AC de type TRIACs ou Thyristors. Nous avons analysé l'ensemble des solutions permettant de commander un TRIAC et de réduire son énergie de contrôle. A partir de ces analyses, nous avons développé une structure bidirectionnelle en courant et en tension de type TRIAC, commandée par l'intermédiaire d'une tension. La deuxième solution mise en œuvre pour réduire la consommation de commande, est d'utiliser deux thyristors sensibles (faible énergie de commande) montés en antiparallèle tout en résolvant le problème de référence avec une solution innovante. La troisième solution a été d'étudier un interrupteur bidirectionnel en courant et en tension dont l'état passant est auto-entretenu (Bistable). Enfin, nous avons quantifié le gain énergétique que l'on pouvait apporter en introduisant de l'électronique pour réduire la consommation électrique dans un réfrigérateur.
117

Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre Auger

Pham, Ngoc Diep 17 December 2010 (has links) (PDF)
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.
118

Stockage massif d'électricité sous forme thermique

Desrues, Tristan 28 June 2011 (has links) (PDF)
Les travaux présentés dans cette thèse concernent un nouveau procédé de stockage d'électricité à échelle industrielle, sous forme de stockage de chaleur sensible. La chaleur est stockée dans deux échangeurs gaz-solide de grande taille appelés régénérateurs qui sont reliés à une paire de turbomachines (compresseur et turbine) formant ainsi un cycle thermodynamique. Selon le sens d'écoulement du fluide caloporteur, ce cycle est de type " pompe à chaleur " en stockage ou " moteur thermique " en déstockage. La modélisation complète du procédé a permis de caractériser son comportement dans un cas industriel, et de mettre en évidence les tendances principales du système. Les performances prévues se rapprochent de celles des installations existantes les plus adaptées au stockage massif d'électricité, telles que le stockage hydraulique gravitaire. Une étude CFD a permis l'optimisation d'une géométrie de canal à obstacles destinée à intensifier l'échange thermique dans les régénérateurs et qui sera testée expérimentalement à la suite de cette thèse. Les préparatifs de cette expérience sont abordés et ses objectifs sont explicités.
119

De la simulation .... .... à la récupération

Chaillout, J.J. 28 November 2007 (has links) (PDF)
Le " Chapitre II : De la simulation...." résume ma connaissance des principales méthodes numériques utilisées en électromagnétisme. Suit ensuite le résumé de mes études les plus représentatives dans le domaine de la simulation numérique en électromagnétisme : une en statique, une en quasi-statique avec couplage faible et une en propagation d'ondes. Souvent seule la méthode appliquée à des cas test est présentée, car leurs niveaux de confidentialité empêchent d'en présenter les résultats quantifiés. Le " Chapitre III :.... À la récuperation " contient tout d'abord un état de l'art de la récupération d'énergie permettant de comparer les performances des différents couples sources/conversion. Pour cela, j'insiste particulièrement sur tous les facteurs à prendre en compte pour choisir le couple optimal dans un environnement donné. Ensuite, on y trouve le résumé des deux thèses et d'un DRT que j'ai co-encadrés dans le domaine. Le " Chapitre IV : perspectives " présente les évolutions de ma carrière scientifique dans les deux axes développés dans ce rapport. Pour les évolutions souhaitables des méthodes numériques de manière générale et plus particulièrement dans mon Département, j'en expose ma vision et comment je prévois d'y contribuer. Pour l'axe énergétique, je présente les travaux prévus afin de conforter nos succès récents ainsi que les collaborations en cours ou amorcées.
120

Architectures intégrées de gestion de l'énergie pour les microsystèmes autonomes

Waltisperger, Guy 17 May 2011 (has links) (PDF)
Augmenter la durée de vie d'une pile, voire s'en passer est aujourd'hui devenu une obligation pour les microsystèmes. En effet, à cette échelle, le remplacement des piles et leur rejet dans l'environnement sont problématiques. La voie préconisée pour répondre à cet enjeu est d'utiliser des sources d'énergie renouvelables (solaire, thermique et mécanique). Pour cela, nous proposons de développer une plateforme de récupération d'énergie multi-sources/multi-charges (MANAGY) capable de s'adapter à son environnement pour en extraire le maximum d'énergie et répondre à des applications diverses. L'architecture est constituée de chemins directs et de chemins indirects où l'énergie provenant des sources est d'abord transférée dans une unité de stockage avant d'être réutilisée par les charges du microsystème. L'utilisation de cette nouvelle architecture permet d'optimiser le transfert d'énergie entre sources et charges et améliore le rendement du système de 33%. Avant de développer une architecture multi-sources, nous avons cherché à améliorer le rendement de la source photovoltaïque (PV) qui, au vu de l'état de l'art, a la densité de puissance la plus élevée. La recherche du rendement maximum de la source PV revient à la recherche du point de puissance maximum (MPPT). Il existe pour chaque condition d'irradiance, de température, et d'énergie extraites un couple tension-courant permettant à la source de fournir un maximum de puissance (MPP). Grâce à l'utilisation de deux chemins de puissance, nous arrivons simultanément à créer une boucle de régulation faible puissance agissant sur le rapport cyclique du système de gestion d'énergie (MPPT) et une boucle de régulation de la tension de sortie agissant sur le transfert de l'énergie. La modélisation du système nous a permis de spécifier ses performances. Pour atteindre les performances requises, des architectures innovantes ont été réalisées qui ont fait l'objet de trois brevets. De plus, des blocs ne sont activés qu'aux instants de changement d'état du système et sont conçus, quand cela a été possible, avec des transistors fonctionnant en mode faible inversion. Toutes ces optimisations permettent au système de fonctionner sur une large plage de variation de l'éclairement (de conditions intérieures supérieures à 500 lux à extérieures) avec un rendement proche de 90%.

Page generated in 0.0685 seconds