• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1357
  • 970
  • 583
  • 5
  • 1
  • Tagged with
  • 2916
  • 2916
  • 2916
  • 2916
  • 1775
  • 1775
  • 302
  • 231
  • 172
  • 157
  • 142
  • 141
  • 140
  • 138
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

A geometrical approach detector for solving the combinatorial optimisation problem: Application to wireless communication systems.

Nafkha, Amor 23 March 2006 (has links) (PDF)
Cette thèse s'intéresse à la résolution du problème classique de décodage d'un mélange linéaire entaché d'un bruit additif gaussien. A partir d'une observation<br />bruitée: y = Hx+b, d'un signal x ∈ {±1}n mélangé linéairement par une matrice H connue, b étant un vecteur de bruit, on cherche le vecteur x minimisant la distance Euclidienne entre y et le vecteur Hx. Ce problème est réputé NP-complet. Il intervient dans un grand nombre de systèmes de télécommunications (CDMA,MIMO, MC-CDMA, etc.). Nous proposons dans cette thèse un algorithme de résolution quasi optimal de ce problème et bien adapté à une implémentation<br />matérielle.<br />Notre démarche s'appuie sur l'utilisation des méthodes classiques de recherche opérationnelle : trouver des points initiaux répartis sur l'espace des solutions<br />possibles et potentiellement proches de la solution optimale (diversification) et effectuer une recherche locale au voisinage des ces points (intensification). Dans<br />ce travail, la diversification est basée sur une approche géométrique utilisant les axes dominants de concentration du bruit (vecteurs singuliers associés aux<br />valeurs singulires minimales de la matrice H). Les performances en terme de taux d'erreur par bit de la méthode proposée sont proches de l'optimum tout en<br />gardant une complexité constante et un degré de parallélisme important (même pour des matrices H de taille très importantes, de l'ordre de 100). Nous avons<br />étendu cette méthode à la constellation MAQ-16 d'une part, et à la génération d'une décision souple d'autre part.<br />Nous avons étudié l'algorithme proposé du point de vue implémentation matérielle.<br />La sensibilité à l'utilisation de la précision finie et des normes sous optimales est décrite. Une étude de complexité de l'algorithme est présentée ainsi que les effets d'une mauvaise estimation de la matrice H.<br />L'algorithme proposé présente d'une part une nouvelle alternative pour le 11 décodage quasi optimal du mélange linéaire bruité et d'autre part un important<br />degré de parallélisme permettant une implémentation matérielle efficace et rapide.
252

Développement d'un outil logiciel industriel d'aide à la conception des oscillateurs à quartz

Chirouf, Farid 20 December 2005 (has links) (PDF)
La conception des oscillateurs à quartz a été longtemps basée sur des méthodes empiriques ou des techniques de modélisation approximatives ou inappropriées. Bien que ces méthodes permettent de réaliser des oscillateurs stables, leur procédure de conception reste lourde et fastidieuse et le comportement du circuit oscillateur n'est pas toujours déterminé avec une précision optimale. Le logiciel ADOQ (Analyse Dipolaire des Oscillateurs à Quartz) a été développé pour remédier aux limitations de ces méthodes. Cet outil fondé sur l'analyse dipolaire consiste à modéliser un oscillateur à quartz en tenant compte des non linéarités de la partie amplificateur séparément de celles du résonateur. Grâce à cette séparation, on s'affranchit du temps de calcul prohibitif imposé par le coefficient de qualité très élevé du résonateur. Le comportement non linéaire de l'amplificateur est déterminé en boucle ouverte par une analyse temporelle réalisée à l'aide d'un simulateur électrique de type SPICE. Les résultats fournis par ce simulateur permettent de déterminer avec précision l'impédance non linaire équivalente de l'amplificateur, c'est-à-dire son impédance en fonction de la fréquence et de l'amplitude. L'analyse consiste ensuite à rechercher de manière itérative la solution en boucle fermée à partir d'une série d'analyses dipolaires en boucle ouverte et de définir avec précision les conditions de fonctionnement de l'oscillateur : fréquence, amplitude, puissance d'excitation du résonateur en régime permanent, régime transitoire et spectres de bruit d'amplitude et de phase. ADOQ permet également de déterminer la sensibilité des caractéristiques de l'oscillateur en fonction des variations de la valeur des composants ou d'autres paramètres tels que la tension d'alimentation ou la température. La méthode dipolaire nécessite de calculer l'impédance non linaire de l'amplificateur en fonction de l'amplitude de la source harmonique en régime permanent. Bien que la séparation du résonateur et de l'amplificateur permette un gain de temps appréciable, l'utilisation d'un simulateur temporel tel que SPICE nécessite tout de même d'attendre que le régime permanent soit atteint ce qui reste pénalisant pour la méthode. D'autres méthodes d'analyses utilisées dans certains simulateurs industriels permettent d'obtenir le régime permanent d'un circuit non linaire beaucoup plus rapidement : équilibrage harmonique (harmonic—balance) ou méthode balistique (shooting—method). D'autre part les modèles des composants utilisés par SPICE sont assujettis aux bibliothèques de composants fournies par le concepteur de l'outil ou le fabricant des composants. La plus grande partie du travail effectué dans cette thèse consiste à exploiter les fonctionnalités de l'outil de conception Cadence pour étendre les performances en termes de calculs (SpectreRF) et les possibilités en termes de modèles de composants (Dracula) pour optimiser le logiciel ADOQ. Des tests et des simulations ont été réalisés et les résultats ont permis de mettre en évidence les améliorations acquises ainsi que leurs limites.
253

Caractérisation des décharges glissantes se propageant aux interfaces liquide/solide sous différentes formes de tension – Relation entre propriétés des matériaux et dimension fractale.

Kebbabi, Lazhar 27 March 2006 (has links) (PDF)
Ce travail porte sur la caractérisation des décharges glissantes se propageant aux interfaces liquide/solide, sous différentes formes de tension (impulsionnelle, continue et alternative) en géométrie pointe-plan. Il est montré que la nature et l'épaisseur du solide isolant, la forme de la tension, la polarité des électrodes ainsi que la pression, jouent un rôle important dans la génération, la propagation et la forme générale des décharges glissantes. La longueur finale des décharges Lf augmente linéairement avec la tension appliquée; Lf diminue lorsque l'épaisseur augmente. Pour un même niveau de tension, Lf est nettement plus élevé en alternatif qu'en impulsionnel ou en continue, et par conséquent les tensions de contournement sont plus faibles. Pour une tension donnée, Lf augmente avec la permittivité de l'isolant solide. Les décharges générées sous tension alternative et sous tension continue, se distinguent par un aspect non-radial, contrairement à celles observées sous tension impulsionnelle. Les courants associés aux décharges glissantes sont globalement similaires à ceux observés dans le volume du liquide. Il a été également mis en évidence l'existence d'une décharge secondaire de signe opposé à la tension appliquée, résultat de l'accumulation de charges d'espace à la surface de l'isolant solide. Sous tension continue, les tensions de génération des décharges dépendent fortement de la nature du solide isolant; elles sont généralement beaucoup plus élevées que celles enregistrées sous tension impulsionnelle et alternative. Avec certains matériaux solides, comme le verre, le Polycarbonate, Polyéthylène et le Polypropylène, nous n'avons pu observer de décharges glissantes. Un modèle de calcul de la charge totale associée à la décharge a été établi. Une relation entre la nature du matériau solide et son épaisseur, et la dimension fractale D des décharges se propageant sur sa surface a été proposée. D augmente lorsque l'épaisseur du solide diminue et/ou sa permittivité diélectrique augmente indiquant ainsi l'implication des phénomènes capacitifs sur le mode de propagation des décharges glissantes.
254

Exploration de l'Espace de Conception des Architectures Reconfigurables

Bossuet, Lilian 10 September 2004 (has links) (PDF)
Ce mémoire présente une méthode d'exploration de l'espace architectural de conception afin de converger rapidement vers la définition d'une architecture reconfigurable efficace pour une application donnée.<br /><br />Cette méthode intervient très tôt dans le flot de conception, ainsi dès les premières phases de spécification de l'application, les concepteurs peuvent définir une architecture adaptée pour leurs applications. La méthode d'exploration s'appuie principalement sur l'estimation de la répartition des communications dans l'architecture ainsi que sur le taux d'utilisation des ressources de l'architecture. Ces métriques permettent en effet d'orienter le processus d'exploration afin de minimiser la consommation de puissance de l'architecture puisque cette dernière est directement corrélée à ces deux métriques.<br /><br />Les résultats obtenus montrent que notre méthode permet de converger rapidement vers une architecture efficace en ce qui concerne la consommation de puissance.
255

Application de la méthode de compression à l'analyse électromagnétique globale des effets de mise en boîtier d'amplificateurs MMIC

Lesage, Jean-Marc 21 October 2005 (has links) (PDF)
Au sein du département RFS (Radio Frequency Solutions) de Thales Systèmes Aéroportés sont conçus des modules d'émission-réception utilisés dans des applications radar et guerre électronique. Les fonctions hyperfréquences élémentaires (amplification, atténuation, mélange,...), réalisées en technologie MMIC, sont mises en boîtier et interconnectées. Ceci constitue l'architecture du module et doit assurer une protection (vis-à-vis de l'atmosphère et de la CEM) ainsi qu'une souplesse de montage mécanique et au final une réduction des coûts de fabrication. L'architecture des modules devient ainsi la clé de voûte de systèmes complexes tels que les antennes à balayage électronique développée au sein de ce département. <br /><br />Les outils de simulation doivent évoluer dans le but de prévenir les effets parasites, dus aux boîtiers et interconnexions, susceptibles d'apparaître. Les logiciels de simulation EM sont recommandés de par les géométries complexes des architectures des modules. Malheureusement, les simulateurs EM sont limités par leur incapacité à traiter simultanément les boîtiers et circuits actifs qu'ils protègent. C'est pour cette raison qu'un outil de simulation EM global adapté à ce type de simulation et aux besoins industriels a été proposé, validé et exploité au cours de cette thèse. <br /><br />La méthode choisie est une implémentation de l'approche de compression, qui associe deux logiciels commerciaux de façon séquentielle. Ceci est permis par une procédure de calibrage numérique des ports internes qui fait l'interface entre les environnements de simulation EM et circuit. Cette approche modulable est rapide car elle ne requiert qu'une seule simulation EM pour de nombreuses simulations. La modification des circuits actifs ou des études de dispersion sont aisément envisageables. Cette approche est basée sur l'hypothèse de localisation. Une validation approfondie de cette hypothèse permet de conclure à la nécessité d'indépendance intrinsèque des éléments localisés vis-à-vis de l'environnement pour un bon fonctionnement de l'approche de compression. Cette hypothèse est confirmée grâce à l'application de l'approche de compression à des niveaux d'échelle différents (à l'échelle du boîtier ou du MMIC). <br /><br />L'approche de compression proposée a été validée sur des structures complexes de boîtiers intégrant des amplificateurs MMIC, en régime linéaire ainsi que non-linéaire. L'influence des transitions, éléments d'interconnexion et du couplage EM, est parfaitement prise en compte par cet outil de simulation. Des règles de conception sur les dimensions des boîtiers (hauteur, largeur, positionnement des puces, ...), des transitions et interconnexions sont déduites des simulations.
256

Etude d'une méthode de sondage de la vapeur d'eau dans la troposphère appliquée à la correction de mesures GPS pour l'altimétrie de haute précision

Tarniewicz, Jérôme 25 March 2005 (has links) (PDF)
Réservé lors de sa mise en service aux applications militaires, le système GPS (Global Positioning System) est désormais utilisé par la communauté scientifique civile pour des applications de positionnement de précision; dans un souci d'amélioration de la précision du positionnement vertical par GPS, une action de recherche est menée conjointement depuis 1999 entre l'Institut Géographique National (IGN) et le Service d'Aéronomie (SA) du CNRS. Cette amélioration concerne la précision de la détermination du délai troposphérique (principalement dû à la présence de vapeur d'eau dont la distribution spatiale est très variable) qui limite actuellement la précision de la restitution de la composante verticale par GPS. Cette thèse porte donc sur l'étude d'une méthode de correction des mesures GPS de la propagation troposphérique et la validation du concept proposé à partir de mesures atmosphériques et de simulations numériques.<br /><br />Dans un premier temps, le système GPS est présenté dans son utilisation géodésique classique; un bilan d'erreur est donné, en insistant particulièrement sur la modélisation du délai troposphérique qui intervient dans les observations GPS. L'erreur de positionnement induite par des hétérogénéités atmosphériques est estimée par simulation simplifiée de la chaîne de traitement GPS d'une ligne de base en double différence. Il en ressort qu'une correction externe des mesures GPS est nécessaire, et que les méthodes de traitement GPS actuelles (correction a priori et estimation de paramètres troposphériques) ne sont pas adaptées à des situations présentant de fortes hétérogénéités dans la distribution de vapeur d'eau atmosphérique.<br /><br />Dans un second temps, l'étude se focalise sur le mode de la correction des mesures GPS à utiliser. Après une rapide revue des différentes techniques de sondage de la vapeur d'eau troposphérique, les précisions des délais troposphériques humides obtenus à partir d'une mesure résolue en distance sont comparées, par simulation, à celles obtenues à partir d'une mesure intégrée; de ces simulations, il est conclu qu'une mesure résolue (rapport de mélange ou concentration absolue), fournie par un lidar Raman à balayage, permet d'obtenir la précision sub-millimétrique visée sur le délai troposphérique humide.<br /><br />Le développement instrumental d'un lidar Raman vapeur d'eau à balayage est ensuite abordé. Le principe de la mesure de vapeur d'eau par lidar Raman est présenté, et compte-tenu des configurations instrumentales existantes, des contraintes d'encombrement imposées par la mobilité du système et des performances obtenues par un simulateur développé pour l'occasion, les caractéristiques d'un nouveau système lidar Raman sont présentées. Les premiers résultats expérimentaux obtenus en visée zénithale lors de la campagne ESCOMPTE en 2001 et d'une campagne de mesure à Toulouse au CNRM en 2002 sont présentés, validant ainsi le simulateur instrumental du lidar Raman développé pour le sondage de la vapeur d'eau atmosphérique.<br /><br />Dans une dernière partie, le bénéfice d'une correction externe des mesures GPS par lidar Raman à balayage est démontré par la simulation numérique. Les observations GPS et les corrections lidar correspondantes sont calculées à partir d'une simulation de l'évolution de la distribution spatiale de la vapeur d'eau effectuée à méso-échelle par le modèle MM5. La simulation concerne une journée d'étude de la campagne IHOP (International H2O Project) pour un cas où la couche limite est très hétérogène. La stratégie d'observation est discutée en fonction de l'erreur obtenue. Il est montré que les erreurs de positionnement sub-millimétriques (environ 10 fois plus faibles que celles obtenues lors d'un traitement GPS classique) peuvent être obtenues sur une période de 24 heures, avec un balayage séquentiel et homogène de la constellation de satellites GPS (5 minutes d'observation par satellite pour des élévations supérieures à 5°).
257

Contribution à la modélisation d'un arc électrique dans les appareils de coupure basse tension

Baudoin, Fulbert 27 July 2004 (has links) (PDF)
A partir d'une demarche progressive, ce travail est une contribution a la modelisation<br />des arcs electriques dans les appareils de coupure basse tension : Ie disjoncteur. Ie contacteur,<br />1'interrupteur et Ie sectionneur. La modelisation 2D d'un arc libre dans 1'argon a permis de<br />valider Ie code de calcul et d'etudier 1'influence des parametres geometriques, physiques et<br />numeriques sur les grandeurs caracteristiques du plasma thermique. A partir de cette etude,<br />une modelisation 3D en regime stationnaire d'un arc de electrique dans Pair a 50 A est<br />realisee pour chaque dispositif de coupure. L'angle d'ouverture des contacts ainsi que la<br />presence des amenees de courant sont pris en consideration. Deux fbrmes particulieres sont<br />analysees : une forme en « U » dans Ie cas du disjoncteur et une forme en « S » dans Ie cas du<br />contacteur, de 1'interrupteur et du sectionneur. Les resultats mettent en exergue 1'influence<br />d'un champ magnetique externe sur Ie galbe, la forme de 1'arc electrique.
258

Etude des phénomènes électromagnétiques dans les condensateurs à films métallisés - nouvelle génération de condensateurs

Joubert, Charles 05 December 1996 (has links) (PDF)
Le travail présenté porte sur l'étude des phénomènes physiques prenant place dans les condensateurs bobinés à films secs métallisés. En particulier, les propriétés macroscopiques des bobinages (admittance, impédance) sont étudiées et permettent de calculer la répartition des champs électrique et magnétique et des courants dans une large gamme de fréquences. Il apparaît ainsi que les courants, homogènes à basse fréquence, se concentrent en certains points des condensateurs quand la fréquence augmente, ce qui peut conduire à des échauffements et à des défaillances.<br />Par ailleurs, les modèles élaborés ont permis de mettre en évidence l'influence des paramètres géométriques sur les performances des condensateurs, en particulier en haute fréquence. Ainsi, de nouvelles structures - plates et annulaires - permettent de minimiser les impédances propres des bobinages. L'efficacité des condensateurs de découplage peut aussi être améliorée grâce à des connexions appropriées et l'utilisation de conducteurs symétriques réduit les échauffements.
259

POTENTIELS NUTRITIONNEL ET TECHNOLOGIQUE DES TUBERCULES DURCIS DE L'IGNAME Dioscorea dumetorum (Kunth) pax : ETUDE DU DURCISSEMENT POST -RECOLTE ET DES CONDITIONS DE TRANSFORMATION DES TUBERCULES DURCIS EN FARINE

Medoua Nama, Gabriel 03 August 2005 (has links) (PDF)
Les tubercules de Dioscorea dumetorum (Kunth) pax sont une importante source de<br />nutriments et d'énergie. Stockés dans les conditions qui prévalent en milieu tropical, ils<br />subissent un phénomène de durcissement caractérisé par la perte de l'aptitude à ramollir pendant la cuisson. Ce travail a été réalisé dans le but de déterminer les mécanismes de durcissement post-récolte des tubercules, d'évaluer les modifications physico-chimiques au cours du stockage et de rechercher les conditions de pré-traitement des tubercules durcis en vue de leur transformation en une farine utilisable dans des formulations alimentaires. Les résultats obtenus ont montré que le durcissement des tubercules de D. dumetorum s'effectue suivant un mécanisme multiple qui inclut l'hydrolyse du phytate comme contributeur minimal de la difficulté-à-cuire et la perte en polyphénols totaux via le mécanisme de lignification comme contributeur majoritaire. Ce durcissement a été dissocié en deux composantes, réversible et irréversible, qui ont été respectivement associées au phytate et aux polyphénols totaux. La modélisation du phénomène de durcissement a montré que la vitesse de la réaction du durcissement irréversible est plus dépendante de la température et de l'humidité relative que celle du durcissement réversible. Le stockage des tubercules de D. dumetorum dans les conditions qui prévalent en milieu tropical (19-28°C, HR 60-85%), a entraîné une diminution significative (P ´ 0,05) des facteurs<br />antinutritionnels (polyphénols totaux, tannins, phytate, oxalates, inhibiteurs de trypsine et d'Α-amylase) et une augmentation des propriétés fonctionnelles des farines (capacité<br />d'absorption d'eau, indice de solubilité à l'eau, capacité d'absorption d'huile, indice<br />hydrophile-lipophile, plus petite concentration gélifiante, capacité de gonflement de la<br />pâte), exception faite sur la densité de la pâte. La variation des différents paramètres<br />évalués s'est effectué en deux principales phases, entre les jours 2 et 21 puis entre les jours 28 et 56. La germination des tubercules ayant été enregistrée après 28 jours de stockage, il a été suggéré que le durcissement post-récolte et la germination influencent les paramètres physico-chimiques des tubercules. Si le trempage préalable des tubercules durcis de D. dumetorum dans des solutions de NaCl ou de kanwa a permis une augmentation significative du taux de ramollissement du tubercule pendant la cuisson, il ne permet pas de surmonter totalement le durcissement des tubercules. Le pré-traitement au kanwa a entraîné une variation significative (P ´ 0,05) des propriétés fonctionnelles des farines de D. dumetorum ainsi qu'une amélioration de la qualité des protéines et de la biodisponibilité in vitro des sucres. Le rouissage naturel des tubercules durcis comme méthode de prétraitement quant à lui a permis d'obtenir un ramollissement total des tubercules après 7 jours de fermentation naturelle et une réduction significative (P ´ 0,05) des facteurs antinutritionnels. Seule la lignine n'a pas été affectée par la fermentation des tubercules. Les propriétés fonctionnelles des farines ont été significativement affectées par la fermentation des tubercules. De plus, la fermentation a entraîné une augmentation significative (P ´ 0,05) de la teneur en protéine, de la qualité des protéines et de la biodisponibilité in vitro des sucres. L'étude de la gélatinisation a montré que la température de gélatinisation des farines de D. dumetorum est comprise entre 70 et 75°C. La gélatinisation des tranches d'igname suit une cinétique d'ordre 1 de la forme générale ln(1 - Α) = kG.t. La constante de vitesse de gélatinisation (kG) diminue avec la baisse de la température de cuisson et l'augmentation du temps de stockage des tubercules. La fermentation et le traitement au kanwa ont présenté une influence significative sur la vitesse de gélatinisation des tubercules durcis de D. dumetorum. La substitution partielle de la farine de blé par les farines d'ignames-durcies ont montré sur la base des analyses multivariés (ACH et ACP) que le blé et les farines composées blé/igname-durcie traitée au kanwa à tous les taux de substitution utilisé dans cette étude, constituent le même groupe. Les farines composées blé/igname-durcie pourraient être utilisées comme ingrédient de base dans la formulation des bouillies infantiles.
260

Station automatique de mesures pour l'étalonnage en vol des capteurs satellitaires : application à SPOT/HRV sur le site de La Crau

Six, Catherine 25 July 2002 (has links) (PDF)
L'étalonnage de SPOT-HRV est réalisé depuis plus de dix ans sur le site de La Crau. Lors de campagnes de mesures, plusieurs équipes caractérisent l'atmosphère et la réflectance de surface afin de prédire le signal d'entrée de HRV. Notre objectif est de réaliser cet étalonnage à partir de mesures automatiques en continu.<br /><br />La théorie du transfert radiatif est utilisée pour prédire le signal satellitaire et nous en rappelons les principes. Nous présentons ensuite les satellites SPOT, en particulier SPOT4. Enfin, nous exposons les méthodes employées pour l'étalonnage absolu et relatif des capteurs.<br /><br />Notre instrumentation consiste en un radiomètre entièrement étalonné in situ. L'étalonnage en éclairement est basé sur la méthode de Bouguer. En luminance, il est effectué aux courtes longueurs d'onde sur la diffusion Rayleigh. Enfin, l'étalonnage est propagé aux<br />grandes longueurs d'onde grâce à une méthode originale. Nous présentons un bilan de l'étalonnage in situ de la station.<br /><br />Les effets atmosphériques et la réflectance de surface sont évalués à partir des mesures de la station. Les aérosols sont décrits par leur épaisseur optique et leur granulométrie, représentée par un modèle de Junge. La réflectance bidirectionnelle est ramenée dans la<br />géométrie de visée du satellite grâce à une modélisation des effets directionnels.<br /><br />La luminance TOA est alors estimée. La transmission gazeuse est calculée par le code 6S. Le code des Ordres Successifs de Diffusion est utilisé pour calculer le signal TOA. Nous avons évalué quatre jeux de coefficients pour SPOT4 et un pour SPOT2. La comparaison avec les coefficients du CNES montre un écart plus important que l'incertitude estimée de notre méthode. L'écart reste comparable à ceux obtenus auparavant sur La Crau. Il ne semble pas dû à un biais systématique et pourra être réduit par une collecte conséquente. Maintenant opérationnelle, la station permettra cette collecte, améliorant ainsi l'estimation des coefficients de SPOT.

Page generated in 0.1107 seconds