• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 507
  • 243
  • 120
  • 67
  • 23
  • 12
  • 10
  • 9
  • 8
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 1129
  • 151
  • 100
  • 98
  • 95
  • 94
  • 86
  • 74
  • 73
  • 67
  • 66
  • 55
  • 53
  • 53
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Progiciel INDA pour l'analyse des données : INtelligent Data Analysis

Belaid, Djamel 28 October 1985 (has links) (PDF)
On présente dans ce travail un logiciel interactif sur micro-ordinateur, des méthodes factorielles d'Analyse de Données. Ce logiciel est composé des modules: INDA-CM: module d'aide au choix à l'utilisateur d'une des méthodes proposées. INDA-AD: module d'acquisition des données nécessaires à l'exécution de la méthode choisie. INDA-EM: module d'exécution des méthodes proposées. INDA-GR: module de visualisation à l'écran graphique d'un nuage de points. INDA: programme de gestion des modules précités
392

Analyse des mesures de l'expérience satellitaire SAGE III : algorithme d'inversion et validation des résultats. Comparaison des produits des instruments de la mission spatiale ACE avec des mesures corrélatives à distance et in situ.

Tétard, Cédric 23 May 2003 (has links) (PDF)
Le dernier rapport du GIEC (2007) souligne que la compréhension du changement climatique en cours est encore incomplète. Le rôle de la stratosphère est notamment mal connu. C'est pourquoi il est important d'étudier sa composition et les processus physicochimiques s'y déroulant. Les mesures d'occultation solaire telles celles de l'instrument satellitaire SAGE III et les mesures in situ sont particulièrement bien adaptées à l'étude de la stratosphère. J'ai étudié dans cette thèse la cohérence entre les mesures existantes.<br />Mon travail a consisté à inverser les transmissions atmosphériques de SAGE III pour obtenir les profils verticaux des concentrations en ozone et en dioxyde d'azote ainsi que des coefficients d'extinction des aérosols dans neuf canaux entre 385 et 1545 nm. Dans les canaux situés autour de 450 nm, un lissage vertical a été effectué sur les transmissions tangentes pour pallier un défaut de neutralité spectrale de l'atténuateur. Dans le canal à 1545 nm, la prise en compte de l'absorption du CO2 a été effectuée avec le modèle MODTRAN 5. Les incertitudes ont été évaluées par une méthode de Monte Carlo. Nous avons alors validé nos produits à l'aide des produits SAGE III officiels (NASA), ceux d'un troisième algorithme d´eveloppé par une équipe de Saint Petersbourg et à l'aide de mesures coïncidentes des instruments SAGE II et POAM III. Ces comparaisons montrent que les produits LOA sont de bonne qualité. Cependant, une étude effectuée à l'aide des mesures in situ de l'instrument sous ballon SPIRALE aux abords du vortex polaire a montré un bon accord pour O3 et un désaccord pour NO2. Ce désaccord montre que la méthode d'occultation solaire pour la mesure d'espèces réactives (tel NO2) dans des conditions dynamiques complexes n'est pas bien adaptée. De plus, les variations diurnes de NO2 rendent les comparaisons directes entre mesures à distance et in situ difficiles.<br />Une étude spécifique sur les aérosols des feux de forêt de l'ouest du Canada (août 2003) a été menée avec les produits SAGE III officiels. Des intrusions d'aérosols issus des feux de forêt dans la basse stratosphère par pyroconvection sont suspectées d'être à l'origine des pics d'extinction observés par SAGE III. Nous avons déduit des mesures SAGE III les propriétés microphysiques de ces aérosols et montré que ces coefficients d'extinction anormalement élevés étaient dus à une augmentation du nombre de particules dans la basse stratosphère. Cependant, la nature chimique de ces aérosols n'a pu être déterminée car les mesures d'extinction ne sont pas assez sensibles à l'indice de réfraction.<br />Depuis la fin des missions SAGE II, SAGE III et POAM III, les instruments satellitaires de la mission ACE-SCISAT sont les seuls instruments d'occultation solaire (hormis SOFIE) fournissant des informations sur la stratosphère. Nous nous sommes ainsi intéressés à la validation de leurs mesures à l'aide des données de SAGE II, SAGE III et SPIRALE. Ce travail s'inscrit dans le cadre de la campagne de validation internationale. Nous avons montré que les coefficients d'extinction des aérosols déduits des mesures de IMAGER sont en désaccord avec ceux de SAGE II et SAGE III et que les rapports de mélange en ozone et en dioxyde d'azote de FTS et de MAESTRO sont en bon accord avec les produits SAGE III. Cependant, nous obtenons également un désaccord concernant NO2 en comparaison avec SPIRALE bien que les autres espèces (CH4, N2O, HNO3, O3, HCl) déduites de FTS ainsi que l'ozone MAESTRO sont en bon accord avec les données SPIRALE.
393

Détection de courts segments inversés dans les génomes - méthodes et applications

Robelin, David 27 September 2005 (has links) (PDF)
L'inversion de courts segments (moins de 1000 bases) est soupçonnée être un mécanisme majeur de l'évolution des génomes. Deux méthodes de détection ab initio de tels segments sont présentées. La séquence est modélisée par une chaîne de Markov $X^+$. La séquence inverse-complémentaire est alors également modélisée par une chaîne de Markov note $X^-$. Le premier chapitre présente de façon didactique les modèles de Markov utilisés en analyse de séquences génomiques. Une généralisation au cas d'un ordre supérieur à 1 d'un résultat sur la vitesse de convergence vers la distribution stationnaire est également établie. Le deuxième chapitre est consacré à l'étude du score local : $H_(n)=\max_(1\leq i \leq j \leq n)(Y_i+...+Y_j)$, pour une séquence $(Y_1,...,Y_n) \in \R^n$. La loi jointe asymptotique des $r$ plus grandes valeurs de score local est établie à l'aide de la théorie des valeurs extrêmes. Enfin, une démarche de test multiple permettant de choisir $r$ est proposée. Le troisième chapitre propose une statistique de détection fondée sur un rapport de vraisemblance (modèle $X^+$ contre modèle $X^-$) lorsque la longueur du segment retourné est connue. Une approche de type ``fenêtre glissante'' est ensuite appliquée. Une approximation connue de la loi du maximum de ce type de statistique est utilisée pour associer un degré de signification aux segments détectés. Dans le quatrième chapitre, le cas de recherche de segments de longueurs inconnues est traité à l'aide d'une méthode de type score local. Le cinquième chapitre présente l'application de ces méthodes à quelques génomes viraux. Un logiciel développé pour traiter cette problématique est également présenté.
394

Inversion neuro-variationnelle des images de la couleur de l'ocean - Restitution des proprietes optiques des aerosols et de la concentration en chlorophylle-a pour les eaux du cas I

Jamet, Cedric 10 January 2004 (has links) (PDF)
Les instruments optiques a bord de satellite mesurent le rayonnement solaire reflechi par la mer et l'atmosphere. Ce rayonnement est fortement contamine par son interaction avec l'atmosphere dans les longueurs d'ondes qui interessent la couleur de l'ocean. L'elimination prealable de cette contanimation pour observer la veritable couleur de l'eau est appele correction atmospherique. Ce travail se focalise sur l'algorithme de correction atmospherique du capteur SeaWiFS. Il montre l'apport des methodes mathematiques que sont les reseaux de neurones artificiels et l'inversion variationnelle pour les algorithmes de correction atmospherique. Une premiere inversion par reseaux de neurones dans le proche infra-rouge permet de restituer les proprietes optiques des aerosols. Ces restitutions sont comparees, sur la mer Mediterranee, avec les produits SeaWiFS et validees avec des mesures au sol, montrant une meilleure estimation du coefficient d'Angstrom et une estimation egale de l'epaisseur optique. La deuxieme inversion se fait sur tout le spectre visible et proche infra-rouge en combinant reseaux de neurones et inversion variationnelle. Les cartes de chlorophylle-a sont comparees, sur la meme zone, a des donnees in-situ montrant une meilleure estimation des faibles valeurs que l'algorithme SeaWIFS.
395

Génération de résidus directionnels pour le diagnostic des systèmes linéaires stochastiques et la commande

Jamouli, Hicham 19 December 2003 (has links) (PDF)
Ce travail porte sur le diagnostic et la commande tolérante aux défauts des systèmes linéaires stochastiques. Il se décompose en deux parties: - la première phase du travail présenté porte sur la conception d'un filtre de détection robuste. Il a été défini afin que le résidu directionnel qui en résulte soit le plus insensible possible aux incertitudes de modèle et aux incertitudes stochastiques. L'approche développée diffère des approches classiques existant dans la littérature car le filtre de détection est synthétisé sur la base d'une inversion du système. Une fois paramétrées toutes les inverses à gauche du système (pour remonter à la source des défauts) grâce à l'étude de la structure des zéros infinis du système, les degrés de liberté restant à disposition sont utilisés pour minimiser la sensibilité du résidu généré aux différentes perturbations stochastiques. Cette approche a permis de définir le filtrage d'état optimal d'une partie réduite du vecteur d'état du système de dimension maximale. En d'autres termes, l'effet des défauts sur l'erreur d'estimation d'état du filtre a été réduite à son maximum sous la contrainte que suffisamment d'informations restent disponibles pour les détecter et les localiser dans l'espace de sortie. - la deuxième partie concerne l'intégration du filtre de détection dans une commande tolérante aux défauts. La structure deadbeat de l'espace de détection du filtre est à la base de la conception de deux lois de commande tolérantes aux défauts à réactivité maximale. La première est basée sur le filtre de détection à état augmenté et sur le principe de séparation bien connu dans le cadre LQG. La loi de commande a été obtenue par un rejet des modes non contrôlables. Cette approche a débouché sur une commande de type LTR (Left Transfer Recovery) obtenue par le calcul explicite de l'inverse à gauche du système. Tout comme la première approche, la deuxième loi de commande se fonde sur le filtre de détection mais se caractérise par la définition optimale d'une loi de commande additive. Son application à un benchmark défini dans le cadre du projet IFATIS (Intelligent Fault Tolerant Control in Integrated Systems) a permis de mettre en avant la forte réactivité de la commande face à l'apparition brutale d'un ou de plusieurs défauts sur le système. Il s'avère en effet que la commande mise en oeuvre permet d'annuler plus rapidement les effets néfastes engendrés par les défauts en comparaison d'une commande de type PI standard toujours plus lente à réagir.
396

Caractérisation des fonds marins par la méthode des sources images

Pinson, Samuel 21 November 2011 (has links) (PDF)
Le travail de thèse présenté dans ce mémoire a permis le développement d'une nouvelle méthode de caractérisation des fonds marins : la méthode des sources images. Elle repose sur une modélisation physique de la réflexion des ondes émises par une source omnidirectionnelle sur un milieu stratifié sous l'approximation de Born. Ainsi, chaque réflexion de l'onde sur une interface du milieu stratifié peut être représentée par une source image dont la position spatiale est directement liée à la vitesse des ondes acoustiques dans les strates et aux épaisseurs de celles-ci. La détection des sources images par la migration des signaux enregistrés sur une antenne et l'utilisation d'une fonction de semblance permet alors d'obtenir le profil de célérité d'une structure sédimentaire. La méthode ne nécessite donc l'enregistrement des échos réfléchis sur le fond marin par une antenne d'hydrophones que pour un seul tir de la source. Les principaux avantages de la méthode sont son automatisation, son faible coût de calcul (donc sa rapidité), sa bonne robustesse par rapport au bruit et l'aspect local de l'inversion. Les résultats obtenus avec des données réelles sont très satisfaisants tant avec l'utilisation d'une antenne verticale qu'avec une antenne horizontale. En particulier, l'utilisation de l'antenne horizontale permet d'effectuer des inversions locales répétées le long d'une radiale et ainsi d'obtenir une inversion d'un système stratifié dont la structure varie avec la distance.
397

Étude d'objets combinatoires - Applications à la bio-informatique

Vernay, Rémi 29 June 2011 (has links) (PDF)
Cette thèse porte sur des classes d'objets combinatoires, qui modélisent des données en bio-informatique. Nous étudions notamment deux méthodes de mutation des gènes à l'intérieur du génome : la duplication et l'inversion. Nous étudions d'une part le problème de la duplication-miroir complète avec perte aléatoire en termes de permutations à motifs exclus. Nous démontrons que la classe de permutations obtenue avec cette méthode après p duplications à partir de l'identité est la classe de permutations qui évite les permutations alternées de longueur 2^p+1. Nous énumérons également le nombre de duplications nécessaires et suffisantes pour obtenir une permutation quelconque de longueur n à partir de l'identité. Nous proposons également deux algorithmes efficaces permettant de reconstituer deux chemins différents entre l'identité et une permutation déterminée. Nous donnons enfin des résultats connexes sur d'autres classes proches. La restriction de la relation d'ordre < induite par le code de Gray réfléchi à l'ensemble des compositions et des compositions bornées induit de nouveaux codes de Gray pour ces ensembles. La relation d'ordre < restreinte à l'ensemble des compositions bornées d'un intervalle fournit encore un code de Gray. L'ensemble des n compositions bornées d'un intervalle généralise simultanément l'ensemble produit et l'ensemble des compositions d'un entier et donc la relation < définit de façon unifiée tous ces codes de Gray. Nous réexprimons les codes de Gray de Walsh et Knuth pour les compositions (bornées) d'un entier à l'aide d'une unique relation d'ordre. Alors, le code de Gray deWalsh pour des classes de compositions et de permutations devient une sous-liste de celui de Knuth, lequel est à son tour une sous-liste du code de Gray réfléchi.
398

Contribution à une méthodologie de dimensionnement des systèmes mécatroniques : analyse structurelle et couplage à l'optimisation dynamique

Jardin, Audrey 15 January 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la conception de systèmes mécatroniques et traite plus spécifiquement du problème de leur dimensionnement. Dans ce sens, elle s'intéresse aux méthodes permettant de sélectionner les composants constituant leurs chaînes d'actionnement afin de satisfaire au mieux un cahier des charges donné. Puisque les lois concurrentielles actuelles demandent un renouvellement fréquent des produits malgré une complexité toujours croissante, les démarches adoptées pour traiter ce type de problème se doivent d'être les moins coûteuses en termes financiers mais aussi en termes de temps d'étude. Pour diminuer le nombre d'itérations du processus de conception, une solution possible est de reformuler le problème sous la forme d'un problème inverse où les inconnues du problème de dimensionnement sont directement calculées à partir des spécifications du cahier des charges sur les sorties du système. Dans cette optique, le laboratoire Ampère propose une méthodologie de dimensionnement par modèles bond graph inverses. L'objectif de cette thèse est de contribuer au développement de cette méthodologie d'une part dans sa phase d'analyse structurelle (phase permettant de vérifier avant toute simulation si le problème inverse est correctement posé) puis, d'autre part, dans sa phase de dimensionnement (phase durant laquelle l'inversion du modèle est effectivement mise en œuvre puis exploitée). Concernant la phase d'analyse structurelle, le mémoire s'attache à détailler les mécanismes d'une telle analyse dans le langage bond graph mais vise aussi à préciser son domaine de validité. Pour cela, une comparaison de l'approche bond graph aux approches Modelica, système structuré et modèle d'état permet de mettre en évidence l'existence de plusieurs niveaux d'information et de description sur le système. Selon l'exploitation ou non de ces différents niveaux d'information et de description, plusieurs niveaux d'analyse sont ensuite proposés : le niveau structuré, le niveau BG-structurel et le niveau comportemental. Il est également montré comment ces différents niveaux d'analyse peuvent être mis à profit dans une démarche de conception et comment ceux-ci permettent de reformuler certaines propriétés bond graph selon la phase de conception dans laquelle nous nous trouvons les propriétés au niveau d'analyse BG-structurel permettent d'infirmer ou de valider l'architecture du système). Concernant la phase de dimensionnement, le mémoire aborde le cas où le problème de dimensionnement ne peut se formuler complètement sous la forme d'un problème inverse et où la méthodologie ne peut s'appliquer directement. Pour cela, le problème de la représentation bond graph d'un problème d'optimisation dynamique est étudié afin de traiter des spécifications qui ne peuvent s'exprimer sous forme de fonctions dépendant explicitement du temps. Une procédure bond graph d'optimisation est à cette fin reprise puis étendue notamment à une classe de systèmes non linéaires. Enfin, un exemple de couplage entre méthodologie de dimensionnement et optimisation dynamique est effectivement mis en œuvre jusqu'à l'obtention de résultats numériques afin d'illustrer la faisabilité de la méthodologie tout au long du processus de conception.
399

Etude de la technologie SOI partiellement désertée à très basse tension pour minimiser l'énergie dissipée et application à des opérateurs de calcul.

Valentian, Alexandre 06 1900 (has links) (PDF)
L'évolution des technologies des semi-conducteurs vers des géométries de plus en plus fines permet un accroissement des performances et des fonctionnalités par puce mais s'accompagne simultanément d'une augmentation de la puissance dissipée. Alors que les utilisateurs sont de plus en plus friands d'applications portables, la conception de circuits intégrés doit désormais prendre en compte le budget de puissance alloué. Il est donc essentiel de développer des circuits microélectroniques très basse puissance. La réduction de la tension d'alimentation VDD s'avère une approche très intéressante puisque cela permet de réduire la puissance dynamique quadratiquement et la puissance statique des courants de fuite exponentiellement. L'utilisation de tensions d'alimentation très basses (ULV) a été explorée à Stanford dès 1990 en utilisant une technologie spéciale, dont les transistors possèdent des tensions de seuil proches de zéro volt. Cependant, bien que réduire fortement la tension d'alimentation soit une méthode efficace pour diminuer la consommation, elle ne peut pas être appliquée arbitrairement car cela affecte négativement les performances, le délai dans les portes augmentant exponentiellement lorsque VDD devient inférieur à la tension de seuil. Il faut donc trouver un compromis entre vitesse et consommation. Du point de vue technologique, la technologie SOI-PD (Silicium sur Isolant Partiellement Désertée) s'avère très intéressante en ULV: elle présente des performances entre 25% et 30% supérieures à celles obtenues en CMOS à substrat massif. La technologique SOI permet donc de diminuer la consommation des circuits intégrés à fréquence de fonctionnement égale. Pour mieux appréhender le comportement des transistors SOI opérés en inversion faible, un modèle analytique et physique simple a tout d'abord été développé. La consommation d'un circuit dépendant fortement du style logique employé, plusieurs styles ont été comparés et celui présentant le meilleur produit puissance-délai a été choisi pour réaliser une bibliothèque de cellules standards. La problématique de la propagation de données sur des interconnexions longues, alors que les transistors fournissent peu de courant, a été abordée: un nouveau circuit de transmission en mode courant a été proposé. Enfin, un circuit de traitement d'image par paquets d'ondelettes a été développé et synthétisé grâce à la bibliothèque précédente.
400

Identification d'un modèle de comportement thermique de bâtiment à partir de sa courbe de charge

Zayane, Chadia 11 January 2011 (has links) (PDF)
Dans un contexte de préoccupation accrue d'économie d'énergie, l'intérêt que présente le développement de stratégies visant à minimiser la consommation d'un bâtiment n'est plus à démontrer. Que ces stratégies consistent à recommander l'isolation des parois, à améliorer la gestion du chauffage ou à préconiser certains comportements de l'usager, une démarche préalable d'identification du comportement thermique de bâtiment s'avère inévitable.<br/>Contrairement aux études existantes, la démarche menée ici ne nécessite pas d'instrumentation du bâtiment. De même, nous considérons des bâtiments en occupation normale, en présence de régulateur de chauffage : inconnue supplémentaire du problème. Ainsi, nous identifions un système global du bâtiment muni de son régulateur à partir de :<br/>données de la station Météo France la plus proche ; la température de consigne reconstruite par connaissance sectorielle ; la consommation de chauffage obtenue par système de Gestion Technique du Bâtiment ou par compteur intelligent ; autres apports calorifiques (éclairage, présence de personnes...) estimés par connaissance sectorielle et thermique. L'identification est d'abord faite par estimation des paramètres (7) définissant le modèle global, en minimisant l'erreur de prédiction à un pas. Ensuite nous avons adopté une démarche d'inversion bayésienne, dont le résultat est une simulation des distributions a posteriori des paramètres et de la température intérieure du bâtiment.<br/>L'analyse des simulations stochastiques obtenues vise à étudier l'apport de connaissances supplémentaires du problème (valeurs typiques des paramètres) et à démontrer les limites des hypothèses de modélisation dans certains cas.

Page generated in 0.0738 seconds