• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 75
  • 11
  • 2
  • Tagged with
  • 209
  • 89
  • 46
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Restauration d'images 3D de microscopie de fluorescence en présence d'aberrations optiques / Restoration of 3D fluorescence microscopy images under the presence of optical aberrations

Ben Hadj, Saïma 17 April 2013 (has links)
Dans cette thèse, nous nous intéressons à la restauration d'image tridimensionnelle de microscopie de fluorescence. Deux difficultés majeures dans ce système d'imagerie sont traitées. La première est le flou variable en profondeur qui est dû aux aberrations induites par la variation des indices de réfraction dans le système optique et le spécimen imagé. La deuxième est le bruit qui est principalement dû au processus de comptage de photons. L'objectif de cette thèse est de réduire ces distorsions afin de fournir aux biologistes une image de meilleure qualité possible. Dans la première partie de cette thèse, nous étudions les modèles d'approximation du flou variable en profondeur et nous choisissons un modèle adéquat au problème d'inversion. Dans ce modèle, la réponse impulsionnelle (RI) variable en profondeur est approchée par une combinaison convexe d'un ensemble de RIs invariables spatialement. Nous développons pour ce modèle deux méthodes rapides de restauration non-aveugle par minimisation d'un critère régularisé, chacune d'elles est adaptée au type de bruit présent dans les images de microscopie confocale ou à champ large. Dans la deuxième partie, nous abordons le problème de restauration aveugle et proposons deux méthodes dans lesquelles le flou variable en profondeur et l'image sont conjointement estimés. Dans la première méthode, la RI est estimée en chaque voxel du volume considéré afin de laisser une grande liberté sur la forme de la RI, tandis que dans la deuxième méthode, la forme de la RI est contrainte par une fonction gaussienne afin de réduire le nombre de variables inconnues et l'espace des solutions possibles. Dans ces deux méthodes d'estimation aveugle, l'effet des aberrations optiques n'est pas efficacement estimé en raison du manque d'information. Nous améliorons ces méthodes d'estimation en alternant des contraintes dans les domaines fréquentiel et spatial. Des résultats sont montrés en simulation et sur des données réelles. / In this thesis, we focus on the restoration of three-dimensional image of fluorescence microscopy. Two major difficulties in this imaging system are considered. The first one is the depth-variant blur due to aberrations induced by the refractive index variation in the optical system and the imaged specimen. The second difficulty is the noise due to the photon counting process. The goal of this thesis is to reduce these distortions in order to provide biologists with a better image quality. In the first part of this thesis, we study the approximation models of the depth-variant blur and choose an appropriate model for the inversion problem. In that model, the depth-variant point spread function (PSF) is approximated by a convex combination of a set of space-invariant PSFs. We then develop for that model two fast non-blind restoration methods by minimizing a regularized criterion, each of these methods is adapted to the type of noise present in images of confocal or wide field microscopy. In the second part, we address the problem of blind restoration and propose two methods where the depth-variant blur and the image are jointly estimated. In the first method, the PSF is estimated at each voxel in the considered volume in order to allow high degree of freedom on the PSF shape while in the second method, the shape of the PSF is constrained by a Gaussian function in order to reduce the number of unknown variables and the space of possible solutions. In both blind estimation methods, the effect of optical aberrations is not effectively estimated due to the lack of information. We thus improve these estimation methods by alternating some constraints in the frequency and spatial domains. Results on simulated and real data are shown.
12

Tomographie cardiaque en angiographie rotationnelle / Cardiac C-arm computed tomography

Mory, Cyril 26 February 2014 (has links)
Un C-arm est un appareil d’imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l’imagerie des organes statiques. Cependant son extension à l’imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l’angiographie rotationnelle pour l’analyse du myocarde chez l’homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l’état de l’art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l’ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l’ECG par déconvolution. Elle permet d’obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l’angiographie rotationnelle cardiaque chez l’homme. Deux méthodes de reconstruction 3D basées sur l’échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l’état de l’art actuel, appelé « Prior Image Constrained Compressed Sensing » (PICCS). Elles permettent d’obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l’une de l’autre, mais elles s’appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l’aorte, et imposer une solution régulière dans l’espace et dans le temps. L’une de ces méthodes génère des résultats meilleurs, c’est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS / A C-arm is an X-ray imaging device used for minimally invasive interventional radiology procedures. Most modern C-arm systems are capable of rotating around the patient while acquiring radiographic images, from which a 3D reconstruction can be performed. This technique is called C-arm computed tomography (C-arm CT) and is used in clinical routine to image static organs. However, its extension to imaging of the beating heart or the free-breathing thorax is still a challenging research problem. This thesis is focused on human cardiac C-arm CT. It proposes several new reconstruction methods and compares them to the current state or the art, both on a digital phantom and on real data acquired on several patients. The first method, ECG-gated Iterative FDK deconvolution, consists in filtering out the streak artifacts from an ECG-gated FDK reconstruction in an iterative deconvolution scheme. It performs better than existing deconvolution-based methods, but it is still insufficient for human cardiac C-arm CT. Two 3D reconstruction methods based on compressed sensing are proposed: total variation-regularized 3D reconstruction and wavelets-regularized 3D reconstruction. They are compared to the current state-of-the-art method, called prior image constrained compressed sensing (PICCS). They exhibit results that are similar to those of PICCS. Finally, two 3D+time reconstruction methods are presented. They have slightly different mathematical formulations but are based on the same principles: using a motion mask to restrict the movement to the area containing the heart and the aorta, and enforcing smoothness of the solution in both space and time. One of these methods outperforms PICCS by producing results that are sharper and more consistent throughout the cardiac cycle
13

Segmentation sémantique de peuplement forestiers par analyse conjointe d'imagerie multispectrale très haute résolution et de données 3D Lidar aéroportées / Semantic segmentation of forest stand by join analysis of very high resolution multispectral image and 3D airborne Lidar data

Dechesne, Clément 04 December 2017 (has links)
Les peuplements forestiers sont une unité de mesure de base pour l'inventaire forestier et la cartographie. Ils sont définis comme de grandes zones forestières (par exemple, de plus de 2 ha) et de composition homogène en terme d'essence d'arbres et d'âge. Leur délimitation précise est généralement effectuée par des opérateurs humains grâce à une analyse visuelle d'images infrarouges à très haute résolution (VHR). Cette tâche est fastidieuse, nécessite beaucoup de temps et doit être automatisée pour un suivi de l'évolution et une mise à jour efficace. Une méthode fondée sur la fusion des données lidar aéroportées et des images multispectrales VHR est proposée pour la délimitation automatique des peuplements forestiers contenant une essence dominante (pureté supérieure à 75%). C'est une principale tâche préliminaire pour la mise à jour de la base de données de la couverture forestière. Les images multispectrales donnent des informations sur les espèces d'arbres alors que les nuages de point Lidar 3D fournissent des informations géométriques sur les arbres et permettent leur extraction individuelle. Les attributs multimodaux sont calculées, à la fois au niveau des pixels et des objets (groupements de pixels ayant une taille similaire aux arbres). Une classification supervisée est ensuite effectuée au niveau de l'objet afin de discriminer grossièrement les espèces d'arbres existantes dans chaque zone d'intérêt. Les résultats de la classification sont ensuite traités pour obtenir des zones homogènes avec des bordures lisses par la minimisation d'une énergie, où des contraintes supplémentaires sont proposées pour former la fonction énergie à minimiser. Les résultats expérimentaux montrent que la méthode proposée fournit des résultats très satisfaisants en termes d'étiquetage et de délimitation, et ce pour des régions géographiquement très éloignées / Forest stands are the basic units for forest inventory and mapping. Stands are defined as large forested areas (e.g., 2 ha) of homogeneous tree species composition and age. Their accurate delineation is usually performed by human operators through visual analysis of very high resolution (VHR) infra-red images. This task is tedious, highly time consuming, and should be automated for scalability and efficient updating purposes. A method based on the fusion of airborne lidar data and VHR multispectral images is proposed for the automatic delineation of forest stands containing one dominant species (purity superior to 75%). This is the key preliminary task for forest land-cover database update. The multispectral images give information about the tree species whereas 3D lidar point clouds provide geometric information on the trees and allow their individual extraction. Multi-modal features are computed, both at pixel and object levels: the objects are groups of pixels having a size similar to trees. A supervised classification is then performed at the object level in order to coarsely discriminate the existing tree species in each area of interest. The classification results are further processed to obtain homogeneous areas with smooth borders by employing an energy minimum framework, where additional constraints are joined to form the energy function. The experimental results show that the proposed method provides very satisfactory results both in terms of stand labeling and delineation, even for spatially distant regions
14

A posse na regularização de assentamentos urbanos / La possession dans la régularisation des établissements urbains

Trevelim, Ivandro Ristum 11 June 2014 (has links)
A nova disciplina legal da posse como direito real no âmbito da regularização fundiária no Brasil coloca-se como importante mecanismo para a redução das desigualdades sociais. Será desenvolvido o conceito de posse e seus contornos atuais, especialmente em vista da situação social brasileira, notadamente em função da regularização fundiária no Brasil e a nova disciplina da posse conferida pela Lei nº 11.977/2009, tal como alterada pela Lei nº 12.424/2011. Foi esta lei recente que trouxe em seu condão a possibilidade da regularização fundiária de assentamentos urbanos. A ideia de possibilitar esta regularização não é nova - na verdade, já constava do Projeto de Lei nº 3.057, que tramitava no Congresso Nacional desde o ano 2000. A Lei nº 11.977/2009 insere em nosso ordenamento jurídico a regularização fundiária de assentamentos urbanos, consistente no conjunto de medidas jurídicas, urbanísticas, ambientais e sociais objetivando a regularização de assentamentos irregulares e a titulação de seus ocupantes. Estabelece a competência municipal para dispor sobre o procedimento de regularização fundiária, nos termos da demarcação urbanística. A demarcação urbanística ocorrerá mediante procedimento administrativo pelo qual o Poder Público, no âmbito da regularização fundiária de interesse social, demarca um imóvel de domínio público ou privado, definindo seus limites, sua área, sua localização e seus confrontantes, com a finalidade de identificar seus ocupantes e qualificar a natureza e o tempo das respectivas posses. É nesse contexto que ocorrerá inicialmente a legitimação de posse ao ocupante do imóvel objeto da demarcação urbanística, uma vez que o Poder Público deverá proferir ato administrativo capaz de conferir título de reconhecimento de posse do imóvel, com a identificação deste ocupante, do tempo e da natureza da posse. Se bem sucedida a demarcação urbanística, a partir da averbação do auto de demarcação urbanística, o Poder Público deverá elaborar o Projeto de Regularização Fundiária e submeter o parcelamento dele decorrente a registro. Após o registro do parcelamento, o Poder Público concederá título de legitimação de posse aos ocupantes cadastrados (preferencialmente em nome da mulher). A legitimação de posse devidamente registrada constitui direito a favor do detentor da posse direta para fins de moradia, desde que não seja proprietário ou detentor de posse de outro imóvel. Sem prejuízo dos direitos decorrentes da posse exercida anteriormente, o detentor do título de legitimação de posse, após cinco anos de seu registro, poderá requerer ao oficial de registro de imóveis a conversão desse título em registro de propriedade, tendo em vista sua aquisição por usucapião instituindo modalidade de usucapião administrativo. Diante do exposto, percebe-se que a referida Lei nº 11.977/2009 trouxe em seu bojo tema de grande interesse, conferindo uma conotação e fortalecimento legal até então inédita à posse: a posse como direito real. Este tema merece estudo aprofundado; é o que se propõe com o presente trabalho. / Le nouvel encadrement juridique de la possession comme droit réel vis-à-vis la régularisation foncière au Brésil apparaît comme un important mécanisme de réduction des inégalités sociales. La notion de possession et ses contours actuels seront étudiés dans ce travail, spécialement au regard de la situation sociale brésilienne, et notamment en raison de la régularisation foncière au Brésil et le nouvel encadrement de la possession accordée par la Loi n° 11.977/2009, modifiée par la loi n° 12.424/2011. Cette récente loi a permis régularisation foncière des établissements urbains. L\'idée de permettre cette régularisation n\'est pas nouvelle. En fait, elle était déjà prévue dans un projet de loi plutôt vieux, le projet n° 3.057, qui était examiné par le Congrès dès lannée 2000. La Loi n° 11.977/09 introduit, dans notre système juridique, la régularisation foncière des établissements urbains, cest à dire, l\'ensemble des mesures juridiques, urbaines, environnementales et sociales visant à la régularisation des établissements informels et à la délivrance des titres à ses occupants. Les municipalités locales ont compétence de se prononcer sur la procédure de régularisation foncière, selon la démarcation urbaine. La démarcation urbaine est faite par le biais d\'une procédure administrative, par laquelle le Gouvernement, en vue de la régularisation foncière d\'intérêt social, détermine un immeuble comme de domaine public ou privé, fixant ses limites, sa superficie, sa localisation et sa voisinage, dans le but d\'identifier ses occupants et de qualifier la nature et le temps de chaque possession. C\'est dans ce contexte que se produira, initialement, la légitimation de la possession de l\'occupant de limmeuble qui fait lobjet de la démarcation urbaine; puisque le Gouvernement doit publier un acte administratif susceptible de conférer à cet occupant le titre de reconnaissance de la possession de limmeuble, avec son identification, et lindication du temps et de la nature de sa possession. En cas de succès de la démarcation urbaine, à partir de lenregistrement de lacte de démarcation urbaine, le Gouvernement doit élaborer le projet de régularisation foncière et inscrire ses divisions au registre foncier. Après l\'enregistrement des divisions, le Gouvernement fournit le titre de légitimation de la possession aux occupants inscrits (de préférence aux femmes). La légitimation de la possession dûment enregistrée est un droit en faveur du détenteur de la possession directe des logements, à condition que cet occupant ne soit pas propriétaire ou détenteur de possession dun autre immeuble. Nonobstant les droits dérivés de la possession exercée précédemment, le détenteur dun titre de légitimation de possession, après cinq ans de son enregistrement, peut demander à lagent du Bureau dEnregistrement dImmeubles la conversion de son titre en titre de propriété, vu son acquisition par usucapion ainsi créant la modalité dusucapion administrative. Compte tenu des considérations exposées ci-dessus, la Loi n° 11.977/2009 a apporté un thème de grand intérêt, en donnant à la possession une connotation et un renforcement juridique inédites: la possession comme un droit réel. Ce sujet mérite une étude approfondie et de qualité, ce qui est proposé dans ce travail.
15

Endommagement anisotrope et comportement dynamique des structures en béton armé jusqu'à la ruine.

Chambart, Marion 24 September 2009 (has links) (PDF)
Cette thèse est dédiée au développement et à la validation d'un nouveau modèle d'endommagement anisotrope pour le béton dans le cadre d'applications dynamiques. Le modèle d'endommagement développé par Desmorat et al. (2007) reproduit l'anisotropie induite de l'endommagement du béton par l'intermédiaire d'une variable tensorielle d'ordre 2. Ce modèle est étendu à la dynamique par l'introduction d'un «effet retard» dans la loi d'évolution de l'endommagement afin de reproduire l'effet de la vitesse sur le comportement du matériau. Cette dépendance temporelle du comportement permet, dans une certaine gamme de vitesse de sollicitation, de régulariser la solution qui dépend pathologiquement du maillage pour les modèles (adoucissants) d'endommagement. L'influence de la vitesse de sollicitation sur la régularisation est étudiée, et les résultats sont comparés avec ceux obtenus par régularisation non-locale intégrale (avec et sans effet retard). L'état de sollicitation en dynamique est par nature fortement lié aux phénomènes de propagation et de reflexions d'ondes qui conduisent à des états de sollicitations alternées. La dissymétrie du comportement du béton impose que l'on y accorde une attention particulière. Le concept de désactivation des dommages (Souid 2008) est transposé à la dynamique et l'endommagement à effet retard. On établit l'expression de la dissipation intrinsèque due à l'endommagement ce qui permet d'estimer l'influence de l'effet retard sur l'énergie dissipée. Enfin, on prouve par la méthodes des perturbations, l'existence d'un nouveau type d'instabilité, inhérente à l'aspect induit de l'anisotropie. Une nouvelle écriture du modèle, qui ne modifie pas le comportement pour des sollicitations simples, est proposée, elle permet de stabiliser complètement le comportement. Des simulations numériques d'impacts et de souffle sur des structures 3D en béton armé montrent les capacités du modèles à mener ce type de calcul jusqu'à la ruine. La description continue de l'endommagement permet de représenter finement l'amorçage, la propagation, la coalescence, la bifurcation et l'embranchement de fissures. L'arrêt et le redémarrage d'une fissure est également représenté, et on peut estimer la vitesse de propagation des fissures, qui reste inférieure à la vitesse des ondes de Rayleigh dans le béton. Les résultats numériques des simulations d'impact sont comparés à ceux des essais sur tour de chute réalisés lors de cette thèse au Laboratoire d'Etudes de Dynamique du CEA Saclay. La nouveauté de ces essais est l'analyse par corrélation d'images des des films d'essais réalisés avec une caméra rapide (10000 images/secondes).
16

Algorithme de Chemin de Régularisation pour l'apprentissage Statistique

Karina, Zapien 09 July 2009 (has links) (PDF)
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.<br>L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.<br>La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
17

Traitement de Signal Appliqué aux Etalons Primaires de Fréquence : Amélioration de leur Exactitude et de leur Stabilité

Makdissi, Alaa 24 September 1999 (has links) (PDF)
La définition de la seconde est basée, depuis 1967, sur les propriétés atomiques de l'atome de césium. Une horloge atomique est l'instrument qui permet de réaliser cette définition avec une exactitude limitée par plusieurs sources de perturbations. Toute amélioration dans les performances des horloges atomiques est la bienvenue pour les diverses applications, actuelles et futures, qui utilisent ces horloges. L'objet de ce travail de thèse est d'améliorer les performances de l'étalon primaire de fréquence (JPO) à jet de césium du Laboratoire Primaire du Temps et des Fréquences. Les résultats obtenus se traduisent par les performances suivants : Notre Horloge JPO est maintenant l'horloge, à jet thermique, la plus exacte au monde, avec une exactitude de 6,3 x 10-15. Elle est également l'horloge à jet thermique la plus stable, avec une stabilité à court terme de 3 x 10-13/sqrt(t) où t est le temps d'intégration en seconde.<br />L'obtention de ces bons résultats est liée à la maîtrise des fuites micro-ondes grâce à la conception et à la réalisation d'une cavité de Ramsey. La bonne exactitude est due aux nouvelles techniques de traitement du signal (problèmes inverses, régularisation. analyse cepstrale, ...) que nous avons introduites pour mieux évaluer les effets perturbateurs. La bonne stabilité profite de l'étude détaillée du système d'asservissement dans une horloge ainsi que de la réalisation matérielle et logicielle d'une boucle d'asservissement numérique de haute qualité.
18

Régularisation d'Images Multivaluées par EDP et Applications

Tschumperlé, David 13 December 2002 (has links) (PDF)
Nous nous intéressons aux approches par EDP pour la régularisation<br />d'images multivaluées, et leurs applications à une large classe de<br />problèmes d'intérêts. L'étude et la comparaison des méthodes<br />existantes nous permet à la fois de proposer un cadre mathématique<br />commun mieux adapté aux interprétations géométriques locales de<br />ces EDP, mais aussi de concevoir des schémas numériques efficaces<br />pour leur mise en oeuvre.<br />Nous développons de cette façon une nouvelle approche de régularisation multivaluée vérifiant certaines propriétés géométriques locales importantes, qui peut être utilisée dans de nombreuses applications différentes. Nous abordons ensuite le problème lié à la régularisation de données multivaluées<br />contraintes. Un formalisme variationel est proposé afin de traiter<br />dans un cadre unifié, des données de direction comme les champs de<br />vecteurs unitaires, de matrices de rotation, de tenseurs de diffusion etc.<br />Les solutions apportées sont analysées et utilisées avec succès pour résoudre de nombreux problèmes, notamment la régularisation et l'interpolation d'images couleurs, la visualisation de flots, la régularisation de mouvements rigides estimés à partir de<br />séquences vidéos, et l'aide à la reconstruction de réseaux cohérents de fibres dans la matière blanche du cerveau, à partir de la régularisation d'images d'IRM de diffusion.
19

Télédétection de la surface terrestre par un radiomètre imageur à synthèse d'ouverture : principes de mesure, traitement des données interférométriques et méthodes de reconstruction régularisées

Picard, Bruno 19 November 2004 (has links) (PDF)
Dans le but d'obtenir les premières mesures globales d'humidité des sols et de salinité des océans, <br />l'Agence Spatiale Européenne, à travers son programme «Exploration de la Terre» finance <br />la mission spatiale SMOS (Soil Moisture and Ocean Salinity). <br />Elle repose, pour la première fois dans le cadre de l'observation de la Terre, <br />sur l'utilisation d'un radiomètre imageur à synthèse d'ouverture, technologie initialement développée <br />en radioastronomie.<br />Cette thèse est axée sur l'étude des méthodes de reconstruction régularisée permettant, à partir des données <br />interférométriques fournies par l'instrument, d'obtenir des cartes de températures de brillance. <br /> <br />Le principe de mesure diffère de celui des instruments habituellement utilisés pour l'observation <br />de la surface terrestre. Une première partie est donc consacrée à une introduction des mécanismes <br />fondamentaux de l'interférométrie passive, à travers une étude de la chaîne de mesure, d'un rappel <br />de l'expérience des trous d'Young et des propriétés de la transformée de Fourier à deux dimensions. <br /> <br />Le traitement des données interférométriques demande un cadre géométrique et algébrique rigoureux, <br />décrit dans une seconde partie. De plus, les radiomètres à synthèse d'ouverture étant des instruments <br />à bande passante limitée, il est nécessaire de faire appel à l'apodisation pour réduire les oscillations <br />apparaissant dans les cartes reconstruites. Les fenêtres d'apodisation sont donc caractérisées pour deux <br />configurations possibles du réseau d'antennes. L'estimation des paramètres géophysiques demandant <br />le traitement de cartes de températures de brillance définies sur des grilles régulières et <br />à résolution spatiale constante, nous avons introduit dans ce but des techniques de rééchantillonnage <br />et la possibilité d'utiliser le multi-fenêtrage.<br /> <br />Le problème inverse à résoudre étant mal posé, il est important de s'assurer de l'existence <br />d'une solution unique. C'est là l'objet de l'utilisation de méthodes de reconstruction régularisées. <br />Elles sont définies et comparées dans une troisième partie. Elles sont ensuite utilisées pour caractériser <br />plusieurs problèmes intervenant dans la reconstruction d'image pour les radiomètres imageurs à synthèse d'ouverture. <br />Ainsi, l'erreur systématique, qui intervient alors même qu'aucune erreur sur les données ou sur <br />la modélisation de l'instrument n'est introduite, est expliquée et quantifiée pour deux méthodes <br />de reconstruction régularisées et pour différentes scènes observées. La propagation du bruit radiométrique <br />sur les données fait l'objet d'un travail spécifique, ainsi que l'impact des erreurs de modélisation <br />subsistant suite à une auto-caractérisation, méthode présentée ici et permettant une calibration en vol <br />des paramètres instrumentaux. L'impact de la pollution des données interférométriques par le <br />rayonnement solaire sur la télédétection des océans est ensuite étudié. Enfin, la faisabilité et <br />la robustesse de la reconstruction en mode de polarisation totale à l'aide des méthodes de <br />reconstruction régularisées sont démontrées.
20

Optimisation pour l'apprentissage et apprentissage pour l'optimisation

Van Grieken, Milagros 19 April 2004 (has links) (PDF)
Dans de nombreux problèmes industriels, une simple évaluation de la fonction objectif est coûteuse en temps de calcul et son gradient peut ne pas être disponible. Il est alors utile de construire un modèle, rapide à évaluer et facilement dérivable, qui approche le problème étudié. En apportant de nombreuses améliorations à l'apprentissage, nous avons montré que les réseaux de neurones peuvent répondre à ces exigences. En particulier, là où des méthodes neuronales classiques introduisent des oscillations pour approcher une fonction lisse,notre méthode donne un résultat satisfaisant. Mieux encore, notre méthode permet d'approcher des fonctions oscillantes (par exemple le résultat d'un programme entaché d'erreurs numériques), par un modèle lisse. Nous parvenons à ces résultats par le concours de nombreuses méthodes de régularisation : la méthode de Tikhonov, la stratégie d'arrêt de l'apprentissage, la taille du modèle et pour terminer l'utilisation de la méthode de Gauss-Newton (GN). Cette approche de régularisation permet en plus d'éviter les minima locaux (qui posent un serieux problème pour les méthodes classiques), en augmentant la taille du modèle pour assurer l'apprentissage et en la réduisant ensuite pour la régularisation. Pour les problèmes de grande taille, l'application de la méthode de Gauss-Newton est très " gourmande " en place mémoire. Cependant, en combinant les modes adjoint et direct de la différentiation automatique, nous avons proposé une implémentation " zéro-mémoire " qui nous permet d'appliquer cette méthode. Ce procéde, présenté dans le cadre des réseaux neuronaux peuvent, a priori, être adaptés à tout problème inverse. Dans le littérature récente, mais riche sur le sujet, les fonctions définies par un réseau neuronal classique sont optimisées par des techniques globales très coûuteuses. Dans notre cas, nous profitons des qualités du modèle obtenu (régularité, rapidité d'évaluation et disponibilité du gradient pour un coût supplémentaire négligeable) pour utiliser des méthodes d'optimisation efficaces. Nous illustrerons la pertinence de la méthode proposée par différents exemples académiques, reconnus par leur difficulté, et par des exemples issus de l'industrie automobile et l'ingénierie pétrolière.

Page generated in 0.511 seconds