• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 13
  • 10
  • 3
  • 1
  • 1
  • Tagged with
  • 137
  • 70
  • 35
  • 33
  • 33
  • 23
  • 23
  • 21
  • 18
  • 17
  • 14
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Statistical and numerical optimization for speckle blind structured illumination microscopy / Optimisation numérique et statistique pour la microscopie à éclairement structuré non contrôlé

Liu, Penghuan 25 May 2018 (has links)
La microscopie à éclairements structurés(structured illumination microscopy, SIM) permet de dépasser la limite de résolution en microscopie optique due à la diffraction, en éclairant l’objet avec un ensemble de motifs périodiques parfaitement connus. Cependant, il s’avère difficile de contrôler exactement la forme des motifs éclairants. Qui plus est, de fortes distorsions de la grille de lumière peuvent être générées par l’échantillon lui-même dans le volume d’étude, ce qui peut provoquer de forts artefacts dans les images reconstruites. Récemment, des approches dites blind-SIM ont été proposées, où les images sont acquises à partir de motifs d’éclairement inconnus, non-périodiques, de type speckle,bien plus faciles à générer en pratique. Le pouvoir de super résolution de ces méthodes a été observé, sans forcément être bien compris théoriquement. Cette thèse présente deux nouvelles méthodes de reconstruction en microscopie à éclairements structurés inconnus (blind speckle-SIM) : une approche conjointe et une approche marginale. Dans l’approche conjointe, nous estimons conjointement l’objet et les motifs d’éclairement au moyen d’un modèle de type Basis Pursuit DeNoising (BPDN) avec une régularisation en norme lp,q où p=>1 et 0<q<=1. La norme lp,q est introduite afin de prendre en compte une hypothèse de parcimonie sur l’objet. Dans l’approche marginale, nous reconstruisons uniquement l’objet et les motifs d’éclairement sont traités comme des paramètres de nuisance. Notre contribution est double. Premièrement, une analyse théorique démontre que l’exploitation des statistiques d’ordre deux des données permet d’accéder à un facteur de super résolution de deux, lorsque le support de la densité spectrale du speckle correspond au support fréquentiel de la fonction de transfert du microscope. Ensuite, nous abordons le problème du calcul numérique de la solution. Afin de réduire à la fois le coût de calcul et les ressources en mémoire, nous proposons un estimateur marginal à base de patches. L’élément clé de cette méthode à patches est de négliger l’information de corrélation entre les pixels appartenant à différents patches. Des résultats de simulations et en application à des données réelles démontrent la capacité de super résolution de nos méthodes. De plus, celles-ci peuvent être appliquées aussi bien sur des problèmes de reconstruction 2D d’échantillons fins, mais également sur des problèmes d’imagerie 3D d’objets plus épais. / Conventional structured illumination microscopy (SIM) can surpass the resolution limit inoptical microscopy caused by the diffraction effect, through illuminating the object with a set of perfectly known harmonic patterns. However, controlling the illumination patterns is a difficult task. Even worse, strongdistortions of the light grid can be induced by the sample within the investigated volume, which may give rise to strong artifacts in SIM reconstructed images. Recently, blind-SIM strategies were proposed, whereimages are acquired through unknown, non-harmonic,speckle illumination patterns, which are much easier to generate in practice. The super-resolution capacity of such approaches was observed, although it was not well understood theoretically. This thesis presents two new reconstruction methods in SIM using unknown speckle patterns (blind-speckle-SIM): one joint reconstruction approach and one marginal reconstruction approach. In the joint reconstruction approach, we estimate the object and the speckle patterns together by considering a basis pursuit denoising (BPDN) model with lp,q-norm regularization, with p=>1 and 0<q<=1. The lp,q-norm is introduced based on the sparsity assumption of the object. In the marginal approach, we only reconstruct the object, while the unknown speckle patterns are considered as nuisance parameters. Our contribution is two fold. First, a theoretical analysis demonstrates that using the second order statistics of the data, blind-speckle-SIM yields a super-resolution factor of two, provided that the support of the speckle spectral density equals the frequency support of the microscope point spread function. Then, numerical implementation is addressed. In order to reduce the computational burden and the memory requirement of the marginal approach, a patch-based marginal estimator is proposed. The key idea behind the patch-based estimator consists of neglecting the correlation information between pixels from different patches. Simulation results and experiments with real data demonstrate the super-resolution capacity of our methods. Moreover, our proposed methods can not only be applied in 2D super-resolution problems with thin samples, but are also compatible with 3D imaging problems of thick samples.
62

La lecture conjointe : modes d'appréhension d'un album jeunesse et postures de lecteur entre 18 mois et 36 mois : étude menée en bibliothèque de quartier / Child shared reading : the mode of appréhension in the 18 to 26 month old infant and the first reading postures : studied in a local library

Annenkov, Marie-José 22 January 2015 (has links)
Nous avons cherché comment, dans une situation de lecture conjointe, la mère et l’enfant appréhendent l’album de jeunesse et comment, de ce fait, s’instaurent chez l’enfant de 18 mois-36 mois les premières postures de lecteur. Se demander comment la mère et l’enfant découvrent l’album de jeunesse, dans ce triangle Mère/Album/Enfant conduit alors à analyser leurs modes d’appréhension : interactifs, cognitifs, d’objet, narratifs, émotionnels, de subjectivation. Nous étudions également les liens de ces modes d’appréhension avec les postures de lecture de l’enfant et ses conséquences dans l’éveil de son être au livre. Au plan empirique, auprès d’un échantillon constitué de 21 dyades mère-enfant, nous avons procédé en trois temps. Tout d’abord, nous avons réalisé un premier entretien qui nous a permis de recueillir le discours des mères quant aux pratiques familiales de chaque enfant. Dans un second temps, nous avons filmé les dyades, lisant toutes le même album à leur enfant dans une bibliothèque de quartier. Enfin, trois mois après chaque observation filmée, nous avons mené un second entretien qui constituait alors une analyse méta vidéo. A partir des résultats obtenus, nous avons ainsi pu définir la lecture conjointe comme une aire intermédiaire, pouvant s’apparenter à l’Aire Intermédiaire de Winnicott (1971) et à la Zone Proximale de Développement de Vygotski (1933). Nous avons ainsi conceptualisé l’Aire Intermédiaire de Lecture Conjointe (AILC). Nous avons également approfondi, dans une perspective du développement du jeune enfant lecteur, le concept de Lecteur potentiel de Frier (2006). / Our study focuses on the mother /child shared reading experience and how the first reading postures are thereby awakened in the 18 to 26 month old infant. How exactly do the mother and child discover the children’s book? The mother/book/child triangle leads us to an analysis of their mode of apprehension: interactive, cognitive, of the book object, of the narrative, emotional, subjectivity. The link between these different modes of apprehension is also studied along with the child’s reading postures and their consequences on the infant’s discovery of the book. On the empirical level, a sample, consisting of 21 mother/child dyads was studied in three stages. First of all an interview was carried out which allowed us to collect information concerning family practices from the mother of each child. Second, the mother/child dyads were filmed, the mothers all reading the same story to their child in a local library. And lastly, three months after each filmed observation, a second interview consisted in a meta video analysis. The results obtained from this study enabled us to define the joint reading as an intermediary zone, close to Winnicott’s Intermediary Zone (1971) and Vygotski’s Next Proximal Zone of Development (1933). We thus conceptualized the Intermediate Zone of Shared Reading (IZSR). We also went further into Frier’s concept of Potential Reader, keeping in mind the perspective of the development of the infant reader.
63

Algorithmes de diagonalisation conjointe par similitude pour la décomposition canonique polyadique de tenseurs : applications en séparation de sources / Joint diagonalization by similarity algorithms for the canonical polyadic decomposition of tensors : Applications in blind source separation

André, Rémi 07 September 2018 (has links)
Cette thèse présente de nouveaux algorithmes de diagonalisation conjointe par similitude. Cesalgorithmes permettent, entre autres, de résoudre le problème de décomposition canonique polyadiquede tenseurs. Cette décomposition est particulièrement utilisée dans les problèmes deséparation de sources. L’utilisation de la diagonalisation conjointe par similitude permet de paliercertains problèmes dont les autres types de méthode de décomposition canonique polyadiquesouffrent, tels que le taux de convergence, la sensibilité à la surestimation du nombre de facteurset la sensibilité aux facteurs corrélés. Les algorithmes de diagonalisation conjointe par similitudetraitant des données complexes donnent soit de bons résultats lorsque le niveau de bruit est faible,soit sont plus robustes au bruit mais ont un coût calcul élevé. Nous proposons donc en premierlieu des algorithmes de diagonalisation conjointe par similitude traitant les données réelles etcomplexes de la même manière. Par ailleurs, dans plusieurs applications, les matrices facteursde la décomposition canonique polyadique contiennent des éléments exclusivement non-négatifs.Prendre en compte cette contrainte de non-négativité permet de rendre les algorithmes de décompositioncanonique polyadique plus robustes à la surestimation du nombre de facteurs ou lorsqueces derniers ont un haut degré de corrélation. Nous proposons donc aussi des algorithmes dediagonalisation conjointe par similitude exploitant cette contrainte. Les simulations numériquesproposées montrent que le premier type d’algorithmes développés améliore l’estimation des paramètresinconnus et diminue le coût de calcul. Les simulations numériques montrent aussi queles algorithmes avec contrainte de non-négativité améliorent l’estimation des matrices facteurslorsque leurs colonnes ont un haut degré de corrélation. Enfin, nos résultats sont validés à traversdeux applications de séparation de sources en télécommunications numériques et en spectroscopiede fluorescence. / This thesis introduces new joint eigenvalue decomposition algorithms. These algorithms allowamongst others to solve the canonical polyadic decomposition problem. This decomposition iswidely used for blind source separation. Using the joint eigenvalue decomposition to solve thecanonical polyadic decomposition problem allows to avoid some problems whose the others canonicalpolyadic decomposition algorithms generally suffer, such as the convergence rate, theoverfactoring sensibility and the correlated factors sensibility. The joint eigenvalue decompositionalgorithms dealing with complex data give either good results when the noise power is low, orthey are robust to the noise power but have a high numerical cost. Therefore, we first proposealgorithms equally dealing with real and complex. Moreover, in some applications, factor matricesof the canonical polyadic decomposition contain only nonnegative values. Taking this constraintinto account makes the algorithms more robust to the overfactoring and to the correlated factors.Therefore, we also offer joint eigenvalue decomposition algorithms taking advantage of thisnonnegativity constraint. Suggested numerical simulations show that the first developed algorithmsimprove the estimation accuracy and reduce the numerical cost in the case of complexdata. Our numerical simulations also highlight the fact that our nonnegative joint eigenvaluedecomposition algorithms improve the factor matrices estimation when their columns have ahigh correlation degree. Eventually, we successfully applied our algorithms to two blind sourceseparation problems : one concerning numerical telecommunications and the other concerningfluorescence spectroscopy.
64

Inversion conjointe des données magnétotelluriques et gravimétriques: Application à l'imagerie géophysique crustale et mantellique

Abdelfettah, Yassine 12 June 2009 (has links) (PDF)
Pour mieux comprendre les résultats géophysiques en termes de géologie, il est important d'utiliser différents types de données acquises par plusieurs méthodes. Une seule méthode géophysique n'a pas nécessairement la résolution suffisante pour expliquer la géologie. Avec une seule méthode, il peut être difficile de donner un sens géologique aux anomalies observées dans les modèles. L'inversion conjointe, en revanche, est une approche permettant de combiner des données de différentes natures. L'inversion conjointe peut être réalisée de deux façons : structurale ou pétrophysique. On peut subdiviser les inversions conjointes en deux groupes : l'inversion conjointe de méthodes sensibles au même paramètre physique comme les sondages électriques DC-DC et AC-DC, et l'inversion conjointe de méthodes sensibles aux paramètres de natures différentes, comme la gravimétrie et la sismique ou la sismique et la magnétotellurique (MT).Dans ce travail de thèse, je présente la solution de l'inversion conjointe de données MT et gravimétriques. La bonne résolution verticale mais la faible couverture spatiale des données MT peuvent être complémentaire des données gravimétriques qui possèdent une excellente couverture spatiale mais une faible résolution verticale.Le problème qui se pose dans l'inversion conjointe de données de différentes natures, est comment relier les différents paramètres. Des formules analytiques entre les vitesses sismiques et les densités ou entre les résistivités électriques et les densités sont destinées à des études spécifiques. En général, il n'est pas évident de relier les paramètres par des relations pétrophysiques. Par conséquent, il est nécessaire de développer des algorithmes qui n'imposent pas de relation spécifique entre les paramètres. L'approche d'inversion conjointe présentée ici est assez générale. Je pose une fonction de condition géométrique (GCF) sous laquelle les paramètres varient dans le même domaine pour imager les mêmes milieux.La méthodologie développée durant cette thèse est testée et validée sur des modèles synthétiques. Une application est réalisée sur les données réelles acquises dans la région de Turkana, Nord Kenya, une branche du Rift Est Africain. Les résultats obtenus ont permis de confirmer certaines conclusions apportées par les résultats de la sismique réflexion et d'apporter de nouvelles informations. L'étude a permis, en effet, de mettre en évidence deux Bassins en forme de demi-graben et de déterminer l'épaisseur des basaltes, jusque là inconnus. Une stratigraphie est proposée pour les bassins de Turkana et de Kachoda. Concernant l'étude de la lithosphère, nos résultats montrent une croûte très hétérogène et un manteau supérieur homogène. Deux anomalies (conductrices et moins denses) ont été mises en évidence entre la croûte inférieure.Ces anomalies peuvent être des zones de fusion partielle à priori sont déconnectées du manteau supérieur ou s'est initié la fusion.
65

Séparation de sources convolutives

Akil, Moussa 22 April 2008 (has links) (PDF)
La séparation de sources consiste à extraire des signaux appelés sources à partir seulement de mélanges observés de ces signaux appelés observations. De nombreuses approches ont été brièvement présentées dans ce manuscrit. La plupart de ces approches exploite l'hypothèse d'indépendance des sources.<br />Dans cette thèse, nous avons considéré le cas des mélanges linéaires convolutifs. Nous proposons de calculer les contributions des sources sur les capteurs afin d'optimiser la procédure de séparation.<br />L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener. Ensuite, nous étudions deux approches de séparation de sources. <br />La première utilise l'information mutuelle comme critère d'indépendance et la seconde dite fonction de contraste est basée sur les statistiques d'ordre quatre. L'utilisation des contributions des sources sur les capteurs dans la phase de séparation nous permet de proposer deux algorithmes de séparation, qui constituent deux généralisations d'algorithmes classiques.
66

Modèles de contours actifs pour la segmentation d'images et de vidéos

Gastaud, Muriel 06 December 2005 (has links) (PDF)
La segmentation en objets d'une image consiste à extraire de l'image des régions d'intérêt suivant un critère défini. Nous segmentons l'image par un algorithme de contours actifs dans le cadre d'une approche variationnelle. Partant d'un contour initial quelconque, le contour actif évolue, suivant une équation aux dérivées partielles. L'équation d'évolution du contour actif est déduite de la dérivation du critère. Au vu de la dépendance du critère à la région considérée, la dérivation du critère par rapport à la région n'est pas aisée. Nous utilisons des outils de dérivation empruntés à l'optimisation de domaine: les gradients de forme.<br />La contribution de cette thèse réside dans l'élaboration et l'étude de différents descripteurs de région. Pour chaque critère, nous calculons la dérivée du critère à l'aide des gradients de forme, et en déduisons l'équation d'évolution du contour actif.<br />Le premier descripteur définit un a priori géométrique sans contrainte paramétrique: il minimise la distance du contour actif à un contour de référence. Nous l'avons appliqué à la déformation de courbe, la segmentation et le suivi de cible.<br />Le deuxième descripteur caractérise le mouvement de l'objet par un modèle de mouvement. Le critère associé définit conjointement une région et son mouvement sur plusieurs images consécutives. Nous avons appliqué ce critère à l'estimation et la segmentation conjointe du mouvement et au suivi d'objets en mouvement.
67

Prototype virtuel pour la génération des architectures mixtes logicielles/matérielles

Valderrama, C. 29 October 1998 (has links) (PDF)
L'objectif de ce travail de thèse est le développement d'une méthodologie pour la génération rapide <br />d'architectures flexibles et modulaires pour les systèmes distribués. Cette approche, appelé aussi <br />"prototypage virtuel", est une étape essentielle dans le processus de conception conjointe des systèmes mixtes logiciel/matériel. Les approches de recherche dans ce domaine sont motivées par le besoin urgent de prototypes pour valider la spécification, par la disponibilité des outils et des environnements de synthèse pour les parties logicielles et matérielles. <br />Le prototypage virtuel permet à la fois la manipulation du domaine logiciel ainsi que du domaine matériel. Il prend en entrée une architecture hétérogène composée d'un ensemble de modules distribués issu du découpage matériel/logiciel et génère des descriptions exécutables pour des éléments matériels et logiciels. Ce travail décrit une stratégie de prototypage virtuel pour la co­synthèse (génération des modules matériels et logiciels sur une plate­forme architecturale) et la co­simulation (c'est­à­dire la simulation conjointe de ces deux composants) dans un environnement unifié. Ces travaux définissent également le développement d'un environnement de co­simulation distribué et flexible permettant l'utilisation de différents outils de simulation, de langages, la génération de modèles matériels et logiciels synthésisables et l'ordonnancement des modèles multiprocesseurs sur une architecture <br />monoprocesseur. Cette approche, présentée dans la conférence ED&TC, a obtenu le prix de l'année 1995. Des outils ont été mis en pratique dans l'environnement de conception conjointe Cosmos. Ce travail a aussi fait <br />l'objet d'un transfert de technologie au profit de SGS­Thomson Microelectronics. Les outils développés au cours de cette thèse ont été utilisés pour les projets Européens COMITY (particulièrement utilisé par l'Aérospatiale Missiles à Toulouse et Intracom en Grèce) et CODAC, et par d'autres groupes comme le FZI de l'université de Tübingen et PSA à Paris.
68

Méthodologie de partitionnement logiciel/matériel pour plateformes reconfigurables dynamiquement

Ben Chehida, Karim 30 November 2004 (has links) (PDF)
On parle de plus en plus de systèmes (ou plateformes) reconfigurables qui intègrent sur un même substrat un ou plusieurs cœurs de processeurs et une matrice programmable (ex: Excalibur d'Altera, Virtex 2-Pro et Virtex 4-Fx de Xilinx). Par ailleurs, tout un champ technologique émerge actuellement dans le domaine de la reconfiguration dynamique. Le concepteur se retrouve face à des choix d'implantations logicielles (spécifiques ou génériques) et matérielles (figées ou reconfigurables) pour les différentes parties de l'application. Pour les prochaines générations de systèmes, la complexité croissante nécessite de faire appel à des méthodes et outils d'aide à la prise de décisions. Il est donc nécessaire d'étendre ou de repenser les approches de conception actuelles afin de les adapter aux possibilités offertes par les technologies reconfigurables.<br />Cette thèse propose une méthode automatique de partitionnement logiciel/matériel qui cible des systèmes mixtes logiciel et matériel reconfigurable dynamiquement et a pour objectif de minimiser le temps d'exécution global sous contrainte de surface maximale. Elle offre un flot complet à partir de la spécification au niveau système de l'application (écrite en SSM : formalisme graphique du langage synchrone Esterel) jusqu'à son raffinement vers les outils de niveau RTL. La méthode, basée sur un algorithme génétique, prend en compte les spécificités de l'architecture reconfigurable en ajoutant au partitionnement spatial (ou affectation) classique une étape de partitionnement temporel afin de distribuer dans le temps les configurations successivement implantées sur le reconfigurable. Les performances sont évaluées par une étape d'ordonnancement qui prend en compte les temps de communication et ceux dus aux changements de configurations.
69

Construction de dispositions didactiques chez le jeune enfant : des pratiques éducatives familiales – bébés nageurs et jeu a la maison – vers 'entrée dans les apprentissages scolaires a l'école maternelle

Roessle, Sophie 27 November 2009 (has links) (PDF)
L'époque contemporaine a vu croître la valeur donnée par notre société à la période de la petite enfance selon la considération grandissante de son impact sur la vie future de l'adulte. Se sont multipliées les activités préscolaires dont l'un des objectifs, plus ou moins explicite, est de favoriser l'adaptation à l'école maternelle. Face à ces constats, nous postulons que la pratique de l'activité aquatique d'éveil favorise la construction de dispositions à apprendre déjà mise en oeuvre dans le quotidien familial. Notre travail de recherche s'inscrit en didactique comparée. Il vise à identifier quel type de dispositions didactiques chaque enfant de nos trois études de cas développe dans sa famille, puis d'évaluer, par comparaison, leur capital d'adéquation avec le fonctionnement scolaire. Nous utilisons les concepts de la Théorie de l'Action Conjointe en Didactique et axons notre analyse sur la topogénèse afin de décrire le rôle de chacun lors de jeux ludiques (jeux sans enjeux d'apprentissage) évoluant en jeux didactiques. Nous concluons que, si les trois familles disent valoriser l'autonomie de leur enfant, chacune présente un fonctionnement didactique et un rapport aux règles définitoires et stratégiques du jeu didactique différents. Ceci développe inégalement chez l'enfant des dispositions à l'effectuation du jeu didactique et des dispositions à accepter la dévolution du problème. Les trois enfants arrivent alors à l'école maternelle avec un capital d'adéquation différent. Le plus élevé se caractérise par un développement équilibré entre les deux sortes de dispositions, avec une valorisation des dispositions à accepter la dévolution du problème
70

Conception conjointe optique/traitement pour un imageur compact à capacité 3D

Trouvé, Pauline 10 December 2012 (has links) (PDF)
Cette thèse traite de la conception d'un imageur monovoie passif capable de produire une carte de profondeur de la scène observée. Cet imageur est conçu en optimisant conjointement les paramètres de l'optique et des traitements, méthode désignée par le terme de co-conception ou de conception conjointe. La capacité 3D de cet imageur repose sur le concept de depth from defocus (DFD) qui consiste à estimer la profondeur à l'aide d'une estimation locale du flou de défocalisation. Ces travaux portent en premier lieu sur le développement d'un algorithme d'estimation locale de profondeur non supervisé et applicable à une famille étendue d'imageurs passifs monovoies. Puis deux concepts d'optique favorisant l'estimation de profondeur sont étudiés, du point de vue théorique et expérimental: l'utilisation d'une pupille codée ou d'une optique avec une aberration chromatique longitudinale non corrigée. La réalisation d'un imageur chromatique à capacité 3D est innovante et permet d'illustrer les avantages de cette solution en termes de précision et de région de l'espace où l'estimation de profondeur est possible. Un modèle de performance est ensuite proposé pour prédire la précision des imageurs utilisant la DFD en fonction des paramètres de l'optique, du capteur et des traitements. Ce modèle est utilisé pour la conception du premier imageur chromatique à capacité 3D co-conçu dont la réalisation a permis d'illustrer l'intérêt de la co-conception.

Page generated in 0.0331 seconds