• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 28
  • 9
  • Tagged with
  • 98
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
12

Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation / Inversion pour image texturée : déconvolution myope non supervisée, choix de modèles, déconvolution-segmentation

Văcar, Cornelia Paula 19 September 2014 (has links)
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence. / This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods.
13

Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TV

Abboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
14

Estimation et suivi de temps de retard pour la tomographie acoustique océanique

Porée, Fabienne 12 July 2001 (has links) (PDF)
En TAO des ondes sont transmises dans le milieu marin conduisant à l'observation de plusieurs versions du signal émis diversement atténuées et retardées. On s'intéresse ici au problème de l'estimation de ces temps de retard. Les méthodes de type maximum de vraisemblance présentent l'inconvénient de nécessiter la connaissance a priori du nombre de trajets et sont sensibles à une mauvaise initialisation des paramètres. Afin de s'affranchir de ces limitations, on propose une approche bayésienne basée sur la prise en compte d'une information a priori concernant les amplitudes des trajets reçus. On propose alors 2 méthodes différentes de déconvolution. La première utilise comme information la sortie d'un récepteur quadratique et conduit à la minimisation d'un critère simple et de faible complexité. Dans la seconde méthode proposée, le signal est observé après le filtrage adapté. On introduit un modèle Bernoulli Gaussien et le problème est résolu en utilisant des simulations de Monte-Carlo. La mise en œuvre de ces deux méthodes sur des données réelles impose de prendre en compte les distorsions subies par le signal au niveau des transducteurs d'émission et de réception et éventuellement lors de la propagation. On indique comment cette méconnaissance de la forme d'onde peut être résolue et on met en évidence l'amélioration des résultats obtenus par cette prise en compte. Enfin, l'évolution modérée des temps de retard du canal de propagation entre des mesures successives permet d'envisager après la déconvolution trace par trace un traitement bidimensionnel de l'image obtenue en juxtaposant les traces déconvoluées successives. L'intérêt principal de la méthode ainsi obtenue est de ne pas considérer le nombre de trajets de la propagation constant. L'ensemble des méthodes développées est testé sur des données synthétiques, puis sur 2 types de données réelles.
15

Caractérisation, analyse et interprétation des données de gradiométrie en gravimétrie

Pajot, Gwendoline 27 September 2007 (has links) (PDF)
La mesure des dérivées spatiales du champ de pesanteur, ou gradiométrie en gravimétrie, est née au début du XXe siècle avec la balance de torsion d'Eötvös, premier gradiomètre. Utilisée avec succès pour la prospection géophysique, cette technique fut cependant délaissée pour un temps au profit de la gravimétrie, plus facile et moins coûteuse. Cependant, les développements instrumentaux en gradiométrie ont continué, et les gradiomètres actuels permettent la mesure simultanée des gradients de pesanteur dans trois directions indépendantes de l'espace. La gradiométrie en gravimétrie connaît ainsi une renaissance, et l'Agence Spatiale Européenne lancera en 2008 le satellite GOCE, avec à son bord le premier gradiomètre spatial, permettant la cartographie globale de la pesanteur avec une résolution spatiale sans précédent. Cette étude est consacrée au signal de gradiométrie en gravimétrie, de l'acquisition des données à leur interprétation. Plus spécifiquement, dérivant d'un même potentiel, l'accélération de la pesanteur et ses dérivées peuvent être considérées comme des mesures interdépendantes d'une même quantité. Nous avons élaboré une méthode permettant, en exploitant cette redondance, de réduire le bruit dans les données de gradiométrie et, plus efficacement, dans celles de gravimétrie. Nous utilisons également une propriété spécififique des gradients de pesanteur, l'existence d'invariants scalaires combinant les différents gradients, que nous relions à la géométrie des sources à l'origine des anomalies de pesanteur. Nous avons ainsi développé une méthode, complémentaire à la déconvolution d'Euler des données de gravimétrie, qui améliore la localisation de ces sources.
16

Déconvolution Multicanale et Détection de Sources en utilisant des représentations parcimonieuses : application au projet Fermi

Schmitt, Jeremy 07 December 2011 (has links) (PDF)
Ce mémoire de thèse présente de nouvelles méthodologies pour l'analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l'étude du fond diffus galactique et l'établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l'instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l'interpolation de données manquantes, à l'extraction d'un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting).
17

Détection de filaments dans des images 2D et 3D : modélisation, étude mathématique et algorithmes

Baudour, Alexis 18 May 2009 (has links) (PDF)
Cette thèse aborde le problème de la modélisation et de la détection des filaments dans des images 3D. Nous avons développé des méthodes variationnelles pour quatre applications spécifiques : l'extraction de routes où nous avons introduit la notion de courbure totale pour conserver les réseaux réguliers en tolérant les discontinuités de direction ; la détection et la complétion de filaments fortement bruités et présentant des occultations. Nous avons utilisé la magnétostatique et la théorie de Ginzburg-Landau pour représenter les filaments comme ensemble de singularités d'un champ vectoriel ; la détection de filaments dans des images biologiques acquises en microscopie confocale. On modélise les filaments en tenant compte des spécificités de cette dernière. Les filaments sont alors obtenus par une méthode de maximum à posteriori ; la détection de cibles dans des séquences d'images infrarouges. Dans cette application, on cherche des trajectoires optimisant la différence de luminosité moyenne entre la trajectoire et son voisinage en tenant compte des capteurs utilisés. Par ailleurs, nous avons démontré des résultats théoriques portant sur la courbure totale et la convergence de la méthode d'Alouges associée aux systèmes de Ginzburg-Landau. Ce travail réunit à la fois modélisation, résultats théoriques et recherche d'algorithmes numériques performants permettant de traiter de réelles applications.
18

Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques.

Anthoine, Sandrine 05 August 2005 (has links) (PDF)
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
19

Vitesses et procédures statistiques minimax dans des problèmes d'estimation et des tests d'hypothèses

Gayraud, Ghislaine 06 December 2007 (has links) (PDF)
Mes travaux s'articulent autour de trois thématiques. <br />La première thèmatique porte sur la résolution via l'approche minimax de divers problèmes d'estimation et de tests d'hypothèses dans un cadre non-paramétrique. <br />En statistique Bayésienne non-paramétrique, je me suis intéressée à un problème d'estimation d'ensembles à niveau. Les résultats obtenus résultent de l'étude des propriétés asymptotiques d'estimation Bayésienne d'ensembles à niveau. Ce sont des résultats généraux au sens où la consistance et la vitesse de convergence de l'estimateur Bayésien sont établies pour une large classe de lois a priori. <br />La troisième thématique concerne un problème d'estimation paramétrique dans un modèle de déconvolution aveugle bruitée : il s'agit de restituer la loi du signal entrant. La consistance ainsi que la distribution asymptotique d'une nouvelle procédure d'estimation sont établies.
20

Étude des artefacts de flou, ringing et aliasing en imagerie numérique : application à la restauration

Blanchet, Gwendoline 17 November 2006 (has links) (PDF)
Cette thèse aborde les problèmes liés à la formation des images numériques. L'étape d'échantillonnage nécessaire à la formation d'une image discrète à partir d'une image continue peut introduire différents types d'artefacts qui constituent des dégradations majeures de la qualité de l'image. La motivation principale de cette thèse a été l'étude de ces artefacts que sont le flou, le ringing et l'aliasing. Dans la première partie, nous rappelons tout d'abord le processus de formation des images numériques puis nous proposons des définitions de ces artefacts. Dans la deuxième partie, nous définissons une mesure conjointe du flou et du ringing dans le cadre d'un filtrage passe bas précédant l'échantillonnage. La troisième partie est dédiée à la détection automatique de ces artefacts dans les images. Enfin, en quatrième partie, la détection automatique est testée dans des applications concrètes de la restauration d'images: la déconvolution aveugle et le débruitage.

Page generated in 0.1013 seconds