• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 136
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1579
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 145
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Mood : un cadre d'applications pour le développement de décodeurs en traduction statistique

Patry, Alexandre January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
372

Algorithms for classifying recorded music by genre

Bergstra, James January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
373

Regularization methods for prediction in dynamic graphs and e-marketing applications / Méthodes régularisées pour la prédiction dans les graphes dynamiques et applications au e-marketing

Richard, Émile 21 November 2012 (has links)
La prédiction de connexions entre objets, basée soit sur une observation bruitée, soit sur une suite d'observations est un problème d'intérêt pour un nombre d'applications allant de la conception de système de recommandation en commerce électronique et réseaux sociaux jusqu'à l'inférence de réseaux en biologie moléculaire. Ce travail présente des formulations du problème de prédiction de lien, dans les cadres statique et temporel, comme un problème régularisé. Dans le scénario statique c'est la combinaison de deux normes bien connues, la norme L1 et la trace-norme qui permet de prédire les liens, alors que dans le cas dynamique, l'utilisation d'un modèle autoregressif sur des descripteurs linéaires permet d'améliorer la qualité de la prédiction. Nous étudierons la nature des solutions des problèmes d'optimisation à la fois en termes statistique et algorithmique. Des résultats empiriques encourageant mettent en évidence l'apport de la méthodologie adoptée. / Predicting connections among objects, based either on a noisy observation or on a sequence of observations, is a problem of interest for numerous applications such as recommender systems for e-commerce and social networks, and also in system biology, for inferring interaction patterns among proteins. This work presents formulations of the graph prediction problem, in both dynamic and static scenarios, as regularization problems. In the static scenario we encode the mixture of two different kinds of structural assumptions in a convex penalty involving the L1 and the trace norm. In the dynamic setting we assume that certain graph features, such as the node degree, follow a vector autoregressive model and we propose to use this information to improve the accuracy of prediction. The solutions of the optimization problems are studied both from an algorithmic and statistical point of view. Empirical evidences on synthetic and real data are presented showing the benefit of using the suggested methods.
374

Coping with the computational and statistical bipolar nature of machine learning

Machart, Pierre 21 December 2012 (has links)
L'Apprentissage Automatique tire ses racines d'un large champ disciplinaire qui inclut l'Intelligence Artificielle, la Reconnaissance de Formes, les Statistiques ou l'Optimisation. Dès les origines de l'Apprentissage, les questions computationelles et les propriétés en généralisation ont toutes deux été identifiées comme centrales pour la discipline. Tandis que les premières concernent les questions de calculabilité ou de complexité (sur un plan fondamental) ou d'efficacité computationelle (d'un point de vue plus pratique) des systèmes d'apprentissage, les secondes visent a comprendre et caractériser comment les solutions qu'elles fournissent vont se comporter sur de nouvelles données non encore vues. Ces dernières années, l'émergence de jeux de données à grande échelle en Apprentissage Automatique a profondément remanié les principes de la Théorie de l'Apprentissage. En prenant en compte de potentielles contraintes sur le temps d'entraînement, il faut faire face à un compromis plus complexe que ceux qui sont classiquement traités par les Statistiques. Une conséquence directe tient en ce que la mise en place d'algorithmes efficaces (autant en théorie qu'en pratique) capables de tourner sur des jeux de données a grande échelle doivent impérativement prendre en compte les aspects statistiques et computationels de l'Apprentissage de façon conjointe. Cette thèse a pour but de mettre à jour, analyser et exploiter certaines des connections qui existent naturellement entre les aspects statistiques et computationels de l'Apprentissage. / Machine Learning is known to have its roots in a broad spectrum of fields including Artificial Intelligence, Pattern Recognition, Statistics or Optimisation. From the earliest stages of Machine Learning, both computational issues and generalisation properties have been identified as central to the field. While the former address the question of computability, complexity (from a fundamental perspective) or computational efficiency (on a more practical standpoint) of learning systems, the latter aim at understanding and characterising how well the solutions they provide perform on new, unseen data. Those last years, the emergence of large-scale datasets in Machine Learning has been deeply reshaping the principles of Learning Theory. Taking into account possible constraints on the training time, one has to deal with more complex trade-offs than the ones classically addressed by Statistics. As a direct consequence, designing new efficient algorithms (both in theory and practice), able to handle large-scale datasets, imposes to jointly deal with the statistical and computational aspects of Learning. The present thesis aims at unravelling, analysing and exploiting some of the connections that naturally exist between the statistical and computational aspects of Learning. More precisely, in a first part, we extend the stability analysis, which relates some algorithmic properties to the generalisation abilities of learning algorithms, to a novel (and fine-grain) performance measure, namely the confusion matrix. In a second part, we present a novel approach to learn a kernel-based regression function, that serves the learning task at hand and exploits the structure of
375

Trafic régulé par les jonctions : un modèle stochastique motivé par le transport cytosquelettique / Traffic regulated by junctions : a stochastic model motivated by cytoskeletal transport

Raguin, Adélaïde 17 December 2013 (has links)
La modélisation du transport cytosquelettique contribue d'une part à la compréhension de phénomènes biologiques complexes associés à des fonctionnalités cellulaires vitales.D'autre part, cette approche adresse de nouvelles réflexions en physique fondamentale du transport dirigé d'un gaz de particules, en interactions de volume exclu, et hors équilibre thermodynamique.L'étude proposée est basée sur le modèle Totally Asymmetric Simple Exclusion Process (TASEP), traité en champ moyen, et dont les résultats sont comparés à des simulations de type Monte Carlo.En considérant que le transport sur l'ensemble du réseau cytosquelettique peut être régulé aux jonctions, on se focalise sur des motifs architecturaux simples, autour d'une jonction, à laquelle on s'intéresse à la régulation du transport par des effets cinétiques et topologiques.Ainsi, on construit une méthodologie de calcul analytique et numérique, motivée par des configurations de transport observées expérimentalement.L'analyse des caractéristiques cinétiques et topologiques aux croisements des filaments du cytosquelette, pour des situations de transport pourtant très différentes, conduit à formuler les mêmes modèles génériques.Notre travail apporte également un éclairage sur l'effet des moyennes sur les protofilaments au croisement de deux microtubules, qui est inhérent aux limites de résolution de l'imagerie expérimentale actuelle.La double approche, analytique et numérique, sur des modèles génériques ouvre de nombreuses perspectives, nous disposons notamment de tous les outils pour aborder le transport à un croisement plus réaliste de deux microtubules, en prenant en compte la connectivité à la jonction des treize protofilaments typiques, et la cinétique particulière des protéines motrices sur chacun d'eux. / Cytoskeletal transport modeling contributes to the understanding of complex biological phenomena that are associated to vital cell functions.In addition, this approach addresses new questions in fundamental physics related to the transport of a gas of particles, interacting by excluded volume, and out of equilibrium transport.The study is based on the Totally Asymmetric Simple Exclusion Process (TASEP) model, treated in a mean field approach, and the results are compared to Monte Carlo simulations.Considering that the transport on the whole network can be regulated at junctions, we focus on simple patterns with one junction, and we investigate the regulation of transport due to the local kinetics and topology.We build up an analytical and numerical methodology of calculation motivated by experimentally observed structures.The analysis of kinetic and topological characteristics at the crossings of filaments, even in very distinct situations, can lead to the same generic models.Our work also provides insights into the effects of averaging on protofilaments at crossing microtubules, as it is inherent to current imaging experiments.The double approach, analytical and numerical, on generic models, opens many prospects.Notably, we have at our disposal the tools to investigate transport through a more realistic crossing of two typical microtubules with thirteen protofilaments each, and to deal with the particular kinetics of motor proteins on these filaments.
376

Influence of Network topology on the onset of long-range interaction / Lien entre le seuil d'interaction à longue-portée et la topologie des réseaux.

De Nigris, Sarah 10 June 2014 (has links)
Dans cette thèse, nous discutons l'influence d'un réseau qui possède une topologie non triviale sur les propriétés collectives d'un modèle hamiltonien pour spins,le modèle $XY$, défini sur ces réseaux.Nous nous concentrons d'abord sur la topologie des chaînes régulières et du réseau Petit Monde (Small World), créé avec le modèle Watt- Strogatz.Nous contrôlons ces réseaux par deux paramètres $\gamma$, pour le nombre d' interactions et $p$, la probabilité de ré-attacher un lien aléatoirement.On définit deux mesures, le chemin moyen $\ell$ et la connectivité $C$ et nous analysons leur dépendance de $(\gamma,p)$.Ensuite,nous considérons le comportement du modèle $XY$ sur la chaîne régulière et nous trouvons deux régimes: un pour $\gamma<1,5$,qui ne présente pas d'ordre longue portée et un pour $\gamma>1,5$ où une transition de phase du second ordre apparaît.Nous observons l'existence d'un état ​​métastable pour $\gamma_ {c} = 1,5$. Sur les réseaux Petit Monde,nous illustrons les conditions pour avoir une transition et comment son énergie critique $\varepsilon_{c}(\gamma,p)$ dépend des paramètres $(\gammap$).Enfin,nous proposons un modèle de réseau où les liens d'une chaîne régulière sont ré-attachés aléatoirement avec une probabilité $p$ dans un rayon spécifique $r$. Nous identifions la dimension du réseau $d(p,r)$ comme un paramètre crucial:en le variant,il nous est possible de passer de réseaux avec $d<2$ qui ne présentent pas de transition de phase à des configurations avec $d>2$ présentant une transition de phase du second ordre, en passant par des régimes de dimension $d=2$ qui présentent des états caractérisés par une susceptibilité infinie et une dynamique chaotique. / In this thesis we discuss the influence of a non trivial network topology on the collective properties of an Hamiltonian model defined on it, the $XY$ -rotors model. We first focus on networks topology analysis, considering the regular chain and a Small World network, created with the Watt-Strogatz model. We parametrize these topologies via $\gamma$, giving the vertex degree and $p$, the probability of rewiring. We then define two topological parameters, the average path length $\ell$and the connectivity $C$ and we analize their dependence on $\gamma$ and $p$. Secondly, we consider the behavior of the $XY$- model on the regular chain and we find two regimes: one for $\gamma<1.5$, which does not display any long-range order and one for $\gamma>1.5$ in which a second order phase transition of the magnetization arises. Moreover we observe the existence of a metastable state appearing for $\gamma_{c}=1.5$. Finally we illustrate in what conditions we retrieve the phase transition on Small World networks and how its critical energy $\varepsilon_{c}(\gamma,p)$ depends on the topological parameters $\gamma$ and $p$. In the last part, we propose a network model in which links of a regular chain are rewired according to a probability $p$ within a specific range $r$. We identify a quantity, the network dimension $d(p,r)$ as a crucial parameter. Varying this dimension we are able to cross over from topologies with $d<2$ exhibiting no phase transitions to ones with $d>2$ displaying a second order phase transition, passing by topologies with dimension $d=2$ which exhibit states characterized by infinite susceptibility and macroscopic chaotic dynamical behavior.
377

Méthodes d'apprentissage statistique pour le criblage virtuel de médicament / Machine learning approaches for drug virtual screening

Playe, Benoit 02 July 2019 (has links)
Le processus de découverte de médicaments a un succès limité malgré tous les progrès réalisés. En effet, on estime actuellement que le développement d'un médicament nécessite environ 1,8 milliard de dollars américains sur environ 13 ans. Nous nous concentrons dans cette thèse sur des approches statistiques qui criblent virtuellement un grand ensemble de composés chimique contre un grand nombre de protéines. Leurs applications sont polyvalentes : elles permettent d’identifier des candidats médicaments pour des cibles thérapeutiques connues, d’anticiper des effets secondaires potentiels, ou de proposer de nouvelles indications thérapeutiques pour des médicaments connus. Cette thèse est conçue selon deux cadres d'approches de criblage virtuel : les approches dans lesquelles les données sont décrites numériquement sur la base des connaissances des experts, et les approches basées sur l'apprentissage automatique de la représentation numérique à partir du graphe moléculaire et de la séquence protéique. Nous discutons ces approches et les appliquons pour guider la découverte de médicaments. / The rational drug discovery process has limited success despite all the advances in understanding diseases, and technological breakthroughs. Indeed, the process of drug development is currently estimated to require about 1.8 billion US dollars over about 13 years on average. Computational approaches are promising ways to facilitate the tedious task of drug discovery. We focus in this thesis on statistical approaches which virtually screen a large set of compounds against a large set of proteins, which can help to identify drug candidates for known therapeutic targets, anticipate potential side effects or to suggest new therapeutic indications of known drugs. This thesis is conceived following two lines of approaches to perform drug virtual screening : data-blinded feature-based approaches (in which molecules and proteins are numerically described based on experts' knowledge), and data-driven feature-based approaches (in which compounds and proteins numerical descriptors are learned automatically from the chemical graph and the protein sequence). We discuss these approaches, and also propose applications of virtual screening to guide the drug discovery process.
378

Conception, développement et analyse de systèmes de fonction booléennes décrivant les algorithmes de chiffrement et de déchiffrement de l'Advanced Encryption Standard / Design, development and analysis of Boolean function systems describing the encryption and decryption algorithms of the Advanced Encryption Standard

Dubois, Michel 24 July 2017 (has links)
La cryptologie est une des disciplines des mathématiques, elle est composée de deux sous-ensembles: la cryptographie et la cryptanalyse. Tandis que la cryptographie s'intéresse aux algorithmes permettant de modifier une information afin de la rendre inintelligible sans la connaissance d'un secret, la seconde s'intéresse aux méthodes mathématiques permettant de recouvrer l'information originale à partir de la seule connaissance de l'élément chiffré.La cryptographie se subdivise elle-même en deux sous-ensembles: la cryptographie symétrique et la cryptographie asymétrique. La première utilise une clef identique pour les opérations de chiffrement et de déchiffrement, tandis que la deuxième utilise une clef pour le chiffrement et une autre clef, différente de la précédente, pour le déchiffrement. Enfin, la cryptographie symétrique travaille soit sur des blocs d'information soit sur des flux continus d'information. Ce sont les algorithmes de chiffrement par blocs qui nous intéressent ici.L'objectif de la cryptanalyse est de retrouver l'information initiale sans connaissance de la clef de chiffrement et ceci dans un temps plus court que l'attaque par force brute. Il existe de nombreuses méthodes de cryptanalyse comme la cryptanalyse fréquentielle, la cryptanalyse différentielle, la cryptanalyse intégrale, la cryptanalyse linéaire...Beaucoup de ces méthodes sont maintenues en échec par les algorithmes de chiffrement modernes. En effet, dans un jeu de la lance et du bouclier, les cryptographes développent des algorithmes de chiffrement de plus en plus efficaces pour protéger l'information chiffrée d'une attaque par cryptanalyse. C'est le cas notamment de l'Advanced Encryption Standard (AES). Cet algorithme de chiffrement par blocs a été conçu par Joan Daemen et Vincent Rijmen et transformé en standard par le National Institute of Standards and Technology (NIST) en 2001. Afin de contrer les méthodes de cryptanalyse usuelles les concepteurs de l'AES lui ont donné une forte structure algébrique.Ce choix élimine brillamment toute possibilité d'attaque statistique, cependant, de récents travaux tendent à montrer, que ce qui est censé faire la robustesse de l'AES, pourrait se révéler être son point faible. En effet, selon ces études, cryptanalyser l'AES se ``résume'' à résoudre un système d'équations quadratiques symbolisant la structure du chiffrement de l'AES. Malheureusement, la taille du système d'équations obtenu et le manque d'algorithmes de résolution efficaces font qu'il est impossible, à l'heure actuelle, de résoudre de tels systèmes dans un temps raisonnable.L'enjeu de cette thèse est, à partir de la structure algébrique de l'AES, de décrire son algorithme de chiffrement et de déchiffrement sous la forme d'un nouveau système d'équations booléennes. Puis, en s'appuyant sur une représentation spécifique de ces équations, d'en réaliser une analyse combinatoire afin d'y détecter d'éventuels biais statistiques. / Cryptology is one of the mathematical fields, it is composed of two subsets: cryptography and cryptanalysis. While cryptography focuses on algorithms to modify an information by making it unintelligible without knowledge of a secret, the second focuses on mathematical methods to recover the original information from the only knowledge of the encrypted element.Cryptography itself is subdivided into two subsets: symmetric cryptography and asymmetric cryptography. The first uses the same key for encryption and decryption operations, while the second uses one key for encryption and another key, different from the previous one, for decryption. Finally, symmetric cryptography is working either on blocks of information either on continuous flow of information. These are algorithms block cipher that interests us here.The aim of cryptanalysis is to recover the original information without knowing the encryption key and this, into a shorter time than the brute-force attack. There are many methods of cryptanalysis as frequency cryptanalysis, differential cryptanalysis, integral cryptanalysis, linear cryptanalysis...Many of these methods are defeated by modern encryption algorithms. Indeed, in a game of spear and shield, cryptographers develop encryption algorithms more efficient to protect the encrypted information from an attack by cryptanalysis. This is the case of the Advanced Encryption Standard (AES). This block cipher algorithm was designed by Joan Daemen and Vincent Rijmen and transformed into standard by the National Institute of Standards and Technology (NIST) in 2001. To counter the usual methods of cryptanalysis of AES designers have given it a strong algebraic structure.This choice eliminates brilliantly any possibility of statistical attack, however, recent work suggests that what is supposed to be the strength of the AES, could prove to be his weak point. According to these studies, the AES cryptanalysis comes down to ``solve'' a quadratic equations symbolizing the structure of the AES encryption. Unfortunately, the size of the system of equations obtained and the lack of efficient resolution algorithms make it impossible, at this time, to solve such systems in a reasonable time.The challenge of this thesis is, from the algebraic structure of the AES, to describe its encryption and decryption processes in the form of a new Boolean equations system. Then, based on a specific representation of these equations, to achieve a combinatorial analysis to detect potential statistical biases.
379

Sequence encoding in preverbal infants : an electrophysiological perspective / Représentations mentales de séquences chez le nourrisson : une approche en électrophysiologie

Kabdebon, Claire 13 December 2016 (has links)
A ce jour, seul le cerveau du nourrisson est capable d’appréhender et de maîtriser la complexité du langage humain. La recherche en psychologie du développement a investi beaucoup d’énergie pour tenter de percer le mystère de l’acquisition du langage, révélant d’impressionnantes capacités précoces permettant le traitement et la représentation de la parole. La récente émergence de techniques de neuro-imagerie non-invasives offre aujourd’hui de nouveaux outils et de nouvelles perspectives pour d’étude des mécanismes d’apprentissage du langage. Cette thèse a pour but d’explorer les mécanismes permettant l’acquisition et la représentation de structures linguistiques, grâce à une approche en électrophysiologie. La première partie de ce manuscrit consiste en une contribution méthodologique à la neuro-imagerie du développement. Sur la base de données acquises en imagerie par résonnance magnétique (IRM), nous avons localisé les positions du système international 10/20 pour le placement d’électrodes – utilisé aussi bien en électroencéphalographie (EEG) qu’en spectroscopie proche infra-rouge (NIRS) – par rapport aux structures cérébrales internes. Cette étude a permis de quantifier la variabilité interindividuelle de ces positions, mais également de construire un modèle de cerveau complété d’un atlas anatomique pour le nourrisson. Dans une seconde partie de cette thèse, grâce à l’EEG haute-densité, nous avons pu démontrer que dès 8 mois, les nourrissons étaient capables de mettre en œuvre de puissance mécanismes d’analyse statistique, permettant d’extraire les dépendances entre syllabes non-adjacentes, pour segmenter un flux continu de parole en unités distinctes. L’analyse des réponses neurales a révélé une hiérarchie de processus cérébraux soutenant le traitement des syllabes mais aussi des unités segmentées. Enfin, dans une dernière partie, nous proposons un paradigme expérimental permettant d’étudier non seulement l’extraction mais aussi la représentation de séquences linguistiques sous la forme d’expressions unifiées. Nous avons pu établir grâce à cette étude que dès 5 mois, les nourrissons étaient capables de former de solides représentations de séquences définies par des répétitions, leur permettant de catégoriser et manipuler plusieurs structures. Pour conclure, cette thèse vient compléter les études comportementales sur l’acquisition du langage, grâce à une approche des processus cérébraux soutenant l’apprentissage de séquences. La richesse du signal EEG a permis de mettre en évidence une hiérarchie de traitements complexes. / To this day, the infant brain is the only known learning system able to apprehend and master the complexity of the human language. Developmental psychologists have dedicated a lot of efforts to break down the mystery of language acquisition, revealing precocious and impressive abilities for processing and encoding speech sequences. The recent emergence of non-invasive neuroimaging techniques provides a new tool to explore language learning mechanisms from a different perspective. In the present thesis, we aimed at investigating the encoding mechanisms of the structural properties of a speech sequence from an electrophysiological perspective. In the first part of this thesis, we provided the developmental neuroimaging community with a methodological contribution. Based on magnetic resonance imaging (MRI) data, we virtually localized the standardized sensor placement system for both electroencephalography (EEG) and near infrared spectroscopy (NIRS) relative to the internal brain structures, and assessed their variability. We additionally provided an infant brain template with an anatomical atlas which will be valuable for studies in which individual anatomical information cannot be obtained. In the second part of this thesis, using high-density EEG, we demonstrated that 8 month-old infants could deploy powerful learning mechanisms for capturing the statistical dependencies between non-adjacent syllable units, in order to chunk a continuous speech stream. Interestingly, a hierarchy of neural processes tracked both the syllables and the chunked constituents of the sequence. Finally, in a third cognitive EEG study, we proposed an experimental design to assess infants’ ability to not only extract but also encode the structure of speech sequences into unified mental schemas. The results of this study established that 5 month-old infants could form robust mental representations for repetition-based sequences, allowing them to represent, categorize and operate on multiple structures. Inspection of various neural measurements revealed that several stages of the processing hierarchy were affected by the acquired mental representations. Overall, this thesis complements behavioral research on language acquisition with a window onto the early neural mechanisms allowing sequence encoding, revealing a hierarchy of increasingly complex computations in the encoding of linguistic structures.
380

Vérification de la validité du concept de surface somme par une approche statistique du contact élastique entre deux surfaces rugueuses / Validity study of the sum surface concept using a statistical approach of elastic contact between two rough surfaces

Tran, Ich tach 26 January 2015 (has links)
Les propriétés de surface, particulièrement microgéométriques, jouent un rôle essentiel dans tous les systèmes tribologiques. L’analyse de la répartition des efforts de contact dans l’interface entre surfaces rugueuses est indispensable à la prédiction du frottement, de l'usure, de l'adhérence, des résistances de contact électrique et thermique… De nombreux modèles ont été proposés ces dernières décennies pour prédire les efforts entre aspérités de surfaces rugueuses. Parmi ces modèles, les modèles statistiques sont majoritairement développés en considérant le contact ente une surface rugueuse équivalente, la surface somme - qui tient compte des microgéométries des deux surfaces en contact ainsi que de leur matériau - et un plan lisse. Cependant la validité de cette modélisation n’a pas été clairement démontrée. L’objectif de notre étude a été de développer un modèle statistique de contact entre deux surfaces rugueuses isotropes aléatoires puis de comparer les résultats obtenus pour ces deux surfaces avec ceux obtenus en considérant la surface somme définie classiquement à partir des deux surfaces rugueuses et un plan lisse. Les différences entre les résultats nous ont amenés à proposer une nouvelle modélisation de la surface somme. / Surface properties, particularly micro-geometry, play a key role in all tribological systems. The analysis of the distribution of contact forces in the interface between rough surfaces is essential for the prediction of friction, wear, adhesion, electrical and thermal contact resistance... Many models have been proposed during the last decades to predict the forces between asperities of rough surfaces. Among these models, statistical models are mainly based on the contact between an equivalent rough surface, the sum surface - which combines micro-geometry of the two surfaces in contact and their material - and a smooth plane. However, the validity of this model has not been clearly demonstrated. The aim of our study was to develop a statistical model of the contact between two random isotropic rough surfaces and then compare the results with those obtained by considering the classical sum surface. The differences between the results have led us to propose a new definition for the sum surface.

Page generated in 0.0171 seconds