• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • Tagged with
  • 13
  • 13
  • 13
  • 13
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Recherche d'information dynamique pour domaines complexes

Joganah, Robin 30 April 2018 (has links)
Dans ce mémoire, nous traitons du sujet de la recherche d’information dynamique en milieu complexe. Celle-ci a pour but d’inclure l’utilisateur dans la boucle. Ainsi, l’utilisateur a la possibilité d’interagir avec le système en surlignant les passages pertinents et en indiquant le degré d’importance selon ses intérêts. Dans le domaine de la recherche d’information, les milieux complexes peuvent être définis comme des corpus de textes au sein desquels il est difficile de trouver une information à partir d’une requête générale. Par exemple, si l’utilisateur effectuait une recherche sur les impacts du virus Ebola durant la crise en Afrique en 2014-2015, il pourrait être intéressé par différents aspects liés à ce virus (économiques, de santé publique, etc.). Notre objectif est de modéliser ces différents aspects et de diversifier les documents présentés, afin de couvrir le maximum de ses intérêts. Dans ce mémoire, nous explorons différentes méthodes de diversification des résultats. Nous réalisons une étude de l’impact des entités nommées et des mots-clés contenus dans les passages issus du retour de l’utilisateur afin de créer une nouvelle requête qui affine la recherche initiale de l’utilisateur en trouvant les mots les plus pertinents par rapport à ce qu’il aura surligné. Comme l’interaction se base uniquement sur la connaissance acquise durant la recherche et celle-ci étant courte, puisque l’utilisateur ne souhaite pas une longue phase d’annotation, nous avons choisi de modéliser le corpus en amont, via les « word embeddings » ou plongements lexicaux, ce qui permet de contextualiser les mots et d’étendre les recherches à des mots similaires à notre requête initiale. Une approche de recherche dynamique doit, en outre, être capable de trouver un point d’arrêt. Ce point d’arrêt doit amener un équilibre entre trop peu et trop plein d’information, afin de trouver un bon compromis entre pertinence et couverture des intérêts.
2

Git pour l'évaluation et le suivi du travail collaboratif favorisant le développement des compétences transversales

Ntirandekura, Mélissa Clarisse 23 January 2019 (has links)
Le travail en équipe est un des moyens pour développer les compétences transversales attendues dans l’industrie, en particulier dans le domaine informatique. Aussi, au cours d’une formation académique, c’est l’une des occasions où l’étudiant a l’opportunité de les développer. Cependant, la réussite d’un travail en équipe dépend entre autres du choix des outils facilitant le travail collaboratif, l’organisation, la collaboration et la gestion des conflits. La possibilité de pouvoir évaluer objectivement aussi bien le travail individuel que celui collaboratif des membres de l’équipe doit davantage faire partie de ce choix. Cette évaluation peut en l’occurrence être faite en termes de contributions. Parmi ces outils nous proposons de retenir le système de gestion de version Git. En effet, c’est un des systèmes les plus utilisés dans l’industrie et permet d’en tirer de nombreux avantages autant pour les étudiants que pour les enseignants, sans oublier les possibilités de minimisation des coûts reliés au matériel didactique. Aussi, l’utilisation de Git dans le cadre de travaux d’équipe, donne accès à toute l’information relative aux activités qui sont consignées dans son historique. En effet toute action est associée à son auteur, à la date à laquelle elle a été effectuée. En disposant de ces données, il s’agit alors de définir les critères à appliquer pour faire une analyse et établir un jugement. Nous proposons dans ce mémoire un inventaire des critères d’évaluation potentiels et identifions les plus pertinents en termes d’évaluation de la régularité et de contribution quantitative en tenant compte des biais qu’ils peuvent induire. Aussi, une des difficultés que peuvent rencontrer les enseignants au moment de produire une évaluation est non seulement de pouvoir évaluer les contributions, mais également de pouvoir en faire un suivi régulier, tout particulièrement lorsque les équipes sont nombreuses. Nous proposons alors un outil de support basé sur les critères que nous avons identifiés offrant un aperçu général et facilitant l’accès aux détails. Son évaluation dans le cadre d’un cours nous a permis d’identifier différents profils d’équipe ainsi que les limites d’utilisation d’un tel outil pour établir un jugement. / Teamwork is one of the ways to develop the transversal competencies expected in industry, especially in the field of Information Technology. However, the success of teamwork during programming courses depends on the choice of tools that facilitates collaborative work, organization and conflict management. Objectively evaluating both the individual and the collaborative work must be a great part of this choice. Among these tools, we propose to retain the version control system Git. Indeed, it is one of the most used systems in the industry and reaps many benefits for both students and teachers, including the minimization of cost of educational materials. Also, Git facilitates teamwork’s evaluation by giving access to information recorded in its history. It then becomes necessary to define the criteria to be applied to make an analysis and a judgment. We propose in this thesis an inventory of the potential evaluation criteria and identify the most relevant ones in terms of evaluation of the regularity and quantitative contribution considering the biases that they induce. Moreover, one of the difficulties that teachers may encounter when producing an assessment is not only to evaluate contributions, but also to be able to monitor them regularly, especially when teams are numerous. We then recommend a support tool based on the criteria we identified, offering a general overview and facilitating access to details. Its evaluation as part of a course allowed us to identify different team profiles as well as the limits to use of such a tool to make a judgment.
3

Completeness for domain semirings and star-continuous Kleene algebras with domain

Mbacke, Sokhna Diarra 20 December 2018 (has links)
Due to their increasing complexity, today’s computer systems are studied using multiple models and formalisms. Thus, it is necessary to develop theories that unify different approaches in order to limit the risks of errors when moving from one formalism to another. It is in this context that monoids, semirings and Kleene algebras with domain were born about a decade ago. The idea is to define a domain operator on classical algebraic structures, in order to unify algebra and the classical logics of programs. The question of completeness for these algebras is still open. It constitutes the object of this thesis. We define tree structures called trees with a top and represented in matrix form. After having given fundamental properties of these trees, we define relations that make it possible to compare them. Then, we show that, modulo a certain equivalence relation, the set of trees with a top is provided with a monoid with domain structure. This result makes it possible to define a model for semirings with domain and prove its completeness. We also define a model for -continuous Kleene algebras with domain as well and prove its completeness modulo a new axiom.
4

Complétude pour les demi-anneaux et algèbres de Kleene étoile-continues avec domaine

Mbacke, Sokhna Diarra 14 August 2018 (has links)
À cause de la complexité croissante des systèmes informatiques, ces derniers sont aujourd’hui étudiés au moyen de multiples modèles et formalismes. Ainsi, il est nécessaire de développer des théories qui unifient différentes approches aafn de limiter les risques d’erreurs lorsqu’on passe d’un formalisme à l’autre. C’est dans cette optique que les monoïdes avec domaine, demi-anneaux avec domaine et algèbres de Kleene avec domaine ont vu le jour, il y a environ une décennie. L’idée est de définir un opérateur de domaine sur des structures algébriques classiques, afin d’unifier l’algèbre et la logique des programmes. La question concernant la complétude pour ces algèbres est encore ouverte. Elle constitue l’objet de ce mémoire. Nous définissons des structures arborescentes appelées arbres avec sommet et représentées sous forme matricielle. Après avoir donné des propriétés fondamentales de ces arbres, nous définissons des relations permettant de les comparer. Ensuite, nous démontrons que, modulo une certaine relation d’équivalence, l’ensemble des arbres avec sommet est muni d’une structure de monoïde avec domaine. Ce résultat permet de définir un modèle pour les demi-anneaux avec domaine et d’en prouver la complétude. Nous définissons également un modèle pour les algèbres de Kleene avec domaine -continues et prouvons la complétude de ce dernier modulo un nouvel axiome. / Due to their increasing complexity, today’s computer systems are studied using multiple models and formalisms. Thus, it is necessary to develop theories that unify different approaches in order to limit the risks of errors when moving from one formalism to another. It is in this context that monoids, semirings and Kleene algebras with domain were born about a decade ago. The idea is to define a domain operator on classical algebraic structures, in order to unify algebra and the classical logics of programs. The question of completeness for these algebras is still open. It constitutes the object of this thesis. We define tree structures called trees with a top and represented in matrix form. After having given fundamental properties of these trees, we define relations that make it possible to compare them. Then, we show that, modulo a certain equivalence relation, the set of trees with a top is provided with a monoid with domain structure. This result makes it possible to define a model for semirings with domain and prove its completeness. We also define a model for -continuous Kleene algebras with domain as well and prove its completeness modulo a new axiom.
5

Système de tableaux de bord personnalisables pour l'optimisation et l'aide à la décision

Bouchard, Jean 28 March 2019 (has links)
La planification des opérations dans un contexte industriel est une tâche complexe. Une bonne solution est difficile à obtenir, puisqu’elle doit respecter bon nombre de contraintes. Trouver la solution optimale est encore plus ardu. Pour ce faire, les entreprises ont recours à toutes sortes de méthodes, dont l’utilisation de modèles mathématiques d’optimisation. Bien que ces modèles fournissent une solution optimale, ils ne sont généralement qu’une approximation de la réalité. Pour pallier cette situation, nous proposons un système de tableaux de bord personnalisables permettant l’ajout facile et dynamique de préférences de la part du décideur. Comme l’ajout successif de préférences peut mener à la situation où chaque nouvelle préférence efface les précédentes, le décideur peut ne jamais obtenir la solution désirée même si elle existe. Pour contrer cette limitation, nous proposons une méthode permettant d’imposer des préférences pour les modifications futures. Ceci permet donc au décideur de converger rapidement vers la solution désirée. Une série d’expérimentations montre que l’utilisation d’un solveur offrira une plus grande diversité de solutions que l’utilisation de notre méthode si plusieurs préférences sont imposées. Cependant, le temps requis pour trouver des solutions par notre méthode est largement inférieur au temps nécessaire par un solveur. Le système de tableau de bord que nous avons développé permet uniquement l’utilisation de modèles linéaires, cependant les modèles à nombre entiers sont largement utilisés par les entreprises. Pour étendre l’utilisation de notre système, nous proposons une extension à l’approche originale qui permet l’utilisation de modèles à nombre entiers avec notre système de tableau de bord.
6

Optimisation de la consommation d'énergie dans un environnement Cloud

Choukairy, Fatima Ezzahra 21 November 2018 (has links)
Depuis une dizaine d'années, la dématérialisation de l'information connaît un essor particulier avec l'ascension du Cloud Computing. La demande sans cesse croissante et le souci de fournir une certaine qualité de service obligent les fournisseurs à investir d'importants capitaux afin de multiplier leurs offres d'hébergement dans plusieurs zones géographiques. Avec ce déploiement à grande échelle d'énormes centres de données, la consommation énergétique du Cloud augmente en conséquence. De ce fait, plusieurs études portant sur la minimisation de la consommation énergétique du Cloud ont été récemment effectuées, en considérant les différentes techniques de réduction de l'énergie consommée. Ce mémoire propose une méthode basée sur l'intégration d'un algorithme d'ordonnancement, d'une technique de réduction de tension et de fréquence du processeur de chaque serveur (appelée DVFS pour Dynamic Voltage and Frequency Scaling), ainsi que du processus de migration des machines virtuelles (VMs). Cette méthode vise à minimiser la consommation de l'énergie dans un environnement Cloud, tout en respectant les exigences de qualité de service. Ce travail de recherche est réalisé en trois phases. Dans la première phase, nous menons une étude sur les différentes techniques de minimisation de la consommation d'énergie. Dans la deuxième phase, nous analysons ces techniques et proposons une méthode basée sur la combinaison de l'algorithme d'ordonnancement Green Scheduler, de la technique DVFS et de la migration des VMs. Afin d'évaluer l'efficacité de cette méthode, nous effectuons, dans la troisième phase, une mise en œuvre et une analyse des résultats issus de trois séries de simulations. Ces résultats montrent que la méthode proposée est en mesure de réduire l'énergie consommée par les serveurs d'une moyenne de 5% par rapport à l'utilisation d'autres méthodes de la littérature. Cette réduction peut atteindre 7.5% dans certaines circonstances. Les résultats de simulations montrent également que la méthode proposée permet de respecter les exigences de qualité de services dans toutes les conditions de fonctionnement du Cloud. / The last decade has witnessed a rapid rise in Cloud Computing usage, which has led to the dematerialization of data centers. The increased use of data centers has an impact on the energy consumption. Therefore, several studies relating to the optimization of energy consumption were recently carried out, hence various techniques aiming to reduce the power consumption were adopted. In this thesis, we propose a method based on the integration of a scheduling algorithm, the DVFS technique and the virtual machine (VM) migration. This method aims to minimize the consumption of energy in a Cloud environment subject to the quality of service. For this purpose, we firstly conduct a study on different techniques which aim to minimize energy consumption. Secondly, we analyze these techniques and propose a method based on the combination of the Green Scheduler algorithm, the DVFS technique and the VM migration. Thirdly, we choose Green Scheduler to perform three sets of simulations. Simulation results show that the proposed method is able to reduce the energy consumed by the servers by an average of 5% compared to the use of other existing methods. This reduction can reach 7.5% under certain circumstances. Such results also show that the proposed method always meets the quality of service requirements. / Ajustement dynamique de la tension
7

Apprentissage automatique avec garanties de généralisation à l'aide de méthodes d'ensemble maximisant le désaccord

Roy, Jean-Francis 03 May 2018 (has links)
Nous nous intéressons au domaine de l’apprentissage automatique, une branche de l’intelligence artificielle. Pour résoudre une tâche de classification, un algorithme d’apprentissage observe des données étiquetées et a comme objectif d’apprendre une fonction qui sera en mesure de classifier automatiquement les données qui lui seront présentées dans le futur. Plusieurs algorithmes classiques d’apprentissage cherchent à combiner des classificateurs simples en construisant avec ceux-ci un classificateur par vote de majorité. Dans cette thèse, nous explorons l’utilisation d’une borne sur le risque du classificateur par vote de majorité, nommée la C-borne. Celle-ci est définie en fonction de deux quantités : la performance individuelle des votants, et la corrélation de leurs erreurs (leur désaccord). Nous explorons d’une part son utilisation dans des bornes de généralisation des classificateurs par vote de majorité. D’autre part, nous l’étendons de la classification binaire vers un cadre généralisé de votes de majorité. Nous nous en inspirons finalement pour développer de nouveaux algorithmes d’apprentissage automatique, qui offrent des performances comparables aux algorithmes de l’état de l’art, en retournant des votes de majorité qui maximisent le désaccord entre les votants, tout en contrôlant la performance individuelle de ceux-ci. Les garanties de généralisation que nous développons dans cette thèse sont de la famille des bornes PAC-bayésiennes. Nous généralisons celles-ci en introduisant une borne générale, à partir de laquelle peuvent être retrouvées les bornes de la littérature. De cette même borne générale, nous introduisons des bornes de généralisation basées sur la C-borne. Nous simplifions également le processus de preuve des théorèmes PAC-bayésiens, nous permettant d’obtenir deux nouvelles familles de bornes. L’une est basée sur une différente notion de complexité, la divergence de Rényi plutôt que la divergence Kullback-Leibler classique, et l’autre est spécialisée au cadre de l’apprentissage transductif plutôt que l’apprentissage inductif. Les deux algorithmes d’apprentissage que nous introduisons, MinCq et CqBoost, retournent un classificateur par vote de majorité maximisant le désaccord des votants. Un hyperparamètre permet de directement contrôler leur performance individuelle. Ces deux algorithmes étant construits pour minimiser une borne PAC-bayésienne, ils sont rigoureusement justifiés théoriquement. À l’aide d’une évaluation empirique, nous montrons que MinCq et CqBoost ont une performance comparable aux algorithmes classiques de l’état de l’art. / We focus on machine learning, a branch of artificial intelligence. When solving a classification problem, a learning algorithm is provided labelled data and has the task of learning a function that will be able to automatically classify future, unseen data. Many classical learning algorithms are designed to combine simple classifiers by building a weighted majority vote classifier out of them. In this thesis, we extend the usage of the C-bound, bound on the risk of the majority vote classifier. This bound is defined using two quantities : the individual performance of the voters, and the correlation of their errors (their disagreement). First, we design majority vote generalization bounds based on the C-bound. Then, we extend this bound from binary classification to generalized majority votes. Finally, we develop new learning algorithms with state-of-the-art performance, by constructing majority votes that maximize the voters’ disagreement, while controlling their individual performance. The generalization guarantees that we develop in this thesis are in the family of PAC-Bayesian bounds. We generalize the PAC-Bayesian theory by introducing a general theorem, from which the classical bounds from the literature can be recovered. Using this same theorem, we introduce generalization bounds based on the C-bound. We also simplify the proof process of PAC-Bayesian theorems, easing the development of new families of bounds. We introduce two new families of PAC-Bayesian bounds. One is based on a different notion of complexity than usual bounds, the Rényi divergence, instead of the classical Kullback-Leibler divergence. The second family is specialized to transductive learning, instead of inductive learning. The two learning algorithms that we introduce, MinCq and CqBoost, output a majority vote classifier that maximizes the disagreement between voters. An hyperparameter of the algorithms gives a direct control over the individual performance of the voters. These two algorithms being designed to minimize PAC-Bayesian generalization bounds on the risk of the majority vote classifier, they come with rigorous theoretical guarantees. By performing an empirical evaluation, we show that MinCq and CqBoost perform as well as classical stateof- the-art algorithms.
8

Environnements personnels d'apprentissage : modélisation multi-agents d'un support de construction

N'dongo, Harouna 21 November 2018 (has links)
À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage (EPA). Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressource s. L’objectif du présent mémoire est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus. La solution proposée est basée sur le concept des systèmes multi-agents et repose sur le modèle organisationnel Agent - Groupe - Rôle. Un prototype a également été implémenté et a permis de démontrer la faisabilité de la solution proposée. / With Web 2.0, the university community have developed new learning practices. Students adopt practices for integrating their social activities into their learning process. The needs of learners are rapidly changed and institutions do not still offer resources totally adapted to this context. Students expect to have access to a vast amount of information through formal or informal tools and to be part of a global peer community. The need to combine institutional and personal resources implies a new concept: Personal Learning Environment (PLE). A PLE is defined as a space for learners to customize the aggregation of heterogeneous resources for their learning needs. Developing such environments requires the involvement of complex skills that higher education students, though described as digital natives, do not necessarily possess. The objective of this research work is to allow students to have support for the construction of their PLE as a dashboard. It would provide an up - to - date view of resources use and further exploit the resulting linkages. The proposed solution is based on the Agent - Group - Role organizational model, one of design method for multi-agent systems. A prototype was also implemented and allowed to demonstrate the feasibility of the proposed solution.
9

Modèle d'exploitation de flux d'événements complexes (CEP) par des patrons spatiotemporels agrégés dans un contexte de réseau de distribution énergétique

Mahdi, Khouloud 18 May 2018 (has links)
Dans le domaine de l’internet des objets, nos recherches se sont focalisées sur l’étude des corrélations entre les données générées par des réseaux de capteurs. Ces données sont généralement collectées par des systèmes d’acquisition et se caractérisent par une grande vélocité et un fort volume. Les décideurs ont besoin d’outils permettant de détecter les situations d’intérêt au meilleur moment pour la prise de décision. Nous partons des travaux de doctorat de F.Barouni (2016) qui a proposé une extension du modèle et des outils de traitement d’événements complexes (CEP) pour répondre aux enjeux relatifs à la vélocité et au volume de ces données. Barouni a proposé une approche de représentation et de détection de patrons spatiotemporels pour représenter les situations d’intérêt. Notre but est de concevoir un outil destiné à gérer ces données et à fouiller des corrélations potentielles entre elles, en tenant compte des données contextuelles. Dans ce mémoire, nous proposons une approche théorique qui utilise les graphes conceptuels afin d’améliorer l’approche de Barouni en permettant de modéliser plusieurs types de relations spatiales. Dans ce contexte, nous avons proposé une extension des relations spatiales en tenant compte des éléments composant un réseau en lien avec l’espace géographique sous-jacent. En effet, notre modèle prend en compte, la représentation spatiale du réseau, la projection du réseau dans l’espace géographique sous-jacent et toutes les relations spatiales qui en découlent. Nous proposons aussi une extension au formalisme de représentation des patrons en ajoutant une structure du résumé et de contraintes du patron (graphes conceptuels) pour pouvoir modéliser des relations spatiales entre des patrons de complexité croissante. Nous avons développé un outil de détection de patrons en utilisant une approche de CEP itérative. Notre outil utilise plusieurs CEPs pour pouvoir détecter des patrons de différents degrés de complexité. Nous avons démontré la pertinence de notre approche par l’étude des événements de reconfiguration dans un réseau de distribution électrique. Notre approche est assez générique pour être applicable dans d’autres domaines d’application, tels que les réseaux de fibres optiques.
10

Plateforme logicielle ouverte pour le développement d'algorithmes de planification des opérations

Attik, Yassine 30 August 2018 (has links)
L’optimisation combinatoire concerne la résolution de problèmes pour lesquels les variables prennent des valeurs discrètes et sur lesquelles s’appliquent des contraintes. L’ensemble des variables et des contraintes définissent un modèle représentant le problème. Un très grand nombre de problèmes industriels peuvent être représentés sous cette forme. Un logiciel qui prend un modèle en entrée et produit une solution est appelé solveur. La programmation par contraintes (PPC) est l’une des techniques algorithmiques pouvant être utilisée par ces solveurs. Dans ce mémoire, nous développons un nouveau solveur. L’objectif premier est de compter sur un solveur facilement modifiable dans le but d’y ajouter de nouvelles approches de résolution développées par les chercheurs. De plus, dans le but de démontrer l’utilité du solveur, nous développons une approche exploitant ce solveur dans le but de générer des patrons de chargement alternatifs pour un séchoir à bois utilisé par l’industrie des produits forestiers. Finalement, nous présentons dans ce mémoire une nouvelle technique pour résoudre avec plus d’efficience certains problèmes de PPC. Les algorithmes de filtrage associés aux contraintes sont typiquement déclenchés en fonction d’événements qui se produisent lors de la résolution du problème. Nous proposons un nouvel événement qui permet d’effectuer du filtrage tardif des variables. Nous montrons que, pour un problème classique d’optimisation combinatoire (Balanced Incomplete Block Design), il donne une meilleure performance tout en maintenant le même niveau de filtrage par rapport à l’utilisation des événements classiques. / Combinatorial optimization concerns the solving of problems for which the variables take discrete values and on which constraints apply. The set of variables and constraints form the model of the problem. A lot of industrial problems can be represented in this form. A solver is a software that takes as input a model and produces a solution. Constraint programming (CP) is one of the algorithmic techniques that can be used within a solver. In this master’s thesis, we develop a new solver. The primary objective is to rely on an easily modifiable solver in order to add new resolution approaches developed by researchers. Moreover, in order to demonstrate the utility of the solver, we develop an approach using that solver in order to generate alternative loading patterns for a kiln in the forest industry. Finally, in this master’s thesis, we present a new technique for solving some CP problems. The filtering algorithms are triggered according to events that occur when solving the problem. We propose a new event that allows to perform a lazy filtering of the variables. We demonstrate, on a classical combinatorial optimization problem (Balanced Incomplete Block Design), that it gives a better performance while maintaining the same level of filtering when compared with classical events.

Page generated in 0.0222 seconds