• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 2
  • 1
  • Tagged with
  • 16
  • 16
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

SUR DES MODELES NON-ADDITIFS EN THEORIE DES CHOIX INTERTEMPORELS ET DE LA DECISION DANS L'INCERTAIN

Rébillé, Yann 19 December 2002 (has links) (PDF)
Le modèle de Savage (1954) est une référence dans le domaine de la théorie de la décision dans l'incertain. Il présente une axiomatisation de l'espérance d'utilité subjective. Un décideur qui satisfait aux axiomes de Savage choisit entre différents actes d'après leur évaluation selon leur utilité espérée. En suivant cette méthode axiomatique, une représentation additive peut être obtenue dans différents cadres (Anscombe-Aumann (1963), Wakker (1990)). En dépit du caractère normatif des modèles d'espérance d'utilité subjective, des réfutations empiriques apparaissent rapidement, parmi elles le paradoxe d'Ellsberg (1961). Parmi les réponses apportées au paradoxe d'Ellsberg figurent les modèles d'espérance d'utilité à la Choquet. Désormais un décideur possède non pas une probabilité subjective mais une capacité (Choquet (1953)) subjective, fonction d'ensembles monotone qui n'est plus nécessairement additive. Une théorie de l'intégration par rapport aux capacités introduite par Choquet(1953), retrouvée et développée par Schmeidler (1986,1989) permet ainsi de généraliser le critère d'espérance d'utilité. L'axiomatique des modèles d'espérance d'utilité à la Choquet développée dans un cadre d'incertitude peut s'adapter également à un cadre temporel. Ainsi l'évaluation d'un flux de revenus peut se faire de manière non-additive et incorporer les variations entre différentes périodes successives (Gilboa (1989), De Waegenaere et Wakker (2001)). Le premier chapitre traite de la représentation intégrale des fonctionnelles comonotones additives et séquentiellement continues par en bas et/ou par en haut. Cette représentation à l'aide de l'intégrale de Choquet (1953) se base sur la continuité séquentielle, une condition usuelle en théorie de la mesure, et non pas sur la propriété de monotonie traitée par Schmeidler (1986). En conséquence les jeux considérés ici ne sont pas forcément monotones mais continus par en haut et/ou par en bas, propriétés équivalentes à la sigma-additivité dans le cas des jeux additifs. Finalement, nous proposons des théorèmes de représentation des préférences non-monotones mais séquentiellement continues par en haut ou par en bas. Le deuxième chapitre se propose d'axiomatiser certaines préférences dans un cadre temporel, méthode initiée par Gilboa (1989) et poursuivie par Shalev (1997) dans un cadre à la Anscombe-Aumann (1963). L'approche adoptée ici est similaire à celle de De Waegaenere et Wakker (2001). Notre approche a pour but de prendre en compte les complémentarités entre différentes périodes successives. Pour cela nous introduisons un axiome d'aversion aux variations, qui conserve l'additivité sur des flux de revenus ayant la propriété de séquentielle comonotonie. L'extension au cas infini est réalisée à partir d'un axiome comportemental : la myopie. Finalement nous présentons une généralisation au cas non-additif du modèle d'espérance escomptée, axiomatisé par Koopmans (1972). Dans le troisième chapitre, on établit un théorème de décomposition à la Yosida-Hewitt(1952) pour les jeux totalement monotones sur N, o`u tout jeu s'écrit comme somme d'un jeu sigma-continu et d'un jeu pur. Cette décomposition s'obtient à partir d'un théorème de représentation intégrale sur l'ensemble des fonctions de croyance, ainsi l'intégrale de Choquet (1953) de toute fonction bornée, par rapport à un jeu totalement monotone admet une représentation intégrale. Finalement tout jeu totalement monotone sigma-continu est mis en correspondance biunivoque avec une inverse de M¨obius sur N; ainsi toute intégrale de Choquet d'une fonction bornée sur N, par rapport à un jeu totalement monotone sigma-continu s'obtient comme somme d'une série absolument convergente. Le dernier chapitre, traite de la modélisation de la patience face à des flux dénombrables de revenus. Dans un premier temps, nous exposons les préférences patientes dans un cadre additif. Ces préférences admettent une représentation intégrale à l'aide de probabilités pures, ce qui coïncide en outre avec les limites de Banach (Banach 1987). Ensuite, nous renforçons la patience en invariance temporelle. Enfin nous considérons la patience naïve, ce qui aboutit à un théorème d'impossibilité. Nous développons de ce fait une extension des résultats obtenus précédemment dans un cadre non-additif. Nous introduisons un axiome d'additivité non-lisse qui nous permet de représenter les préférences avec une intégrale de Choquet à capacité convexe. Dans ce cas, la patience se traduit par des capacités convexes pures. De même, l'invariance temporelle s'exprime naturellement en terme de capacités convexes invariantes. En fin de compte, la patience naïve admet comme unique représentation la fonctionnelle limite inférieure.
2

Contribution à la formalisation de bilans / états de santé multi-niveaux d'un système pour aider à la prise de décision en maintenance : agrégation d'indicateurs par l'intégrale de Choquet

Abichou, Bouthaina 18 April 2013 (has links) (PDF)
Dans cette thèse est défendu l'intérêt d'évaluer la santé d'un système/objet industriel multi-composants à travers un bilan de santé multi-niveaux hiérarchiques. Elle a donc pour objet principal de justifier les éléments essentiels du concept de bilan de santé générique qui représente l'état réel d'un système sous la forme d'un vecteur d'indicateurs de différentes natures. Vis-à-vis de ce fondement, la thèse se focalise plus spécifiquement sur les fonctions de détection des anomalies-normalisation et agrégation d'indicateurs pour élaborer un index synthétique représentatif de l'état de santé global pour chaque élément du système. Il est ainsi proposé, une nouvelle approche de détection conditionnelle des anomalies. Cette approche a pour intérêt de quantifier la déviation pour chaque indicateur par rapport à son mode de comportement nominal tout en prenant en compte le contexte dans lequel évolue le système. Une extension à l'exploitation de l'intégrale de Choquet en tant qu'opérateur d'agrégation des indicateurs est aussi proposée. Cette extension concerne, d'une part, un processus d'apprentissage non supervisé des capacités pour le niveau le plus inférieur dans l'abstraction, à savoir celui des composants, et d'autre part, une approche de mise en oeuvre de leur inférence d'un niveau à l'autre. Ces propositions sont appliquées sur un moteur diesel de navire, système essentiel du projet BMCI du pôle MER-PACA dans lequel s'inscrit cette thèse.
3

SYSTEME D'AIDE A LA REGULATION ET EVALUATION DES TRANSPORTS MULTIMODAUX INTEGRANT LES CYBERCARS

Melki, Asma 28 November 2008 (has links) (PDF)
Un nouveau concept de mobilité urbaine est apparu : Les Cybercars : Des véhicules routiers autonomes économiques et propres et qui viennent en complément des transports publics. <br />Cette thèse a pour cadre le plan plur-formation « cœur de Ville ». Ce PPF a pour objectif de traiter les problématiques relatives à la mise en place des Cybercars dans un contexte urbain.<br />L'objectif de notre travail de recherche est de fournir un outil d'aide à la décision aux régulateurs de transport multimodal. Il s'agit de les aider dans le choix de la stratégie d'exploitation à adopter, en mode dégradé, en présence de perturbations simultanées dans le réseau. Ce système d'aide à la décision est basé sur une phase de construction des décision qu'il serait possible d'appluiquer, suivie d'une phase d'évaluation multicritère des différentes stratégies candidates au moyen de l'Intégrale de Choquet. Cette phase permet d'affinier le choix proposé au régulateur vu que l'évaluation tient compte des interactions entre les critères et donne au régulateur une image ciblée des repercutions de chaque stratégie sur le réseau de transport .L'originalité de nos travaux réside dans le fait d'intégrer l'utilisation des Cybercars comme stratégie d'exploitation qui s'ajoute à celles des modes de transports multimodaux. L'aspect temps-réel et la complexité du problème de régulation nçous ont guidés dans le choix des algorithmes évolutionnaires à adopter pour la mise en place de cretaines stratégies d'exploitation.Les résultats de simulations ont permis d'appuyer l'idée d'utiliser les Cybercars dans les milieux urbainn, non seulement pour les déplacements planifiés mais également pour résorber les perturbations qui affectent le réseau.
4

Traitements d'Images Omnidirectionnelles

Jacquey, Florence 21 December 2007 (has links) (PDF)
Ce manuscrit présente une approche novatrice au problème du traitement d'images omnidirectionnelles. Elle se démarque des autres approches par le fait que les traitements sont adaptés à la géométrie de l'image et effectués directement dans l'espace de l'image afin d'interpoler le moins possible les données originales de l'image. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial de l'image. Ces techniques s'appuient sur une représentation par partition floue de l'image. Afin de traiter les images issues de capteurs omnidirectionnels catadioptriques, nous proposons une approche basée sur l'utilisation d'un espace projectif virtuel appelé le cylindre englobant. Ce cylindre nous permet de définir les différents opérateurs de convolution dans un espace quasi identique à celui de l'image perspective. Les opérateurs ainsi définis sont ensuite projetés sur l'image omnidirectionnelle pour tenir compte de la géométrie du capteur. Dans un premier temps, nous avons proposé une adaptation des masques de convolution aux images omnidirectionnelles prenant en compte les imprécisions sur la localisation du niveau de gris des pixels. Dans un second temps, nous nous sommes intéressés plus précisément aux détecteurs de contours. Nous avons développé une nouvelle approche d'estimation de gradient utilisant des noyaux possibilistes. L'estimation du gradient est fournie sous la forme d'un intervalle de valeurs. Cet intervalle permet de seuiller naturellement les valeurs de gradient obtenues. La validité de nos approches est établie par des expérimentations sur des images omnidirectionnelles synthétiques et réelles. Les images synthétiques sont utilisées afin de tester la robustesse de nos détecteurs de contours en présence de bruit et d'étudier la bonne détection, bonne localisation et réponse unique du contour. Les images réelles permettent d'observer le comportement de nos méthodes vis à vis des variations d'illumination et des bruits d'acquisition.
5

Aide multicritère au pilotage d'un processus basée sur le raisonnement à partir de cas

Dhouib, Diala 30 June 2011 (has links) (PDF)
Cette thèse propose des outils d'aide multicritère à la décision pour le pilotage d'un processus basés sur la capitalisation des connaissances à travers la technique du raisonnement à partir de cas (RàPC). Deux modèles ont été développés. Le premier modèle, se basant sur des cas analogues passés, aide le pilote d'un processus à résoudre un nouveau problème. Ceci étant en tenant compte aussi bien des relations de causalités qui existent entre les indicateurs et les inducteurs de performance que des relations de dépendance qui surgissent entre les différents critères. Le deuxième modèle est basé sur une hybridation entre le RàPC et le clustering. Il cherche à améliorer les phases : représentation des cas, recherche de cas similaires et maintenance de la base de cas du cycle du RàPC. L'application d'une méthode de clustering représente une manière d'arranger la base de cas afin de faciliter l'aide au pilotage. Ces deux modèles peuvent fonctionner en relation de complémentarité. En effet, le deuxième modèle basé sur le clustering permet, d'abord, de former des groupes homogènes y compris le nouveau cas qu'on veut chercher sa solution. Ensuite, après avoir obtenu le cluster contenant le nouveau cas avec ses cas similaires, le premier modèle sera déclenché pour trouver le cas le plus proche. Toutefois, les critères utilisés par ces deux modèles sont quantitatifs. Pour cela, une approche linguistique a été utilisée pour gérer des données non homogènes, c'est-à-dire numériques et linguistiques. Ces deux modèles ont été appliqués dans un cas industriel réel de fabrication d'emballages en carton. Ils ont été aussi implémentés dans un prototype informatique sous forme d'un Système Interactif d'Aide au Pilotage d'un Processus (SIAPP) à travers des interfaces pour mieux valider leurs applications.
6

QUELQUES LIENS ENTRE LA THÉORIE DE L'INTÉGRATION NON-ADDITIVE ET LES DOMAINES DE LA FINANCE ET DE L'ASSURANCE

Grigorova, Miryana 18 October 2013 (has links) (PDF)
Cette thèse de doctorat fait quelques liens entre la théorie de l'intégration non-additive et les notions d'ordre stochastique et de mesure du risque utilisées en finance et en assurance. Nous faisons un usage extensif des fonctions d'ensembles monotones normalisées, appelées également capacités, ou encore probabilités non-additives, ainsi que des intégrales qui leur sont associées, appelées intégrales de Choquet. Dans le premier chapitre, nous établissons une généralisation des inégalités de Hardy-Littlewood au cas d'une capacité. Nous y faisons également quelques compléments sur les fonctions quantiles par rapport à une capacité. Dans le deuxième chapitre, nous généralisons la notion de dominance stochastique croissante convexe au cas d'une capacité, et nous résolvons un problème d'optimisation dont la contrainte est donnée en termes de cette relation généralisée. Dans le troisième chapitre, nous nous intéressons à la généralisation de la notion de dominance stochastique croissante. Nous étudions également les classes de mesures du risque satisfaisant aux propriétés d'additivité comonotone et de consistance par rapport à l'une des relations de dominance stochastique "généralisées" précédemment considérées. Nous caractérisons ces mesures du risque en termes d'intégrales de Choquet par rapport à une "distorsion" de la capacité initiale. Le quatrième chapitre est consacré à des mesures du risque admettant une représentation "robuste" en termes de maxima (sur un ensemble de fonctions de distorsion) d'intégrales de Choquet par rapport à des capacités distordues.
7

Modèle de performance agrégée et raisonnement approché pour l’optimisation de la consommation énergétique et du confort dans les bâtiments / Aggregate performance model and approximate reasoning for optimization of building energy consumption and occupant comfort

Denguir, Afef 27 May 2014 (has links)
Ce travail s'inscrit dans le cadre du projet FUI RIDER (Research for IT Driven Energy efficiency) qui vise à développer un système de gestion de l'énergie faiblement dépendant du bâtiment à contrôler et propose une nouvelle approche pour réduire les coûts énergétiques. Cette approche exploite la notion de confort thermique afin de calculer de nouvelles consignes à fournir au système de contrôle du conditionnement du bâtiment. L'approche s'appuie sur l'idée que le confort thermique est une notion multidimensionnelle subjective. La littérature propose des modèles statistiques pour appréhender le confort thermique. Malheureusement, ces modèles sont fortement non linéaires et non interprétables ce qui rend difficile leur utilisation pour la conduite ou l'optimisation. Nous proposons un nouveau modèle de confort basé sur la théorie de l'utilité multi attributs et les intégrales de Choquet. L'intérêt d'un tel modèle est qu'il est interprétable en termes de préférences pour la conduite, linéaire par simplexe ce qui facilite la résolution des problèmes d'optimisation, et plus concis qu'un système de contrôle à base de règles. Dans la seconde partie de ce travail, le THermal Process Enhancement (THPE) s'intéresse à l'obtention efficiente des consignes calculées avec le modèle du confort thermique. Le THPE se base sur un raisonnement approché établi à partir d'un modèle qualitatif enrichi EQM (Extended Qualitative Model). L'EQM est le résultat de l'étude mathématique et qualitative des équations différentielles régissant les processus thermiques. Il est enrichi en continu par un système de gestion de l'expérience basé sur un apprentissage avec pénalités qui fournit les informations quantitatives nécessaires pour inférer des recommandations de conduite quantifiées à partir des tendances modélisées dans l'EQM. L'EQM et les raisonnements associés requièrent peu de paramètres et sont opérationnels même si la base d'apprentissage est initialement vide au lancement de RIDER. Le système de gestion de l'expérience permet simplement de quantifier les recommandations et de converger plus vite vers une commande optimale. Le raisonnement à base de modèles qui supporte notre approche est faiblement dépendant du processus thermique, pertinent dès le lancement de RIDER et se prête facilement au changement d'échelle de l'analyse thermique d'un bâtiment. Les performances de notre THPE, sa stabilité et son adaptation par rapport aux variations de l'environnement sont illustrées sur différents problèmes de contrôle et d'optimisation. Les commandes optimales sont généralement obtenues en quelques itérations et permettent d'avoir un contrôle adaptatif et individuel des pièces d'un bâtiment. / The present work is part of the FUI RIDER project (Research for IT Driven Energy efficiency). It aims to develop an energy management system that has to be weakly dependent on building's specificities in order to be easily deployed in different kinds of buildings. This work proposes a new approach based on the thermal comfort concept in order to reduce energy costs. This approach takes advantage of the thermal comfort concept in order to compute new optimized setpoints for the building energy control system. It relies on the idea that thermal comfort is a subjective multidimensional concept that can be used to reduce energy consumption. The literature provides statistical thermal comfort models but their complexity and non-linearity make them not useful for the control and optimization purposes. Our new thermal comfort model is based on the multi attributes utility theory and Choquet integrals. The advantages of our model are: its interpretability in term of preference relationships, its linearity in simplex regions which simplifies optimization problems' solving, and its compact form which is more tractable than a rule based control formalism. In the second part of this work, the THermal Process Enhancement (THPE) proposes a control system approach to efficiently reach the optimized setpoints provided by the comfort model. The THPE proposes an efficient and simple thermal control approach based on imprecise knowledge of buildings' special features. Its weak data-dependency ensures the scalability and simplicity of our approach. For this, an extended thermal qualitative model (EQM) is proposed. It is based on a qualitative description of influences that actions' parameters may have on buildings' thermal performances. This description results from the mathematical and qualitative analysis of dynamical thermal behaviors. Our thermal qualitative model is then enriched by online collecting and assessing previous thermal control performances. The online learning provides the necessary quantitative information to infer quantified control recommendations from the qualitative tendencies displayed by the EQM. Thus, an approximate reasoning based on the EQM and an online learning coupled with a penalty function provides smart thermal control functionalities. The EQM based approximate reasoning guarantees our control system weak dependency with regard to the building special features as well as its multi-scale applicability and its relevancy even for RIDER's first start when the learning database lacks of information. The performances of our THPE are assessed on various types of control and optimization issues. An optimal control is generally achieved in a few iterations which allows providing an adaptive and individual control of building's rooms.
8

Méthode non-additive intervalliste de super-résolution d'images, dans un contexte semi-aveugle / A non-additive interval-valued super-resolution image method, in a semi-blind context

Graba, Farès 17 April 2015 (has links)
La super-résolution est une technique de traitement d'images qui consiste en la reconstruction d'une image hautement résolue à partir d'une ou plusieurs images bassement résolues.Cette technique est apparue dans les années 1980 pour tenter d'augmenter artificiellement la résolution des images et donc de pallier, de façon algorithmique, les limites physiques des capteurs d'images.Comme beaucoup des techniques de reconstruction en traitement d'images, la super-résolution est connue pour être un problème mal posé dont la résolution numérique est mal conditionnée. Ce mauvais conditionnement rend la qualité des images hautement résolues reconstruites très sensible au choix du modèle d'acquisition des images, et particulièrement à la modélisation de la réponse impulsionnelle de l'imageur.Dans le panorama des méthodes de super-résolution que nous dressons, nous montrons qu'aucune des méthodes proposées par la littérature ne permet de modéliser proprement le fait que la réponse impulsionnelle d'un imageur est, au mieux, connue de façon imprécise. Au mieux l'écart existant entre modèle et réalité est modélisé par une variable aléatoire, alors que ce biais est systématique.Nous proposons de modéliser l'imprécision de la connaissance de la réponse impulsionnelle par un ensemble convexe de réponses impulsionnelles. L'utilisation d'un tel modèle remet en question les techniques de résolution. Nous proposons d'adapter une des techniques classiques les plus populaires, connue sous le nom de rétro-projection itérative, à cette représentation imprécise.L'image super-résolue reconstruite est de nature intervalliste, c'est à dire que la valeur associée à chaque pixel est un intervalle réel. Cette reconstruction s'avère robuste à la modélisation de la réponse impulsionnelle ainsi qu'à d'autres défauts. Il s'avère aussi que la largeur des intervalles obtenus permet de quantifier l'erreur de reconstruction. / Super-resolution is an image processing technique that involves reconstructing a high resolution image based on one or several low resolution images. This technique appeared in the 1980's in an attempt to artificially increase image resolution and therefore to overcome, algorithmically, the physical limits of an imager.Like many reconstruction problems in image processing, super-resolution is known as an ill-posed problem whose numerical resolution is ill-conditioned. This ill-conditioning makes high resolution image reconstruction qualityvery sensitive to the choice of image acquisition model, particularly to the model of the imager Point Spread Function (PSF).In the panorama of super-resolution methods that we draw, we show that none of the methods proposed in the relevant literature allows properly modeling the fact that the imager PSF is, at best, imprecisely known. At best the deviation between model and reality is considered as being a random variable, while it is not: the bias is systematic.We propose to model scant knowledge on the imager's PSF by a convex set of PSFs. The use of such a model challenges the classical inversion methods. We propose to adapt one of the most popular super-resolution methods, known under the name of "iterative back-projection", to this imprecise representation. The super-resolved image reconstructed by the proposed method is interval-valued, i.e. the value associated to each pixel is a real interval. This reconstruction turns out to be robust to the PSF model and to some other errors. It also turns out that the width of the obtained intervals quantifies the reconstruction error.
9

Analyse idempotente en dimension infinie : le rôle des ensembles ordonnés continus

Poncet, Paul 14 November 2011 (has links) (PDF)
L'analyse idempotente étudie les espaces linéaires de dimension infinie dans lesquels l'opération maximum se substitue à l'addition habituelle. Nous démontrons un ensemble de résultats dans ce cadre, en soulignant l'intérêt des outils d'approximation fournis par la théorie des domaines et des treillis continus. Deux champs d'étude sont considérés : l'intégration et la convexité. En intégration idempotente, les propriétés des mesures maxitives à valeurs dans un domaine, telles que la régularité au sens topologique, sont revues et complétées ; nous élaborons une réciproque au théorème de Radon-Nikodym idempotent ; avec la généralisation Z de la théorie des domaines nous dépassons différents travaux liés aux représentations de type Riesz des formes linéaires continues sur un module idempotent. En convexité tropicale, nous obtenons un théorème de type Krein-Milman dans différentes structures algébriques ordonnées, dont les semitreillis et les modules idempotents topologiques localement convexes ; pour cette dernière structure nous prouvons un théorème de représentation intégrale de type Choquet : tout élément d'un compact convexe K peut être représenté par une mesure de possibilité supportée par les points extrêmes de K. Des réflexions sont finalement abordées sur l'unification de l'analyse classique et de l'analyse idempotente. La principale piste envisagée vient de la notion de semigroupe inverse, qui généralise de façon satisfaisante à la fois les groupes et les semitreillis. Dans cette perspective nous examinons les propriétés "miroir" entre semigroupes inverses et semitreillis, dont la continuité fait partie. Nous élargissons ce point de vue en conclusion.
10

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.

Page generated in 0.4382 seconds