Spelling suggestions: "subject:"mesure"" "subject:"lesure""
351 |
Mesure de la difficulté des jeux vidéoLevieux, Guillaume 09 May 2011 (has links) (PDF)
Cette thèse a pour objectif de donner une définition générale et mesurable de la difficulté du gameplay dans un jeu vidéo. Elle propose une méthode et un outil pour mesurer cette difficulté. La méthode de mesure couramment employée est en effet principalement heuristique et propre au contexte de chaque jeu. Nous proposons une approche générique d'analyse du gameplay qui prend en compte l'apprentissage du joueur et permet une évaluation statistique de la difficulté d'un gameplay. Dans un premier temps, la thèse explore les liens entre difficulté, game design, et plaisir de jouer. Nous étudions diverses formes de difficultés : sensorielles, logiques et motrices. Après diverses expérimentations d'analyse automatique de gameplay, nous détaillons notre modèle de mesure de la difficulté, et l'analyse en challenges et capacités d'un gameplay, ainsi que le logiciel associé. Finalement, nous présentons une expérience, dont l'objectif est de tester la faisabilité et la précision de notre modèle.
|
352 |
Endommagement localisé dans les roches tendres. Expérimentation par mesure de champsNguyen, Tuong lam 23 February 2011 (has links) (PDF)
Le travail de recherche que nous présentons dans cette thèse concerne, tout d'abord, une étude expérimentale sur le processus de fissuration sous compression uniaxiale d'échantillons de roche ayant des entailles rectilignes inclinées. Ensuite, nous présentons une étude de l'évolution de la localisation des déformations vers la rupture dans des échantillons ayant une géométrie particulière à encoches arrondies ; cette géométrie (inspirée par les travaux de Meuwissen et al. (1998) sur les métaux) favorise la localisation de la déformation de cisaillement en compression uniaxiale avant l'apparition de fissures. Notre étude expérimentale a été réalisée sur deux matériaux différents: une roche naturelle d'origine volcanique (le Tuf de Naples) et une " roche " artificielle (le CPIR09). Nous utilisons dans cette thèse une combinaison de trois techniques de mesure de champs : (i) la corrélation d'images numériques (Digital Image Correlation, DIC) pour les mesures des champs cinématiques à la surface d'échantillons; (ii) l'enregistrement d'Emissions Acoustiques (EA) et la localisation des sources des EA, qui permettent de suivre l'endommagement dans un échantillon au cours du chargement; (iii) la tomographie à Rayons-X, avant et après chaque essai, afin de caractériser les défauts et les discontinuités préexistants dans le volume des éprouvettes et de mieux comprendre la fissuration dans le volume.
|
353 |
Fusion de mesures de déplacement issues d'imagerie SAR : application aux modélisations séismo-volcaniquesYan, Yajing 08 December 2011 (has links) (PDF)
Suite aux lancements successifs de satellites pour l'observation de la Terre dotés de capteur SAR (Synthetic Aperture Radar), la masse de données SAR disponible est considérable. Dans ce contexte, la fusion des mesures de déplacement issues de l'imagerie SAR est prometteuse à la fois dans la communauté de la télédétection et dans le domaine géophysique. Dans cette optique, cette thèse propose d'élargir les approches conventionnelles en combinant les techniques de traitement des images SAR, les méthodes de fusion d'informations et la connaissance géophysique. Dans un premier temps, cette thèse a pour objectif d'étudier plusieurs stratégies de fusion, l'inversion jointe, la pré-fusion et la post-fusion, afin de réduire l'incertitude associée d'une part à l'estimation du déplacement en 3 dimensions (3D) à la surface de la Terre, d'autre part à la modélisation physique qui décrit la source en profondeur du déplacement observé en surface. Nous évaluons les avantages et les inconvénients de chacune des stratégies en ce qui concerne la réduction de l'incertitude et la robustesse vis à vis du bruit. Dans un second temps, nous visons à prendre en compte les incertitudes épistémiques, en plus des incertitudes aléatoires, présentes dans les mesures et proposons les approches classiques et floues basées sur la théorie des probabilités et la théorie des possibilités pour modéliser ces incertitudes. Nous analysons et mettons en évidence l'efficacité de chaque approche dans le cadre de chaque stratégie de fusion. La première application consiste à estimer les champs du déplacement 3D à la surface de la Terre dus au séisme du Cachemire en octobre 2005 et à l'éruption du Piton de la Fournaise en janvier 2004 sur l'île de la Réunion. La deuxième application porte sur la modélisation de la rupture de la faille en profondeur liée au séisme du Cachemire. Les principales avancées sont évaluées d'un point de vue méthodologique en traitement de l'information et d'un point de vue géophysique. Au niveau méthodologique, afin de lever les principales difficultées rencontrées pour l'application de l'interférométrie différentielle à la mesure du déplacement induit par le séisme du Cachemire, une stratégie de multi-échelles basée sur l'information a priori en utilisant les fréquences locales de phase interférométrique est adoptée avec succès. En ce qui concerne la gestion de l'incertitude, les incertitudes aléatoires et épistémiques sont analysées et identifiées dans les mesures du déplacement. La théorie des probabilités et la théorie des possibilités sont utilisées afin de modéliser et de gérer les propagations des incertitudes au cours de la fusion. En outre, les comparaisons entre les distributions de possibilité enrichissent les comparaisons faites simplement entre les valeurs et indiquent la pertinence des distributions de possibilité dans le contexte étudié. Par ailleurs, la pré-fusion et la post-fusion, 2 stratégies de fusion différentes de la stratégie d'inversion jointe couramment utilisée, sont proposées afin de réduire autant que possible les incertitudes hétérogènes présentes en pratique dans les mesures et pour contourner les principales limitations de la stratégie d'inversion jointe. Les bons cadres d'application de chaque approche de la gestion de l'incertitude sont mis en évidence dans le contexte de ces stratégies de fusion. Au niveau géophysique, l'application de l'interférométrie différentielle à l'étude du séisme du Cachemire est réalisée pour la première fois et compléte les études antérieures basées sur les mesures issues de la corrélation des images SAR et optiques, les mesures télésismiques et les mesures de terrain. L'interférométrie différentielle apporte une information précise sur le déplacement en champ lointain par rapport à la position de la faille. Ceci permet d'une part de réduire les incertitudes associées aux mesures de déplacement en surface et aux paramètres du modèle, et d'autre part de détecter les déplacements post-sismiques qui existent potentiellement dans les mesures cosismiques qui couvrent la période de mouvement post-sismique. Par ailleurs, la prise en compte de l'incertitude épistémique et la proposition de l'approche floue pour gérer ce type d'incertitude, fournissent une vision différente de l'incertitude de mesure connue par la plupart des géophysiciens et complétent la connaissance de l'incertitude aléatoire et l'application de la théorie des probabilités dans ce domaine. En particulier, la gestion de l'incertitude par la théorie des possibilités permet de contourner le problème de sous-estimation d'incertitude par la théorie des probabilités. Enfin, la comparaison du déplacement mesuré par les images SAR avec le déplacement mesuré par les images optiques et le déplacement issu des mesures sur le terrain révèle toute la difficulté d'interpréter différentes sources de données plus ou moins compatibles entre elles. Les outils développés dans le cadre de cette thèse sont intégrés dans le package MDIFF (Methods of Displacement Information Fuzzy Fusion) dans l'ensemble des "EFIDIR Tools" distribués sous licence GPL.
|
354 |
Proposition d'une mesure de voisinage entre textes : Application à la veille stratégiqueCasagrande, Annette 03 July 2012 (has links) (PDF)
La veille anticipative stratégique et intelligence collective (VASIC) proposée par Lesca est une méthode aidant les entreprises à se mettre à l'écoute de leur environnement pour anticiper des opportunités ou des risques. Cette méthode nécessite la collecte d'informations. Or, avec le développement des technologies de l'information, les salariés font face à une surabondance d'informations. Afin d'aider à pérenniser le dispositif de veille stratégique, il est nécessaire de mettre en place des outils pour gérer la surinformation. Dans cette thèse, nous proposons une mesure de voisinage pour estimer si deux informations sont proches ; nous avons créé un prototype, nommé Alhena, basé sur cette mesure. Nous démontrons les propriétés de notre mesure ainsi que sa pertinence dans le cadre de la veille stratégique. Nous montrons également que le prototype peut servir dans d'autres domaines tels que la littérature, l'informatique et la psychologie. Ce travail est pluridisciplinaire : il aborde des aspects de veille stratégique (en sciences de gestion), de la recherche d'informations, d'informatique linguistique et de mathématiques. Nous nous sommes attachés à partir d'un problème concret en sciences de gestion à proposer un outil qui opérationnalise des techniques informatiques et mathématiques en vue d'une aide à la décision (gain de temps, aide à la lecture,...).
|
355 |
Analyse de l'illumination et des propriétés de réflectance en utilisant des collections d'imagesDiaz melo, Mauricio 26 October 2011 (has links) (PDF)
L'utilisation de collections d'images pour les applications de vision par ordinateur devient de plus en plus commune des nos jours. L'objectif principal de cette thèse est d'exploiter et d'extraire des informations importantes d'images de scènes d'extérieur a partir de ce type de collections : l'illumination présente au moment de la prise, les propriétés de reflectance des matériaux composant les objets dans la scène et les propriétés radiométriques des appareils photo utilisés. Pour atteindre notre objectif, cette thèse est composée de deux parties principales. Dans un premier temps nous allons réaliser une analyse de différentes représentations du ciel et une comparaison des images basée sur l'apparence de celui-ci. Une grande partie de l'information visuelle perçue dans les images d'extérieures est due a l'illumination en provenance du ciel. Ce facteur est représenté par les rayons du soleil réfléchis et réfractés dans l'atmosphère en créant une illumination globale de l'environnement. En même temps cet environnement détermine la façon de percevoir les objets du monde réel. Etant donné l'importance du ciel comme source d'illumination, nous formulons un processus générique en trois temps, segmentation, modélisation et comparaison des pixels du ciel, pour trouver des images similaires en se basant sur leurs apparences. Différentes méthodes sont adoptées dans les phases de modélisation et de comparaison. La performance des algorithmes est validée en trouvant des images similaires dans de grandes collections de photos. La deuxième partie de cette thèse consiste a exploiter l'information géométrique additionnelle pour en déduire les caractéristiques photométriques de la scène. A partir d'une structure 3D récupérée en utilisant des méthodes disponibles, nous analysons le processus de formation de l'image a partir de modèles simples, puis nous estimons les paramètres qui les régissent. Les collections de photos sont généralement capturées par différents appareils photos, d'où l'importance d'insister sur leur calibrage radiométrique. Notre formulation estime cet étalonnage pour tous les appareils photos en même temps, en utilisant une connaissance a priori sur l'espace des fonctions de réponse des caméras possibles. Nous proposons ensuite, un cadre d'estimation conjoint pour calculer une représentation de l'illumination globale dans chaque image, l'albedo de la surface qui compose la structure 3D et le calibrage radiométrique pour tous les appareils photos.
|
356 |
Mesures de similarité pour cartes généraliséesCombier, Camille 28 November 2012 (has links) (PDF)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.
|
357 |
Mesure diagnostique des infrasons en milieu urbain montréalais : une problématique environnementale /Charland, Patrick. January 2000 (has links)
Mémoire (M.Sc.)--Université du Québec à Montréal, 2000. / En tête du titre: Université du Québec à Montréal. "Mémoire présenté à l'Université du Québec à Trois-Rivières comme exigence partielle de la maîtrise en physique offerte par extension à l'Université du Québec à Montréal en vertu d'un protocole d'entente avec l'Université du Québec à Trois-Rivières".--p. de t. CaQTU CaQTU Bibliogr.: f. 92-95.
|
358 |
Pour une "métrique" de l'habiter : essais de topologie sensible / For a « metrics » of dwelling : essays in sensitive topologyZanini, Piero 10 February 2015 (has links)
À partir de quelques repères biographiques, il s’agira de rendre lisible et d’expliciter une approche spécifique de la recherche, et de montrer par quels chemins et quelles bifurcations, à partir d’une formation d’architecte, j’ai ressenti la nécessité de me rapprocher de l’anthropologie. C’est-à-dire comment, à partir d’un « savoir faire » considéré comme pratique, technique et lié normalement à l’opérationnalité, est apparue l’exigence d’y accoler - mais on pourrait dire, aussi, d’y retrouver - un « savoir » considéré comme plus théorique. L’architecture est ici conçue comme une « savoir de savoirs » et une modalité de connaissance dynamique capable de toucher à l’existence comme un tout. Se mesurer avec l’environnement naturel, pour organiser l’espace et le temps des sociétés nous demande alors de prendre constamment la « mesure » des changements induits suite à cette organisation et présence, en en réinterrogant le sens, dans une réciprocité constante. Dans le travaux ici réuni, la rencontre entre l’architecture (le fait de donner lieu à) et l’anthropologie (le fait d’avoir lieu, individuel et collectif) chacune étant récursivement l’une dans l’autre et toujours inscrite dans un temps localisé, se joue sur un plan « syntaxique ». Car, si la spatialité est une langue qui nous habite avant toutes les autres, ce qui m’interroge ce sont les propriétés structurelles et structurantes propres à certaines notions - telles la « limite », le « seuil », la « mesure », le « paysage » - qui l’expriment, les significations qu’elles peuvent prendre dans différents contextes, et les possibilités de sens qu’elles peuvent ouvrir et proposer pour repenser notre rapport aux autres et au monde. / By first introducing some biographical markers, I shall seek to clarify and explain my specific research approach and reveal the paths and bifurcations that led me, from my initial architectural training, to feel the need to get closer to anthropology. In other words, how the need arose to create a resonance between a “know-how”, considered practical, technical and related to the operational, and a “knowledge”, considered more theoretical. Architecture is considered here as “an instrument of measure” and a “sum of expertise”, that is to say, a mode of knowledge of the world that is broad and dynamic, at the same time “integral” and “integrating”, and hence capable of affecting existence as a whole. Confronting the natural environment to organize societies’ space and time – which is the very essence of this discipline – requires that we constantly take measure of the changes that this organization induces, again and again questioning the meaning of this constant reciprocity. In the essays gathered here, the encounter between architecture (the fact of giving rise to) and anthropology (the fact of taking place, both individually and collectively), both of which are ultimately and always inscribed in a localized time, is situated on a “syntactic” level. For, if spatiality is a language that inhabits us before any other, what I question are the structural and structuring properties specific to certain notions that express this – such as the “limit”, “threshold”, “measure”, “landscape” –, the meanings that they may take in different contexts, and the possible meanings that they can open up and propose for us to reconsider our relationship to others and the world.
|
359 |
Flots géodésiques expansifs sur les variétés compactes sans points conjugués / Expansive geodesic flows on compact manifolds without conjugate points.Bosché, Aurélien 10 November 2015 (has links)
Cette thèse est composée de deux parties indépendantes.Dans la première partie nous étudions les propriétés dynamiques des flots géodésiques expansifs sur des variétés compactes sans points conjugués à l'aide du travail de R.O.~Ruggiero. Plus précisément nous montrons qu'un tel flot admet une unique mesure d'entropie maximale et nous construisons cette mesure. Cela généralise des résultats connus dans le cas des variétés compactes à courbure négative et de rang un. Nous montrons ensuite à l'aide de cette mesure que l'équivalent de Margulis (connu pour les variétés compactes à courbure strictement négative) concernant le nombre de lacets géodésiques est toujours valable dans ce cas.Dans la seconde partie nous étudions les isométries des cônes symétriques de dimension finie pour la métrique de Thompson et pour la métrique de Hilbert. Plus précisément nous montrons que le groupe d'isométries induit par les automorphismes linéaires de ce cône est un sous-groupe d'indice fini du groupe d'isométries pour chacune de ces deux métriques et donnons des représentant naturels pour le quotient de ces deux groupes. Cela généralise des résultats deL.~Molnár (qui a étudié ces isométries dans le cas des opérateurs symétriques positifs définis sur un espace de Hilbert complexe). / This thesis is divided in two independants parts.In the first part we investigate dynamical properties of expansive geodesic flows on compact manifolds without conjugate points using the work of R.O.~Ruggiero. More precisely we show that such a flow admits a unique measure of maximal entropy and constructthis measure. This extends results known in non-positively curved manifolds of rank one (and our construction is analogous). Wethen show, using this measure of maximal entropy, that the asymptotics of Margulis (known for compact negatively curvedmanifolds) on the number of geodesic loops still hold in this framework.In the second part we study isometries of finite dimensionalsymmetric cones for both the Thompson and the Hilbert metric. More precisely we show that the isometry group induced by the linear automorphisms preserving such a cone is a subgroup of finite indexin the full group of isometries for those two metrics and give a natural set of representatives of the quotient. This extends resultsof L.~Molnar (who studied such isometies for the symmetric irreducible cone of symmetric positive definite operators on acomplex Hilbert space).
|
360 |
Vers l'évaluation de la performance des bâtiments à haute efficacité énergétique / Towards performance evaluation of energy efficient buildingsStefanoiu, Ana 20 March 2017 (has links)
En France, le secteur du bâtiment est le principal consommateur d'énergie. En outre, le secteur de la maison individuelle représente environ 60% des constructions annuelles de logements. La construction des bâtiments à haute efficacité énergétique représente un grand pas vers l'économie d'énergie. Cependant, même si divers efforts sont déployés dans ce domaine, des outils et des méthodes manquent pour évaluer la performance énergétique de ces bâtiments. Cette évaluation doit permettre non seulement de comprendre les facteurs qui contribuent à cette performance mais également d'identifier les causes de la surconsommation, d’inconfort pour les occupants.Cette thèse vise à contribuer à cet objectif en proposant une approche d'évaluation de la performance énergétique d'un bâtiment. Pour cela on compare la performance réelle et la performance attendue en utilisant le monitoring et la simulation thermique dynamique. Cette approche s’appuie sur différents cas d’études dont principalement une maison individuelle, situé en un climat méditerranéen.Dans un premier temps, en phase de conception, nous utilisons des simulations thermiques dynamiques pour étudier l’impact du comportement sur les besoins énergétiques. L'objectif est d'analyser l'influence du scénario d'occupation sur le comportement du bâtiment et d'établir une plage de valeurs pour les besoins en énergie, basée sur des statistiques nationales. Le comportement du bâtiment est étudié en fonction de différents types de scénarii d'occupation, de consignes de température, de l'utilisation d’appareils domestiques et l'éclairage.Dans un second temps, l'accent est mis sur l'évaluation globale de la performance de l'enveloppe. Un test dynamique in situ innovant a été développé pour en évaluer la performance réelle. Ce test est applicable sur une période courte (de l’ordre de la journée) tout en maitrisant les débits d’infiltrations. La comparaison des résultats théoriques en régime stationnaire avec les résultats expérimentaux montre une bonne précision inférieure à 10%.Enfin, le suivi énergétique en continu des maisons performantes est étudié. Tout d’abord, des travaux sont réalisés dans l’optique de réduire le nombre de capteurs nécessaires au suivi, tout en minimisant la perte d’informations. Ensuite, une méthodologie d’instrumentation est développée et appliquée à une maison individuelle. Le suivi de cette maison a pu être étudié sur les six premiers mois de monitoring et a permis d’expliquer le comportement du bâtiment et ses consommations au regard de son usage et de faire le lien avec les prévisions faites en phase de conception. / In France, the building sector is the main energy consumer. Moreover single-family houses represent about 60% of annual dwelling construction. The construction of energy efficient buildings represents a big step into energy saving. However, even though various efforts are made within this field, there is still a lack of methodologies about how to evaluate the energy performance of these buildings. The performance evaluation of an energy efficient building should allow understanding factors that contribute to its energy performance and as well as identifying the causes of overconsumption, poor indoor conditions.This thesis seeks to contribute to this field, by proposing an approach towards evaluating the energy performance of a house. This is done by comparing the real performance and the expected performance, using monitoring and building performance simulation, from design to operational phases. The energy performance evaluation approach is carried out on different cases of studies, mainly on a single-family house, situated in a Mediterranean climate.First, in the design phase, we use building performance simulation models to study the dispersions in energy use related to occupant’s behavior. The goal is to analyze the influence of the occupancy scenario on the behavior of the building and to establish a range of values for energy demand, based on national statistics. This step study the building’s behavior based on different types of occupancy scenarios, appliances and lighting use and temperature set point.Then, the focus is on the global evaluation of the envelope’s performance. Within the present thesis an innovative in-situ dynamic test is developed to assess the real envelope’s performance. This test is adapted to occupied houses (as it only takes 2 days) while controlling the infiltration air flow. The comparison between theoretical results of steady state calculation and experimental results show a good precision of less than 10%.Finally, continuous monitoring of energy efficient houses is studied. First, a work is done to reduce the number of sensors required for monitoring, while minimizing the loss of information. Then, an instrumentation methodology is developed and applied to a single-family house. The follow-up of this house could be studied during the first six months of monitoring and allowed to explain the behavior of the building and its consumption with regard to its use and to make the link with the previsions made during the design phase.
|
Page generated in 0.0413 seconds