• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 1
  • Tagged with
  • 11
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Exploitation de la dynamique du geste en IHM. Application aux fonctions de transfert pour le pointage et l'extraction d'évènements discrets.

Deblonde, Jean-Philippe 28 September 2012 (has links) (PDF)
La dynamique du geste reste peu exploitée dans le domaine de l'interaction homme-machine alors qu'elle permet de définir des critères simples d'analyse de l'intention des utilisateurs. Sa principale utilisation porte sur les fonctions de transfert des périphériques isotoniques. Ces fonctions permettent d'établir une relation entre le geste de l'utilisateur effectué dans l'espace moteur avec le périphérique de pointage (i.e. souris) et le mouvement du pointeur dans l'espace visuel. Les fonctions de transfert utilisées par les systèmes d'exploitation modernes restent cependant fortement méconnues même si des études ont montré qu'elles ont un impact sur les performances des utilisateurs. Pour caractériser ces fonctions, nous avons développé un périphérique électronique qui simule une souris réelle et qui permet d'obtenir les fonctions de transfert de tout système. Nous avons ainsi pu obtenir les fonctions des systèmes Windows, Linux et Mac et nous avons observé des différences notables entre ces fonctions. Nous avons ensuite cherché à optimiser ces fonctions en réduisant au maximum le nombre de leurs degrés de liberté. En faisant varier de manière exhaustive ces paramètres, nous avons ainsi pu observé des différences significatives qui montrent qu'il existe une famille de fonctions pour lesquelles les performances sont optimales. Enfin, nous nous sommes intéressés à l'utilisation de la dynamique du geste dans un autre contexte, celui de la génération d'événements discrets, pertinent dans le cadre des interfaces sans contact de type Kinect. Nous avons ainsi montré qu'il est possible de distinguer la sélection du déplacement dans une tâche d'interaction 3D. La technique développée est ensuite améliorée dans le cas des cibles de petites tailles et son application dans un contexte d'interaction 2D est évaluée.
2

Analyse spatio-temporelle du champ géomagnétique et des processus d'accélération solaires observés en émission radio

PERIRA, Fernando 26 March 2004 (has links) (PDF)
L'étude des relations Soleil--Terre requiert fréquemment l'analyse de données multivariées, qui dépendent de plusieurs variables (le temps, l'espace, ...). Pour caractériser les processus physiques, nous proposons d'utiliser des méthodes statistiques multivariées (la SVD, l'ICA, ...). De telles méthodes permettent de projeter les données sur un nombre restreint de modes qui en captent les traits de comportement saillants et auxquels il faudra ensuite donner une interprétation physique. Nous les appliquons à deux exemples ; (1) le champ géomagnétique, mesuré en différents endroits du globe, et (2) les processus d'accélération de la couronne solaire observés par le radiohéliographe de Nançay. À partir de modes purement statistiques, nous montrons qu'il est possible de mettre en évidence des processus physiquement connus et de mieux isoler des perturbations très faibles telles que les soubresauts géomagnétiques.
3

Modélisation dépendante du temps des blazars du TeV par un modèle de jet stratifié inhomogene

Boutelier, Timothé 15 May 2009 (has links) (PDF)
L'étude des mécanismes d'émission et de variabilité des blazars du TeV est l'objet d'intenses recherches depuis de nombreuses années. Les modèles courants d'émission une zone homogène utilisés posent de nombreux problèmes, notamment à cause des grands facteurs de Lorentz qu'ils requièrent et qui sont en contradiction avec les contraintes dérivées des observations radio des jets. Dans cette thèse je décris une approche multizone inhomogène dépendante du temps, dans le cadre du modèle du two-flow. Je calcule l'émission d'un jet complet, dans lequel se propagent des paires électron-positron relativistes distribuées en pileup. L'évolution et l'émission du plasma de paires est calculée en tenant compte d'un terme de chauffage turbulent, du refroidissement radiatif, ainsi que d'un terme de production de paires par photo-annihilation. Appliqué à PKS 2155−304, ce modèle permet de reproduire le spectre complet, ainsi que la variabilité simultanée multi longueur d'onde, avec un faible facteur de Lorentz. La variabilité est expliquée par l'instabilité de la création de paires dans le jet. La valeur du facteur de Lorentz est néanmoins trop élevée pour être en accord avec les observations radio et la statistique de détection de ces objet. Je montre à la fin de ma thèse, comment, en tenant compte de l'ouverture géométrique des jets, peut on réconcilier de grands facteur de Lorentz avec l'absence de mouvement superluminique observé en radio, ainsi que la relative abondance de ce type de source.
4

Développement de techniques de lancer de rayon dans des géométries 3D adaptées aux machines massivement parallèles

Nebel, Jean-Christophe 01 December 1997 (has links) (PDF)
Le lancer de rayon est un algorithme permettant de représenter des scènes 3D de façon très réaliste. Son principe, simple et puissant, repose sur les lois de l'optique géométrique : l'image que voit un observateur est le fruit des interactions entre des photons 6mis par des sources lumineuses et des objets possédant des propriétés géométriques et optiques. L'utilisation d'un modèle basé sur la physique permet une bonne approche des phénomènes naturels suivants : l'éclairement par des sources lumineuses, la réflexion de la lumière sur des objets et la transmission de la lumière à travers des objets transparents. L'algorithme dérivant de ce modèle possède pourtant un inconvénient majeur : le temps de traitement d'une image est très important. Bien que de nombreuses méthodes d'accélération aient été proposées pour tenter d'améliorer sa vitesse d'exécution, ce problème demeure bien présent. Toutefois, avec le développement actuel des machines parallèles à mémoire distribuée et des réseaux d'ordinateurs, une voie d'accélération très prometteuse se développe : la parallélisation. De plus, la mise en commun des capacités ''mémoire" de chaque composante d'une architecture parallèle rend possible le traitement de scènes comportant un plus grand nombre d'objets aux propriétés de plus en plus complexes. Le chapitre 1 présente l'algorithme de lancer de rayon ainsi que les accélérations séquentielles proposées dans la littérature. D apparaît que les techniques les plus efficaces sont basées soit sur l'utilisation de volumes englobants soit sur des subdivisions de l'espace. Malgré ces optimisations, la parallélisation demeure la source d'accélération au plus fort potentiel. Le chapitre 2 recense les différents types d'architectures parallèles et expose les familles d'algorithmes utilisées pour la parallélisation du lancer de rayon sur des machines parallèles à mémoire distribuée. Deux stratégies permettent une distribution de la base de données : 1' envoi de rayons et l'envoi d'objets. Dans le chapitre 3, après avoir présenté nos contraintes, nous comparons les algorithmes parallèles pouvant y répondre grâce à leur modélisation. Les résultats obtenus vont nous amener à proposer deux nouveaux algorithmes de parallélisation basés sur un nouveau type de flot. Enfin, dans le chapitre 4 nous présentons nos résultats expérimentaux et leur analyse. Nos tests sont réalisés sur des machines massivement parallèles et sur un réseau de stations de travail.
5

Influence de la température de cure sur la formation d'ettringite différée dans les bétons

Bernard, Alexandre January 2017 (has links)
Une augmentation de la température à jeune âge du béton peut être causée par la chaleur d’hydratation dans le cas d’éléments massifs ou par l’application d’un traitement thermique dans l’industrie de la préfabrication. Lorsque le couple critique température maximale/durée de maintien est dépassé, il y a formation différée de l’ettringite (DEF) expansive pouvant fissurer les pièces. Les travaux présentés dans ce mémoire ont pour but principal d’établir une limite sécuritaire pour des mélanges V-S pour béton de masse et V-P pour béton préfabriqué régulièrement utilisés par le Ministère des Transports du Québec. Ces bétons utilisent des liants binaires composés de fumée de silice de type GUb-SF et des liants ternaires composés de fumée de silice et de cendres volantes ou de laitier de haut-fourneau. La norme canadienne actuelle (CSA A23.1-14 et CSA A23.4-16) impose une limite fixe de température qui ne dépend ni de la durée de traitement ni du type de liant utilisé. Le lien, souvent énoncé dans la littérature, entre la réponse d’un liant à un traitement thermique et sa composition chimique et minéralogique, déterminé respectivement par fluorescence X et diffraction des rayons X couplée par la méthode de calcul Rietveld, a pu être confirmé. Le rapport SO3 solubles/Al2O3 est notamment ce qui permet la meilleure estimation de la sensibilité d’un liant. Le processus de formation différée de l’ettringite est lent et peut prendre plusieurs années. Donc, pour étudier le phénomène, des méthodes d’essais accélérés ont été testées. Des méthodes ont ainsi pu être proposées pour de futurs tests. Une méthode d’essai rapide d’expansion de barres de mortier permet d’identifier les liants les plus sensibles à la DEF. La formation de la DEF dans les liants les moins sensibles peut être appréciée par le gain de masse de prismes de béton et leur observation microstructurale au microscope électronique à balayage (MEB). Une méthode sur bétons de masse et bétons préfabriqués permet de classer le degré de sensibilité d’un liant face à la DEF selon le gain de masse des prismes de béton. Les liants ternaires montrent une bonne résistance face à la DEF. La sensibilité des liants binaires dépend du rapport SO3 solubles/Al2O3 du liant. / Abstract : A heat cure for concrete can be caused by hydration in massive structures or by thermal treatment in prefabrication industry. When the limit couple maximum temperature/duration of treatment is exceeded, the delayed formation of ettringite occurs and leads to cracking in concrete. The main goal of the work presented in this essay is to establish a safe batch limit for some mixtures, VS (mass concrete) and V-P (precast concrete) which are often used by MTQ. These concretes use some cements blended with silica fume and ternary blended cements with silica fume and fly ash or blast furnace slag. Indeed, the current Canadian standard (CSA A23.1) set a limit which doesn’t depend on duration of the treatment nor the type of bender. However, the link between composition of the used bender, with can be determined by X-ray fluorescence and X-ray diffraction, and the response to a thermal treatment has been confirmed. The soluble SO3/Al2O3 ratio allows to estimate if a bender is sensitive to heat cure. The delayed formation of ettringite is a long process which can last a decade. In order to study this phenomenon, several accelerated test methods have been used. Some of them are available for some future tests. An accelerated expansion method using mortar bar allows to spot the DEF-sensitive benders. Delayed ettringite formation in the less sensitive bender can be estimated by weight gain in concrete prisms and by observation with scanning electron microscope (SEM). The sensitivity level of a bender can by estimated using a method based on weight gain. Ternary blended cements show a greater ability to withstand DEF. The sensibility of binary blended cements depends on soluble SO3/Al2O3 ratio.
6

Reconnaissance de langages en temps réel par des automates cellulaires avec contraintes

Borello, Alex 12 December 2011 (has links)
Dans cette thèse, on s'intéresse aux automates cellulaires en tant que modèle de calcul permettant de reconnaître des langages. Dans un tel domaine, il est toujours difficile d'établir des résultats négatifs, typiquement de prouver qu'un langage donné n'est pas reconnu en une certaine fonction de temps par une certaine classe d'automates. On se focalisera en particulier sur les classes de faible complexité comme le temps réel, au sujet desquelles de nombreuses questions restent ouvertes.Dans une première partie, on propose plusieurs manières d'affaiblir encore les classes de langages étudiées, permettant ainsi d'obtenir des exemples de résultats négatifs. Dans une seconde partie, on montre un théorème d'accélération par automate cellulaire d'un modèle séquentiel, les automates finis oublieux. Ce modèle est une version a priori affaiblie, mais non triviale, des automates finis à plusieurs têtes de lecture. / This document deals with cellular automata as a model of computation used to recognise languages. In such a domain, it is always difficult to provide negative results, that is, typically, to prove that a given language is not recognised in some function of time by some class of automata. The document focuses in particular on the low-complexity classes such as real time, about which a lot of questions remain open since several decades.In a first part, several techniques to weaken further still these classes of languages are investigated, thereby bringing examples of negative results. A second part is dedicated to the comparison of cellular automata with another model language recognition, namely multi-head finite automata. This leads to speed-up theorem when finite automata are oblivious, which makes them a priori weaker than in the general case but leaves them a nontrivial power.
7

MODELISATIONS DE L'EMISSION NON-THERMIQUE DES BLAZARS DU TeV PAR UNE DISTRIBUTION RELATIVISTE QUASI-MAXWELLIENNE

Saugé, Ludovic 06 December 2004 (has links) (PDF)
La compréhension des mécanismes d'émission et de variabilité au coeur des blazars émetteurs au TeV reste une question ouverte au sein de la communauté de l'astrophysique des hautes énergies. Le rayonnement extrême de ces objets permet de sonder les régions les plus proches du trou noir afin de poser des contraintes sur les mécanismes d'accélération des particules émissives. Nous considérons ici une distribution en énergie de ces particules sous la forme d'une quasi-maxwellienne relativiste. Ce type de distribution est justifié dans le cadre de l'accélération stochastique de particules de type interaction ondes MHD/plasmas. Ce manuscrit décrit la mise en oeuvre de cette distribution particulière dans le cadre de deux approches de modélisation différentes, la première dite homogène où la zone d'émission est supposée sphérique et la seconde dite inhomogène décrit le rayonnement d'un jet stratifié, et ce dans le cadre du « two-flow model ». Dans le deux cas, afin de rendre compte du caractère transitoire des périodes d'éruption, l'approche est menée de manière dépendante du temps et le processus de création de paires par photo-annihilation joue un rôle primordial. Nous avons de plus pris en compte l'atténuation du signal gamma par les photons du fond cosmique infrarouge lors de leur parcours vers l'observateur. Nous nous sommes de plus attaché à poser des contraintes sur la dynamique d'ensemble des jets à partir d'arguments statistiques simples ; nous avons mis en évidence pourquoi les modèles homogènes en général, ne sont pas appropriés pour la déduction des vitesses d'ensemble de ces sources bien qu'ils reproduisent remarquablement leurs caractéristiques spectrales.
8

Simulation numérique des mouvements forts en champ proche

Gariel, Jean Christophe 04 July 1988 (has links) (PDF)
Ce travail est consacré à l'étude et à la simulation numérique des mouvements forts en champ proche dans le cas des séismes de magnitude modérée. Pour cela, nous avons appliqué la méthode des nombres d'onde discrets qui permet le calcul du rayonnement de sources étendues de mécanisme quelconque dans un milieu stratifié. Dans une première partie, deux problèmes théoriques ont été abordés. On montre d'abord que l'observation systématique de la décroissance du spectre d'accélération à haute fréquence peut être expliquée soit par la présence de forces de cohésion à l'extrémité de la fissure soit par la cinématique du front de rupture. On souligne ensuite une différence essentielle de la forme du déplacement transverse à la faille entre le modèle de dislocation et le modèle de fissure . Ce résultat est appliqué à l'étude d'un enregistrement effectué dans la zone épicentrale du séisme de Michoacan (Septembre 1985). Celui-ci correspond à la croissance homogène d'une large fissure. On s'interesse, dans une deuxième partie, à l'étude et à la simulation de 3 évènements de magnitude modérée. En utilisant un modèle de fissure à forte chute de contrainte, un très bon accord est trouvé en 16 stations entre les accélérations calculées et celles observées lors d'une réplique du séisme d'Imperial Valley (Octobre 1979). Les très fortes accélérations enregistrées lors du séisme de San-Salvador (Octobre 1986) sont interprétées par la combinaison de 2 effets : une remontée de la rupture à quelques centaines de mètres sous la surface et la présence d'une couche à faible vitesse en surface. Enfin, en utilisant un modèle dérivé du modèle à barrières, on montre l'importance de l'hétérogénéité de la rupture et de la structure crustale superficielle sur les valeurs du pic d'accélération enregistrées à Kalamata (Grèce) lors du séisme de Septembre 1986.
9

Analyse du cycle économique. Datation et prévision / Business Cycle Analysis. Dating and Forecasting

Majetti, Reynald 07 November 2013 (has links)
La « Grande Récession » de 2008-2009 ou encore l'aggravation de la crise des dettes souveraines et de la dette publique dans la zone euro à l'été 2011, constituent de récents événements qui ont cristallisé les enjeux de l'analyse conjoncturelle, ceux relatifs notamment à la datation et à la prévision des inflexions cycliques de l'activité réelle. L'objet de cette thèse s'inscrit fondamentalement au sein de ces deux approches complémentaires du cycle économique.Le chapitre 1 dresse un portrait du cycle autour de trois conceptions distinctes de ses points de retournement : le cycle classique, le cycle de croissance et le cycle d'accélération. Nous discutons également de sa mesure eu égard aux diverses représentations possibles de l'activité agrégée d'un pays, ainsi qu'aux deux traditions existantes dans lesquelles s'inscrivent les modèles de datation. Nous mettons par ailleurs en lumière l'influence grandissante de l'environnement financier sur la dynamique cyclique des économies. Le chapitre 2 nous amène à développer deux algorithmes non-paramétriques dans le but de repérer les inflexions propres à chacun des cycles auparavant conceptualisés, mais aussipour en mesurer leurs principales caractéristiques. Le premier (resp. le second) algorithme repose sur une représentation univariée (resp. multivariée) de l'activité économique globale ; in fine, nous les appliquons aux données de la conjoncture française entre 1970 et 2010. Le chapitre 3 tire parti de nos résultats en matière de datation conjoncturelle afin de prévoir les récessions françaises depuis 1974. Au moyen de modèles probits, nous illustrons le rôle de variables financières et monétaires en tant qu'indicateurs avancés des fluctuations du cycle des affaires français. Nous montrons de plus que nos modèles prédictifs assurent uneparfaite détection des récessions pour un horizon égal à deux trimestres.Le chapitre 4 prolonge l'ensemble de l'analyse à plusieurs États membres de la zoneeuro, ces derniers étant observés depuis 1979. Nous construisons d'abord une chronologie de leurs cycles classiques respectifs puis, nous proposons un examen de leurs caractéristiques moyennes et de leur degré de synchronisation. Enfin, en s'appuyant sur des indicateurs financiers et monétaires dans le cadre d'un probit dynamique à effets fixes, nous parvenons à anticiper - jusqu'à un horizon de deux trimestres - les épisodes récessifs survenus dans les économies considérées. / The « Great Recession » of 2008-2009 and the sovereign and public debt crises which strengthened in the euro area in the summer of 2011 are recent events that have crystallized the challenges facing economic analysis, especially those related to dating and predicting cyclical inflections of real activity. The purpose of this thesis is to study these two complementary approaches to the economic cycle. Chapter 1 provides a portrait of the cycle using three distinct conceptions of its turning points: the classical cycle, the growth cycle and the acceleration cycle. We also discuss the measurement of the cycle with respect to various possible representations of aggregate activity of a country, as well as to two existing traditions which encompass dating models. Moreover, we highlight the growing influence of the financial environment over business cycle fluctuations.In chapter 2, we develop two non-parametric algorithms in order to identify theinflections that are particular to each of the previously conceptualized cycles, but also to measure their main characteristics. The first algorithm is based on a univariate representation of overall economic activity, the second on its ultivariate representation; ultimately, we apply the algorithms to the data of the French economy between 1970 and 2010. Chapter 3 builds on our results for cyclical dating to predict French recessions since 1974. Using probit models, we illustrate the role of monetary and financial variables as leading indicators of French business cycle fluctuations. In addition, we show that our models accurately detect recessions for a forecasting lag of two-quarters. Chapter 4 extends the entire analysis to several member states of the euro zone, with observations beginning in 1979. We first construct a chronology of their classical cycles, and then we propose an analysis of their main characteristics and their degree of synchronization.Finally, based on financial and monetary indicators in the context of a dynamic probit with fixed effects, we can anticipate the recessionary episodes which occurred in these economies with a horizon of two quarters.
10

Méthode de décomposition de domaine avec parallélisme hybride et accélération non linéaire pour la résolution de l'équation du transport Sn en géométrie non-structurée / Domain decomposition method using a hybrid parallelism and a low-order acceleration for solving the Sn transport equation on unstructured geometry

Odry, Nans 07 October 2016 (has links)
Les schémas de calcul déterministes permettent une modélisation à moindre coût du comportement de la population de neutrons en réacteur, mais sont traditionnellement construits sur des approximations (décomposition réseau/cœur, homogénéisation spatiale et énergétique…). La thèse revient sur une partie de ces sources d’erreur, de façon à rapprocher la méthode déterministe d’un schéma de référence. L’objectif est de profiter des architectures informatiques modernes (HPC) pour résoudre le problème neutronique à l’échelle du cœur 3D, tout en préservant l’opérateur de transport et une partie des hétérogénéités de la géométrie. Ce travail est réalisé au sein du solveur cœur Sn Minaret de la plateforme de calcul Apollo3® pour des réacteurs à neutrons rapides.Une méthode de décomposition de domaine en espace, est retenue. L'idée consiste à décomposer un problème de grande dimension en sous-problèmes "indépendants" de taille réduite. La convergence vers la solution globale est assurée par échange de flux angulaires entre sous-domaines au cours d'un processus itératif. En favorisant un recours massif au parallélisme, les méthodes de décomposition de domaine contribuent à lever les contraintes en mémoire et temps de calcul. La mise en place d'un parallélisme hybride, couplant les technologies MPI et OpenMP, est en particulier propice au passage sur supercalculateur. Une méthode d'accélération de type Coarse Mesh Rebalance  est ajoutée pour pallier à la pénalité de convergence constatée sur la méthode de décomposition de domaine. Le potentiel du nouveau schéma est finalement mis en évidence sur un coeur CFV 3D, construit en préservant l'hétérogénéité des assemblages absorbants. / Deterministic calculation schemes are devised to numerically solve the neutron transport equation in nuclear reactors. Dealing with core-sized problems is very challenging for computers, so much that the dedicated core codes have no choice but to allow simplifying assumptions (assembly- then core-scale steps…). The PhD work aims to correct some of these ‘standard’ approximations, in order to get closer of reference calculations: thanks to important increases in calculation capacities (HPC), nowadays one can solve 3D core-sized problems, using both high mesh refinement and the transport operator. Developments were performed inside the Sn core solver Minaret, from the new CEA neutronics platform Apollo3® for fast neutrons reactors of the CFV-kind.This work focuses on a Domain Decomposition Method in space. The fundamental idea involves splitting a core-sized problem into smaller and 'independent' subproblems. Angular flux is exchanged between adjacent subdomains. In doing so, all combined subproblems converge to the global solution at the outcome of an iterative process. Domain decomposition is well-suited to massive parallelism, allowing much more ambitious computations in terms of both memory requirements and calculation time. An hybrid MPI/OpenMP parallelism is chosen to match the supercomputers architecture. A Coarse Mesh Rebalance accelration technique is added to balance the convergence penalty observed using Domain Decomposition. The potential of the new calculation scheme is demonstrated on a 3D core of the CFV-kind, using an heterogeneous description of the absorbent rods.

Page generated in 0.0978 seconds