• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 10
  • 7
  • Tagged with
  • 58
  • 22
  • 16
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation théorique du développement tumoral sous fenêtre dorsale : Vers un outil clinique d'individualisation et d'optimisation de la thérapie

Lesart, Anne-Cécile 13 November 2013 (has links) (PDF)
Le travail réalisé durant cette thèse a eu pour objectif de développer un modèle théorique spécifiquement dédié au contexte du développement tumoral tel qu'il peut être observé sous une fenêtre dorsale implantée sur une souris. Le modèle développé est un modèle hybride multi-physique et multi-échelle qui couple deux modules principaux. Le premier module modélise la croissance tumorale par un automate cellulaire qui permet de différencier l'état de chaque cellule en fonction de son histoire (cycle cellulaire), et de son environnement (espace disponible pour proliférer, présence d'oxygène). Le second module modélise le réseau vasculaire et le flux sanguin et rend compte de l'angiogenèse (apparition de nouveaux vaisseaux) et de l'adaptation du diamètre des vaisseaux, en fonction de l'évolution des contraintes hémodynamiques, nettement visible sous la fenêtre dorsale. L'ensemble des processus diffusifs (diffusion de l'oxygène et des facteurs de croissance vasculaire) sont décrits par des équations aux dérivées partielles, couplées à des automates cellulaires qui permettent de localiser à chaque instant pour chaque équation les termes sources (production) et les termes puits (consommation) pour chaque entité diffusive. Les simulations numériques réalisées montrent dans quelle mesure il est possible de rendre compte des observations expérimentales sur le plan qualitatif, qui nécessite la neutralisation des biais numériques ; et sur le plan quantitatif, pour reproduire la cinétique de croissance tumorale et l'évolution de la densité vasculaire. Le modèle numérique de l'évolution tumorale sous fenêtre dorsale est ensuite utilisé pour tester les effets de deux types de molécules : cytotoxiques et anti-vasculaires. Les simulations numériques de ces deux types de traitement explorent différents protocoles, définis par le mode d'action de la molécule, la dose administrée et la fréquence d'administration. Les résultats montrent comment il est alors possible de définir un protocole optimum pour une tumeur donnée en direction d'une individualisation de la thérapie. Ce modèle intégré a permis de poser de façon satisfaisante les bases d'un clone numérique du modèle expérimental d'évolution tumorale sous fenêtre dorsale même si certains aspects nécessitent encore quelques améliorations. La validation des aspects thérapeutiques restera encore à accomplir avant de pouvoir envisager à terme le remplacement (au moins partiel) de l'animal par l'ordinateur.
32

Plastification en injection des polymères fonctionnels et chargés

Pham, Thuy Linh 27 September 2013 (has links) (PDF)
L'objectif principal de la thèse est de modéliser et visualiser les phénomènes de plastification des polymères dans le procédé d'injection-moulage. Dans les procédés de transformation des polymères par un système vis-fourreau (extrusion, injection), la plastification est l'étape durant laquelle le polymère originellement à l'état solide est graduellement fondu et homogénéisé par le chauffage externe et l'action mécanique de la friction contre les parois de l'outillage et du cisaillement. Cette étape est capitale dans la maîtrise technique et économique du procédé, en termes d'homogénéité thermique, de mélange des charges et de temps de séjour du polymère. Nous envisageons de visualiser et modéliser l'ensemble du processus de plastification dans les monovis d'injection. Afin de comprendre et de mesurer cette étape, nous avons conçu, validé et réalisé un fourreau à fenêtres. Ce système se compose de trois fenêtres de visualisation, insérées dans un fourreau en acier usiné par électroérosion. Le comportement mécanique de cet assemblage a été analysé par simulation numérique, sous différentes sollicitations thermiques, pressions et contraintes. L'hétérogénéité des matériaux de structure (acier - verre) a fait apparaître des problèmes potentiels de fuites, de fragilité qui ont été pris en compte dans la conception. Ce fourreau à fenêtres nous permet de visualiser et de suivre à l'aide des caméras scientifiques, les différents états du polymère une fois introduit dans l'ensemble vis-fourreau. Les résultats confirment les hypothèses théoriques de la plastification. Certains sont mis en évidence, comme l'existence d'un lit solide adossé à l'arrière du filet de la vis, ainsi que son évolution par rapport à la vitesse de rotation de la vis, ou l'apparition des films fondus entre le filet de la vis et le lit solide, et entre la paroi du fourreau et le lit solide. Certains sont par contre à vérifier par d'autres expériences, comme par exemple : l'apparition de la rupture du lit solide quelle que soit la vitesse de rotation de la vis, la valeur de la vitesse du lit solide par rapport à la vitesse de rotation de la vis. Nous souhaitons aussi, grâce à ce système "fourreau transparent", pouvoir étudier, modéliser et visualiser les aspects de dispersion et de mélange des charges (traceurs, pigments, mélange maître) au sein de la matrice polymère à l'état solide ou fondu.
33

Etude des propriétés des matériaux d'intérêt astrophysique et géophysique par choc laser.

Huser, Gaël 19 January 2004 (has links) (PDF)
Equation d'´etat du fer comprime par choc laser Cette thèse s'inscrit dans le cadre des recherches menées sur l'équation d'´etat de matériaux fortement comprimés. En particulier cette étude se focalise sur le cas du fer comprimé par choc laser. Le but est alors de se rapprocher des conditions du noyau terrestre, constitué d'une graine solide entourée de fer liquide. La compréhension des phénomènes décrivant la thermodynamique du noyau et le processus de geodynamo requiert la connaissance du lieu de la courbe de fusion du fer à l'interface solide-liquide du noyau à 3,3 Mbar. Plusieurs expériences ont été menées dans ce but. Dans un premier temps, une mesure absolue de l'Hugoniot du fer a ete effectuée. Vient ensuite une étude des états en détente partielle du fer dans un matériau fenêtre, le fluorure de lithium (LiF). Cette configuration permet un accès direct aux propriétés optiques du fer comprimé (réceptivité et émission propre). La mesure de la vitesse d'interface, largement dépendante des propriétés optiques du LiF comprimé, sert de jauge de pression. A l'aide d'un diagnostic de réceptivité à deux longueurs d'onde, la conductivité électrique continue du fer comprimé a été estimée et se trouve être en bon accord avec les résultats annoncés par la littérature géophysique. Le diagnostic d'émission propre a quant à lui permis d'effectuer une mesure de la température du fer en détente partielle, mettant en évidence le changement d'état solide-liquide a des pressions de l'ordre du Mbar.
34

Aspects théoriques et pratiques dans l'estimation non paramétrique de la densité conditionnelle pour des données fonctionnelles / Theoretical and practical aspects in non parametric estimation of the conditional density with functional data

Madani, Fethi 11 May 2012 (has links)
Dans cette thèse, nous nous intéressons à l'estimation non paramétrique de la densité conditionnelle d'une variable aléatoire réponse réelle conditionnée par une variable aléatoire explicative fonctionnelle de dimension éventuellement fi nie. Dans un premier temps, nous considérons l'estimation de ce modèle par la méthode du double noyaux. Nous proposons une méthode de sélection automatique du paramètre de lissage (global et puis local) intervenant dans l'estimateur à noyau, et puis nous montrons l'optimalité asymptotique du paramètre obtenu quand les observations sont indépendantes et identiquement distribuées. Le critère adopté est issu du principe de validation croisée. Dans cette partie nous avons procédé également à la comparaison de l'efficacité des deux types de choix (local et global). Dans la deuxième partie et dans le même contexte topologique, nous estimons la densité conditionnelle par la méthode des polynômes locaux. Sous certaines conditions, nous établissons des propriétés asymptotiques de cet estimateur telles que la convergence presque-complète et la convergence en moyenne quadratique dans le cas où les observations sont indépendantes et identiquement distribuées. Nous étendons aussi nos résultats au cas où les observations sont de type α- mélangeantes, dont on montre la convergence presque-complète (avec vitesse de convergence) de l'estimateur proposé. Enfi n, l'applicabilité rapide et facile de nos résultats théoriques, dans le cadre fonctionnel, est illustrée par des exemples (1) sur des données simulées, et (2) sur des données réelles. / In this thesis, we consider the problem of the nonparametric estimation of the conditional density when the response variable is real and the regressor is valued in a functional space. In the rst part, we use the double kernels method's as a estimation method where we focus on the choice of the smoothing parameters. We construct a data driven method permitting to select optimally and automatically bandwidths. As main results, we study the asymptotic optimality of this selection method in the case where observations are independent and identically distributed (i.i.d). Our selection rule is based on the classical cross-validation ideas and it deals with the both global and local choices. The performance of our approach is illustrated also by some simulation results on nite samples where we conduct a comparison between the two types of bandwidths choices (local and global). In the second part, we adopt a functional version of the local linear method, in the same topological context, to estimate some functional parameters. Under some general conditions, we establish the almost-complete convergence (with rates) of the proposed estimator in the both cases ( the i.i.d. case and the α-mixing case) . As application, we use the conditional density estimator to estimate the conditional mode estimation and to derive some asymptotic proprieties of the constructed estimator. Then, we establish the quadratic error of this estimator by giving its exact asymptotic expansion (involved in the leading in the bias and variance terms). Finally, the applicability of our results is then veri ed and validated for (1) simulated data, and (2) some real data.
35

Modélisation théorique du développement tumoral sous fenêtre dorsale : Vers un outil clinique d'individualisation et d'optimisation de la thérapie / Theoretical modelisation of tumour development on dorsal skinfold chamber : towards a clinical tool to individualize and optimize therapies.

Lesart, Anne-Cécile 13 November 2013 (has links)
Le travail réalisé durant cette thèse a eu pour objectif de développer un modèle théorique spécifiquement dédié au contexte du développement tumoral tel qu'il peut être observé sous une fenêtre dorsale implantée sur une souris. Le modèle développé est un modèle hybride multi-physique et multi-échelle qui couple deux modules principaux. Le premier module modélise la croissance tumorale par un automate cellulaire qui permet de différencier l'état de chaque cellule en fonction de son histoire (cycle cellulaire), et de son environnement (espace disponible pour proliférer, présence d'oxygène). Le second module modélise le réseau vasculaire et le flux sanguin et rend compte de l'angiogenèse (apparition de nouveaux vaisseaux) et de l'adaptation du diamètre des vaisseaux, en fonction de l'évolution des contraintes hémodynamiques, nettement visible sous la fenêtre dorsale. L'ensemble des processus diffusifs (diffusion de l'oxygène et des facteurs de croissance vasculaire) sont décrits par des équations aux dérivées partielles, couplées à des automates cellulaires qui permettent de localiser à chaque instant pour chaque équation les termes sources (production) et les termes puits (consommation) pour chaque entité diffusive. Les simulations numériques réalisées montrent dans quelle mesure il est possible de rendre compte des observations expérimentales sur le plan qualitatif, qui nécessite la neutralisation des biais numériques ; et sur le plan quantitatif, pour reproduire la cinétique de croissance tumorale et l'évolution de la densité vasculaire. Le modèle numérique de l'évolution tumorale sous fenêtre dorsale est ensuite utilisé pour tester les effets de deux types de molécules : cytotoxiques et anti-vasculaires. Les simulations numériques de ces deux types de traitement explorent différents protocoles, définis par le mode d'action de la molécule, la dose administrée et la fréquence d'administration. Les résultats montrent comment il est alors possible de définir un protocole optimum pour une tumeur donnée en direction d'une individualisation de la thérapie. Ce modèle intégré a permis de poser de façon satisfaisante les bases d'un clone numérique du modèle expérimental d'évolution tumorale sous fenêtre dorsale même si certains aspects nécessitent encore quelques améliorations. La validation des aspects thérapeutiques restera encore à accomplir avant de pouvoir envisager à terme le remplacement (au moins partiel) de l'animal par l'ordinateur. / The work realised during this thesis had for objective to develop a theoretical model dedicated to the context of tumour development as observed on a dorsal skinfold chamber on a mouse. The model developed is hybrid, multi-physic and multi-scale, and associate two main modules. The first module model tumour growth with a cellular automaton which permit to differentiate the state of each cell regarding its history (cell cycle), its environment (available space to proliferate, oxygen availability). The second module model vascular network and blood flow, and accounts for angiogenesis (apparition of new vessels) and diameter adaptation of vessels, regarding hemodynamical constraints evolution which is distinctly visible on dorsal chamber. The diffusive processes (oxygen diffusion and vascular growth factors) are described by partiel differential equations, coupled with cellular automata which permit to localize at each time for each equation the source terms (production) and the well terms (consumption) for each diffusive entity. The numerical simulations realised show in which regard it is possible to accounts for the experimental observations on the qualitative basis, which require numerical bias neutralisation; and on the quantitative basis, to reproduce tumour growth kinetic and evolution of vascular density. The numerical model of tumour evolution on dorsal chamber is then used to test the effects of two types of molecules: cytotoxic and anti-vascular. Numerical simulation of these two types of treatment explore different protocols, defined by the action mode of the molecule, the dose administrated, and the administration frequency. Results show how it is possible to define an optimum protocol for a given tumour in direction of therapy individualisation. This integrated model has permitted to put in place in a satisfactory way the bases of a numerical clone of the experimental model of tumour growth on dorsal chamber, even if several aspects still necessitate some improvements. The validation of these theoretical aspects has yet to be accomplished before considering in term the replacement (at least partiallly) of animals by computers.
36

Approximation de fonctions et de données discrètes au sens de la norme L1 par splines polynomiales / Function and data approximation in L1 norm by polynomial splines

Gajny, Laurent 15 May 2015 (has links)
L'approximation de fonctions et de données discrètes est fondamentale dans des domaines tels que la planification de trajectoire ou le traitement du signal (données issues de capteurs). Dans ces domaines, il est important d'obtenir des courbes conservant la forme initiale des données. L'utilisation des splines L1 semble être une bonne solution au regard des résultats obtenus pour le problème d'interpolation de données discrètes par de telles splines. Ces splines permettent notamment de conserver les alignements dans les données et de ne pas introduire d'oscillations résiduelles comme c'est le cas pour les splines d'interpolation L2. Nous proposons dans cette thèse une étude du problème de meilleure approximation au sens de la norme L1. Cette étude comprend des développements théoriques sur la meilleure approximation L1 de fonctions présentant une discontinuité de type saut dans des espaces fonctionnels généraux appelés espace de Chebyshev et faiblement Chebyshev. Les splines polynomiales entrent dans ce cadre. Des algorithmes d'approximation de données discrètes au sens de la norme L1 par procédé de fenêtre glissante sont développés en se basant sur les travaux existants sur les splines de lissage et d'ajustement. Les méthodes présentées dans la littérature pour ces types de splines peuvent être relativement couteuse en temps de calcul. Les algorithmes par fenêtre glissante permettent d'obtenir une complexité linéaire en le nombre de données. De plus, une parallélisation est possible. Enfin, une approche originale d'approximation, appelée interpolation à delta près, est développée. Nous proposons un algorithme algébrique avec une complexité linéaire et qui peut être utilisé pour des applications temps réel. / Data and function approximation is fundamental in application domains like path planning or signal processing (sensor data). In such domains, it is important to obtain curves that preserve the shape of the data. Considering the results obtained for the problem of data interpolation, L1 splines appear to be a good solution. Contrary to classical L2 splines, these splines enable to preserve linearities in the data and to not introduce extraneous oscillations when applied on data sets with abrupt changes. We propose in this dissertation a study of the problem of best L1 approximation. This study includes developments on best L1 approximation of functions with a jump discontinuity in general spaces called Chebyshev and weak-Chebyshev spaces. Polynomial splines fit in this framework. Approximation algorithms by smoothing splines and spline fits based on a sliding window process are introduced. The methods previously proposed in the littérature can be relatively time consuming when applied on large datasets. Sliding window algorithm enables to obtain algorithms with linear complexity. Moreover, these algorithms can be parallelized. Finally, a new approximation approach with prescribed error is introduced. A pure algebraic algorithm with linear complexity is introduced. This algorithm is then applicable to real-time application.
37

Deux siècles de protestantisme en Chine : Missions, indigénisation et défis / Two centuries of Protestantism : missions, indigenization, challenges

Muhlheim, Laurence 13 December 2011 (has links)
Cette thèse examine les conditions d’implantation, de diffusion et d’acclimatation du protestantisme en Chine depuis l’apparition des premières missions protestantes à nos jours. Elle retrace, dans le long terme, la manière dont les communautés ecclésiales sont devenues autonomes et ont spécifié ces critères d’autonomie. La partie la plus dynamique et porteuse d’avenir se trouve dans les Eglises de maison, fortement imprégnées de la théologie évangélique et pentecôtiste qui remonte aux faith missions du 19ème siècle, elles-mêmes issues des revivals anglo-saxons. Chaque chapitre illustre l’un des grands moments qui ont scandé l’histoire du protestantisme chinois, avec pour objectif d’intégrer ces périodes et leurs acteurs dans le mouvement global de son installation en Chine, pour montrer que la dynamique d’acculturation qui l’accompagne a pu se maintenir précisément en vertu de sa rapidité - le sort du protestantisme en Chine semble s’être joué en quelques décennies seulement. Les enchainements chronologiques (missions, processus d’autonomie, Réveils chinois, communisme et création d’une Eglise d’état, etc.) ont fait sens et ont permis au protestantisme de s’enraciner en tant que religion populaire grâce à des patriarches de l’Eglise chinoise devenus des icônes en résistant aux répressions du gouvernement communiste. La vitalité des Eglises de maison en marge de l’Eglise gouvernementale réside dans la volonté des différents réseaux d’Eglises de maison d’harmoniser leur théologie dans l’objectif d’un projet missionnaire commun à vocation transnationale. / This thesis examines the conditions of implementation, dissemination and acclimatization of Protestantism in China from the appearance of the first Protestant missions to the present. It traces, in the long run, the way the communities have become self-governing and have specified the criteria of independence. The most dynamic and promising future is in the house church movement, strongly impregnated with evangelical and Pentecostal theology dating back to the 19th century faith missions, themselves derived from Anglo-Saxon revivals. Each chapter illustrates one of the great moments that have punctuated the history of Chinese Protestantism, with the aim of integrating these periods and their actors in a global dynamic, in order to show that the protestant acculturation was realised in only several decades. The chronological sequences (missions, autonomy process, revivals, communism, creation of a state church, etc.) hastened Protestantism to take roots as a popular religion. Patriarchs of the Chinese church became icons by resisting the communist government repression. The vitality of the house church movement resides in the will of the various networks to harmonize their theology for the purpose of a transnational missionary project.
38

Extraction des utilisations typiques à partir de données hétérogènes en vue d'optimiser la maintenance d'une flotte de véhicules / Critical usages extraction from historical and heterogénius data in order to optimize fleet maintenance

Ben Zakour, Asma 06 July 2012 (has links)
Le travail produit s'inscrit dans un cadre industriel piloté par la société 2MoRO Solutions. La réalisation présentée dans cette thèse doit servir à l'élaboration d'un service à haute valeur, permettant aux exploitants aéronautiques d'optimiser leurs actions de maintenance. Les résultats obtenus permettent d'intégrer et de regrouper les tâches de maintenance en vue de minimiser la durée d'immobilisation des aéronefs et d'en réduire les risques de panne.La méthode que nous proposons comporte trois étapes : (i) une étape de rationalisation des séquences afin de pouvoir les combiner [...] / The present work is part of an industrial project driven by 2MoRO Solutions company.It aims to develop a high value service enabling aircraft operators to optimize their maintenance actions.Given the large amount of data available around aircraft exploitation, we aim to analyse the historical events recorded with each aircraft in order to extract maintenance forecasting. Theresults are used to integrate and consolidate maintenance tasks in order to minimize aircraft downtime and risk of failure. The proposed method involves three steps : (i) streamlining information in order to combinethem, (ii) organizing this data for easy analysis and (iii) an extraction step of useful knowledgein the form of interesting sequences. [...]
39

Etude et optimisation d'un procédé plasma basse puissance pour le dépôt de ZnO dopé et non dopé à propriétés photovoltaïques à partir d'une solution aqueuse / Study and optimization of a low power plasma reactor for the deposition of ZnO doped and undoped with photovoltaic properties from an aqueous solution

Ma, Alexandre 10 December 2015 (has links)
Ce travail de thèse s'insère dans la Recherche et Développement du Photovoltaïque. L'objectif était d'étudier, développer et optimiser un nouveau procédé plasma de dépôt pour l'élaboration de couches minces d'oxyde de zinc (ZnO) pour l'application de couche fenêtre dans les cellules solaires de type Cu(In,Ga)Se2. La particularité de ce procédé est de réaliser rapidement des couches d'oxyde (≥ 0,6 nm/s) à partir d'une solution aqueuse de précurseurs non toxiques, interagissant, sous forme de gouttes, avec le plasma. La faisabilité du dépôt de ZnO par le réacteur plasma basse puissance (LPPR) a été vérifiée en obtenant des couches de ZnO homogènes, cristallines et transparentes grâce à l'optimisation des paramètres du réacteur. Le diagnostic du réacteur plasma et la modélisation/simulation du réacteur nous ont permis de constater que l'état physique et la taille des gouttes influent sur la qualité des couches d'oxyde. Des cellules solaires ont été réalisées permettant de valider la qualité des couches de ZnO obtenues via notre procédé plasma. Les meilleurs rendements sont d'environ 14 % ce qui est très prometteur pour les recherches futurs. L'étude du dopage de type N du ZnO a été abordé dans le but de réaliser une couche fenêtre complète par le réacteur LPPR. Cependant beaucoup d'améliorations et d'études restent à faire telles que la mise en place d'un système d'injection sophistiqué, ou encore l'investigation approfondie sur le dopage. Néanmoins une étude des coûts matières/énergie du procédé a été réalisée afin de pouvoir positionner le réacteur plasma parmi les autres techniques employées pour la réalisation de cellules CIGS. / This work is part of the Research and Development of Photovoltaic. The aim was to study, develop and optimize a new deposition plasma process for the elaboration of zinc oxide thin layers (ZnO) as the window layer in Cu(In,Ga)Se2 solar cells of. The particularity of this process is to quickly realize oxide layers (≥ 0.6 nm/s) from an aqueous solution of non-toxic precursors, interacting in the form of droplets, with the plasma. The feasibility of the ZnO deposition by the low power plasma reactor (LPPR) was checked by obtaining homogeneous, crystalline and transparent layers of ZnO thanks to the optimization of reactor parameters. The diagnostic and modeling / simulation of the plasma reactor allowed us to see that the physical state and droplet size affect the quality of the oxide layers. Solar cells were created to validate the quality of ZnO layers obtained via our plasma process. The best obtained efficiency is about 14% which is very promising for future research. The study of doping N type ZnO was addressed in order to achieve a complete window layer by LPPR reactor. However many improvements and studies are still needed, such as the establishment of a sophisticated injection system, or the thorough investigation on doping. Nevertheless a cost study about material/energy of the process was conducted in order to place the plasma reactor among other techniques used for the production of CIGS solar cells.
40

Sur le contexte spatial en gestion des fenêtres et interaction homme-machine. / About spatial context in window management and human-computer interaction

Faure, Guillaume 15 December 2011 (has links)
Il est admis depuis quelque temps déjà qu’une interaction, pour être utile et efficace, doit être pensée “en contexte”. Cependant ce contexte reste une notion floue regroupant de nombreux concepts la rendant difficile à exploiter lors de la conception de techniques d’interaction. La présente thèse se concentre sur la partie spatiale du Contexte dans le cadre des environnements de bureau et de la gestion des fenêtres.Nous avons tout d’abord conçu et implémenté un ensemble de techniques d’interaction regroupées sous l’ap- pellation PowerTools. Ces interactions ont comme particularité de conserver la disposition des éléments à l’écran et de garder l’interaction localisée autour du point d’attention de l’utilisateur. Deux de ces techniques, DeskPop et StackLeafing s’intéressent plus particulièrement à la navigation entre les fenêtres (et le bureau) pendant une interaction de glisser-déposer. DeskPop permet de révéler et d’interagir avec l’espace du bureau sans pour autant déplacer ou cacher les fenêtres. StackLeafing elle, propose d’utiliser le non-chevauchement des fenêtres pour les regrouper en couches et ainsi pouvoir parcourir l’ensemble des fenêtres plus rapidement que par la simple inspec- tion individuelle. TimeShift pour sa part propose une méthode de déclenchement des historiques de copier-coller et glisser-déposer permettant de conserver l’interaction autour du point d’attention de l’utilisateur. La conception des PowerTools nous a conduit à effectuer trois études plus théoriques portant sur le contexte spatial et qui ont donné lieu à des expériences utilisateurs en laboratoire.La première de ces études considère l’acquisition de cibles surgissantes ou animées où nous faisons varier le délai d’apparition et d’animation. Il s’avère que l’animation ou l’apparition soudaine d’une cible reste très proche au niveau des performances du pointage classique (cible statique toujours affichée) pour des délais d’apparition ou d’animation très court (en dessous de 200 ms). Cependant, le cas non statique conduit à plus d’erreurs et, dès que le délai dépasse 200 ms, on observe des différences de performance avec le cas statique. Ces résultats montrent que des techniques telles que StackLeafing et DeskPop qui conservent les cibles potentielles statiques et visibles possèdent un avantage par rapport aux techniques classiques.La seconde étude porte sur la profondeur en gestion des fenêtres. Elle a pour but de déterminer si l’application d’un effet graphique sur les fenêtres peut aider les utilisateurs à mieux percevoir la profondeur de couches de fenêtres comme utilisé dans la technique StackLeafing. Cette étude compare trois effets, appelés indices visuels de profondeur : ombres, flou, et luminosité. Ces indices sont appliqués à des scènes composées de fenêtres disposées en couches (ensemble de fenêtres ne se recouvrant pas), les indices de flou et de luminosité étant appliqués de manière plus forte pour les couches plus profondes. Les sujets devaient alors déterminer le nombre total de couches de la scène. L’expérience montre que l’indice le plus efficace est la luminosité.Enfin, la conception de TimeShift à également porté à notre attention la difficulté d’intégrer de nouvelles tech- niques d’interaction dans un environnement existant. Dans le cas de l’implémentation des historiques de copier- ou-déplacer, nous avons utilisé des interactions “temporisées”. Pour généraliser ces interactions temporelles, nous proposons que l’utilisateur communique avec le système par la reproduction de motifs rythmiques. Nous avons défini un vocabulaire propice à l’interaction homme-machine puis nous avons mené des expériences utilisateurs pour évaluer les capacités de reproduction et de mémorisation d’association de rythmes à des commandes. Les ex- périences montrent que le type d’interaction rythmique que nous proposons est effectivement adapté à l’Interaction Homme-Machine.La proposition de départ de cette thèse était de modifier le moins possible la disposition des éléments affichés et de conserver l’interaction autour du point d’attention de l’utilisateur afin de conserver le contexte et la mémoire spatiale de ce dernier. Nous avons tout d’abord conçu et intégré un ensemble de techniques dans un environnement réel. Puis, nous avons élaboré et mené des expériences en laboratoire afin de mieux comprendre les implications des choix de conception. / It is already well known that for an interaction to be useful, it must be thought “in context”. Unfortunately, this Context remains quite a blurry notion encompassing a lot of different concepts, making it hard to use when designing new interaction techniques. This thesis focus on the spatial part of this context in the field of window management and desktop usage.First, we designed and implemented a set of interaction techniques we called PowerTools. These interactions have the particularity of keeping the position and size of on-screen objects and to keep interaction around the user’s focus of attention. Two of these techniques, DeskPop and StackLeafing more precisely focus on the navigation between windows (and desktop) while using a drag-and-drop interaction. DeskPop allow to uncover and interact with the desktop’s content without requiring to hide or move opened windows. StackLeafing’s purpose is to use the non overlapping of windows to group them in layers, thus allowing to search through them by group instead of individually. On the other hand, TimeShift offer a triggering technique for copy-and-paste histories whose particularity is to keep the interaction around the user’s point of interest.The desing of these PowerTools brought us to conduct three more theorical studies on the spatial context which in turn led to controlled user experiments.The first of these studies looked at the the acquisition of popping and animated targets where we made the delay of apprarition or animation vary. It turns out that the cases where the target is animated or pops are really close to the traditionnal static case in term of pointing performance for small delays (under 200 ms). However, the non static cases lead to more pointing errors and once the delay goes above the 200 ms limit, we observe a drop in performance compared to the static case. These results show that techniques akind to StackLeafing and DeskPop that keep the potential target visible and static have an advantage over classic techniques.The second study looked at the depth dimension in window management. Its purpose was to see if applying some graphical effect on windows could help users better perceive the depth windows layers like the ones used in the StackLeafing technique. This study compared three depth visual cues: shadows, blur and luminance. These cues were used in scenes composed of windows group into layers (set of windows that does not everlap). The blur and luminance cues were applied more strongly on “distant” windows than on closer ones. Participants had then to guess the number of layers in the scene. This sudy shows that the luminance cue is a clear winner.Finally, the desing of TimeShift also brought our attention on the difficulty to integrate a new interaction tech- nique into an existing system. In the case of copy-and-paste histories conception, we used “timed” interactions. In order to generalise this temporal interactions we propose to use rhythmic patterns as a mean to communicate with interactive systems. We defined a vocabulary suited for human-computer interaction. We then evaluated through user studies the capacity for non experts to reproduce and memorise the association of such patterns and commands. These studies indeed show that the type of rhythmic patterns we defined are usable in the context of human-computer-interaction.the starting point of this thesis was to keep the on-screen elements static and to keep the interaction around the user’s locus of attention in order to preserve the user’s memory and spatial context. First, we integrated a set of techniques insite a real environment. Then, in order to better understand conception choices, we designed and ran controlled experiments.

Page generated in 0.0389 seconds