Spelling suggestions: "subject:"réponses"" "subject:"deréponses""
91 |
Étude de la réponse aiguë à l'exercice intermittent à haute intensité chez le patient coronarienGuiraud, Thibaut 12 1900 (has links)
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques. / High-intensity interval training has been shown to be more effective than moderate intensity continuous training for improving maximal oxygen uptake (VO2max) and metabolic profile in patients with coronary heart disease (CHD). However, no evidence supports the prescription of one specific protocol of high intensity interval exercise (HIIE) in this population. We have compared the acute cardiopulmonary responses to four different sessions of HIIE in order to identify the most optimal one in CHD patients. In random fashion, subjects performed the different HIIE sessions, all with exercise phases at 100% of maximal aerobic power (MAP), but which varied in interval duration (15 s or 60 s) and type of recovery (0% of MAP or 50% of MAP). Each protocol lasted 35 minutes or until exhaustion. When considering perceived exertion, patient comfort and time spent above 80% of VO2max, we found that repeated bouts of 15s at 100% of MAP interspersed by 15s phases of passive recovery was the optimal HIIE session for these coronary patients. Then, we compared the physiological responses to the optimized HIIE versus a moderate intensity continuous training (MICE) protocol of similar energy expenditure in coronary patients. When considering physiological responses, safety (no elevation of Troponin T) and perceived exertion, the HIIE protocol appeared to be well tolerated and more efficient in this group of stable coronary patients. Finally, a single bout of HIIE did not induce deleterious effects on the endothelium, as demonstrated by endothelial microparticules analyses. We conclude that high-intensity interval exercise is a promising mode of training for patients with stable CHD that should also be further investigated in cardiac patients, particularly with exercise-induced ischemia.
|
92 |
Factor models, VARMA processes and parameter instability with applications in macroeconomicsStevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90.
Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques?
Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité.
Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada.
Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci.
Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs.
L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement.
Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis.
Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models?
This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability.
The first article analyzes the monetary transmission mechanism in Canada using a
factor-augmented vector autoregression (FAVAR) model. For small open economies
like Canada, uncovering the transmission mechanism of monetary policy using VARs
has proven to be an especially challenging task. Such studies on Canadian data have
often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy.
As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series.
In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters.
In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation.
The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
|
93 |
TAARAC : test d'anglais adaptatif par raisonnement à base de casLakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
94 |
Étude du modèle théorique du rapport des déterminants de Rorschach par leur comparaison avec une histoire faite avec les réponses / Study of the theoretical model of the relationship among Rorschach determinants through their comparison with a story made with responsesSilberstein, Fernando 14 June 2011 (has links)
L’objectif de ce travail est d’étudier l’ensemble des déterminants comme la manifestation d’un fonctionnement psychologique spécifique de l’interprétation à l’épreuve. La séquence consécutive des déterminants cotés est comparée avec la séquence des déterminants issue des réponses reprises pour faire une histoire avec les réponses données. De cette comparaison quatre aménagements principaux se présentent : -la répétition égale ou presque de la séquence malgré le fait que la deuxième suite est issue d’un ordre différent des réponses et des planches que celui de la passation initiale ; -une séquence proche ; -un rassemblement par groupes de pareils déterminants ; -des séries comparées différentes. Chacun des types est en rapport avec quelques traits psychologiques distinctifs, notamment la répétition égale et le rassemblement. Si dans certains cas la suite se répète malgré le changement de l’ordre initial des planches, cela veut dire que la séquence consécutive représente un fonctionnement spécifique caractéristique de l’interprétation. D’autres rapports des déterminants avec les narrations sont établis, notamment celui des proportions relatives de l’ensemble des déterminants avec la thématique et les liens parmi les épisodes. Quelques différences interprétatives et de réactivité à la couleur sont constatées entre les sexes. À partir des comparaisons faites il est proposé que les déterminants représentent un niveau sémantique de base d’influence cognitive et en rapport avec les processus émotionnels composé d’objets, liaisons, construction des justifications et transformations, et qualités acquises dans la construction d’un sens. / The purpose of this paper is to study the determinants as the manifestation of a psychological functioning specific to the interpretation of the test. The consecutive sequence of determinants of the initial classification is compared with the sequence of determinants resulting from responses used to make a story. Four principal organizations of determinants appear when this comparison is made: the repetition of the same or nearly the same sequence despite the fact that the second series results from a different order of the plates and responses; a sequence similar to the initial one; block grouping of equal determinants; different series of determinants.Each of these organizations is related to some distinctive psychopathological traits, in particular in the cases of equal repetition and block grouping. The fact that the initial classification may be repeated despite the change in the order of the responses and plates makes it clear that the consecutive sequence of determinants represents a specific psychological process proper to the interpretation, relatively independent from the stimulus. Other relationships of determinants with the narratives are stablished, including the different proportions of the totality of determinants to the subject of the stories, and the linkings among episodes.As a result of the comparisons made, the author proposes that the sequence of determinants represents a basic semantic level linked to the cognitive organization relative to emotional processes. This interpretative level is related to the constructions of objects, links, justifications, transformations, and qualities acquired in the course of the building up of meaning.
|
95 |
Approximation of OLAP queries on data warehouses / Approximation aux requêtes OLAP sur les entrepôts de donnéesCao, Phuong Thao 20 June 2013 (has links)
Nous étudions les réponses proches à des requêtes OLAP sur les entrepôts de données. Nous considérons les réponses relatives aux requêtes OLAP sur un schéma, comme les distributions avec la distance L1 et rapprocher les réponses sans stocker totalement l'entrepôt de données. Nous présentons d'abord trois méthodes spécifiques: l'échantillonnage uniforme, l'échantillonnage basé sur la mesure et le modèle statistique. Nous introduisons également une distance d'édition entre les entrepôts de données avec des opérations d'édition adaptées aux entrepôts de données. Puis, dans l'échange de données OLAP, nous étudions comment échantillonner chaque source et combiner les échantillons pour rapprocher toutes requêtes OLAP. Nous examinons ensuite un contexte streaming, où un entrepôt de données est construit par les flux de différentes sources. Nous montrons une borne inférieure de la taille de la mémoire nécessaire aux requêtes approximatives. Dans ce cas, nous avons les réponses pour les requêtes OLAP avec une mémoire finie. Nous décrivons également une méthode pour découvrir les dépendances statistique, une nouvelle notion que nous introduisons. Nous recherchons ces dépendances en basant sur l'arbre de décision. Nous appliquons la méthode à deux entrepôts de données. Le premier simule les données de capteurs, qui fournissent des paramètres météorologiques au fil du temps et de l'emplacement à partir de différentes sources. Le deuxième est la collecte de RSS à partir des sites web sur Internet. / We study the approximate answers to OLAP queries on data warehouses. We consider the relative answers to OLAP queries on a schema, as distributions with the L1 distance and approximate the answers without storing the entire data warehouse. We first introduce three specific methods: the uniform sampling, the measure-based sampling and the statistical model. We introduce also an edit distance between data warehouses with edit operations adapted for data warehouses. Then, in the OLAP data exchange, we study how to sample each source and combine the samples to approximate any OLAP query. We next consider a streaming context, where a data warehouse is built by streams of different sources. We show a lower bound on the size of the memory necessary to approximate queries. In this case, we approximate OLAP queries with a finite memory. We describe also a method to discover the statistical dependencies, a new notion we introduce. We are looking for them based on the decision tree. We apply the method to two data warehouses. The first one simulates the data of sensors, which provide weather parameters over time and location from different sources. The second one is the collection of RSS from the web sites on Internet.
|
96 |
La vitrine du magasin : son influence et son rôle dans l'expérience de magasinage / Windows displays : influence and role in shopping experienceLecointre-Erickson, Danielle 10 September 2018 (has links)
Le rôle de l’attraction des éléments extérieurs du point de vente physique demeure une problématique complexe pour les commerçants. De plus, l’expérience en point de vente physique est en pleine évolution, due en partie à une présence accrue des nouvelles technologies. Cette thèse répond à la problématique suivante : comment la vitrine du point de vente influence-t-elle l’expérience de magasinage anticipée ? Nous nous focalisons sur l’influence de la technologie interactive et du niveau de représentation (construal level) en vitrine sur la perception de l’atmosphère, les réponses attentionnelles, les réponses affectives, la valeur de magasinage anticipée et les intentions comportementales. Nous testons les effets modérateurs de la motivation de magasinage et de la tendance exploratoire du consommateur. Nous adoptons une approche hypothético-déductive et nous procédons à deux expérimentations afin de répondre à notre problématique.Les résultats de la première expérimentation in situ (n=251) révèlent un effet stimulant et hédonique de l’utilisation de la technologie interactive en vitrine. La deuxième expérimentation, en laboratoire (n=144), a mobilisé une méthode d’eye-tracking pour collecter les données sur l’influence du niveau de représentation des éléments en vitrine. Les résultats montrent une influence significative du niveau de représentation sur l’atmosphère globale perçue et sur les intentions comportementales. Les résultats des cartes de chaleur montrent que la motivation de magasinage utilitaire renforce l’attention visuelle sur les produits en vitrine. Aucun effet modérateur de la tendance exploratoire n’a été détecté dans les deux expérimentations. / One of the relevant issues for retailers in this dissertation is the role of marketing mix elements outside the physical store in attracting customers. Another relevant issue is the evolution of the physical retailing experience which is partly due to the ever increasing presence of new retail technology. The aim of this dissertation is to answer the following question: how do store windows influence anticipated shopping experience? We focus on the influence of interactive technology and construal level in store windows on perceived global atmosphere, visual attention, affective response, anticipated shopping value and patronage intentions. Shopping motivation and exploratory buying behavior tendency were tested for moderating effects. Two experiments were conducted for this doctoral research. The results from the in situ field experiment (n=251) reveal a hedonic and arousing effect from usage of the interactive window display. The second experiment on store window construal level (n=144) was conducted using eyeLtracking equipment in a controlled laboratory setting. The results show a significant influence of store window construal level on perceived global atmosphere and on patronage intentions. The results from the heat map analysis show that utilitarian shopping motivation reinforces visual attention to products in the window display. No moderating effect was found in either study for exploratory buying behavior tendency.
|
97 |
La vulnérabilité face aux risques environnementaux à Kigali (Rwanda) : enjeux et facteursTsinda, Aimé 12 1900 (has links)
No description available.
|
98 |
Comportements stratégiques et changements institutionnels lors du processus initial d'accréditation internationale AACSB (2003) : le cas d'une Business School universitaire française : l'EM Strasbourg / Strategics behaviors and institutional changes during the initial AACSB accreditation process (2003) : the case study of a French University Business School : EM Strasbourg Business SchoolBouteraa, Fatiha 27 September 2017 (has links)
Les objectifs de la thèse sont de comprendre : 1) les mécanismes de diffusion, d’adoption et d’institutionnalisation des accréditations internationales, 2) les comportements stratégiques mobilisés à l’égard notamment du processus initial d’accréditation institutionnelle AACSB, 3) les réponses stratégiques et organisationnelles pour gérer les demandes institutionnelles conflictuelles provoquées par les injonctions des 21 standards AACSB (2003) et 4) les changements opérés en vue de l’alignement aux injonctions du processus initial prescrit et des 21 standards AACSB (2003). Dans une perspective néo-institutionnaliste, nous mobilisons un cadre d’analyse alliant les comportements stratégiques et le changement institutionnel. Pour répondre aux objectifs de la recherche, une étude de cas longitudinale rétrospective et en temps réel sur 15 ans d’une business school universitaire française est menée. Les résultats de la recherche permettent d’enrichir notamment le cadre d’analyse d’Oliver (1991) d’une sixième réponse stratégique et de trois tactiques dans le cas d’un processus initial d’accréditation institutionnelle AACSB. / This research aims to understand: 1) the mechanisms of diffusion, adoption and institutionalization of international accreditations, 2) the strategic behaviors adopted to respond to the initial AACSB accreditation process, 3) the strategic and organizational responses to the conflictual demands originated by the 21 AACSB 2003 standards and 4) the changes occurred in order to ensure the organizations’ alignment to the 21 AACSB 2003 standards and to the required process.Based on a neo-institutional perspective, we used two conceptual frameworks about strategic responses and institutional change. In order to comply with our objectives, we have conducted a 15-year longitudinal case study both retrospectively and in real time within the only French business school operating inside a university. The principal result of the research is the identification of a 6th new strategic response for Oliver’s (1991) framework as well as three tactics to be adopted in the initial AACSB accreditation process.
|
99 |
Évaluation concomitante des signatures fonctionnelles des réponses lymphocytaires T spécifiques des Antigènes Associés aux Tumeurs et des Cellules Tumorales Circulantes : Impact sur le pronostic des patients atteints de carcinome épidermoïde des voies aéro-digestives supérieures / Prognostic value of the concomitant evaluation of tumor-associated immune responses and circulating tumor cells in head and neck squamous cell carcinomaWu, Xianglei 02 June 2017 (has links)
Nous avons abordé dans l’ensemble de nos travaux deux paramètres importants pour l’immunomonitoring des patients atteints d’un cancer : les cellules tumorales circulantes (CTC) comme un indicateur de la « charge antigénique tumorale » et la réponse immune lymphocytaire T spécifique d’antigènes associés aux tumeurs (AAT). Nous avons évalué d’abord la valeur diagnostique et pronostique des CTC dans les cancers des voies aérodigestives supérieures (« HNSCC » en anglais) par une revue systématique et meta-analyse de la littérature. Les preuves actuelles identifient le test de détection de CTC comme un test extrêmement spécifique, mais de faible sensibilité dans les HNSCC. En outre, la présence de CTC indique une DFS (« disease free survival ») inférieure. Nous rapportons également pour la première fois un cas rare d’énumération extrêmement élevée de CTC détectées par le système CellSearch® chez un patient présentant un carcinome épidermoïde de la cavité buccale en utilisant. Le nombre absolu de CTC pourrait donc prédire une phase particulière de développement du cancer ainsi qu'une mauvaise survie, contribuant potentiellement à une prise en charge médicale personnalisée. De plus, nous décrivons une adaptation de la méthode CellSearch® qui nous avons développée pour détecter les cellules tumorales dans le liquide céphalo-rachidien de patients atteints de méningites carcinomateuses. Cette nouvelle approche permet une sensibilité nettement améliorée en comparaison avec la cytologie conventionnelle. La technologie CellSearch®, appliquée à des volumes limités des échantillons et permettant une augmentation du temps pré-analytique, pourrait ainsi avoir un grand intérêt dans le diagnostic de métastases leptoméningées chez les patients atteints d’un cancer d’origine épithéliale. Par une évaluation concomitante des CTC et des réponses lymphocytaires spécifiques aux AAT chez 24 patients avec HNSCC, nous avons trouvé que les CTC pourraient être un indicateur indépendant de la charge tumorale immunogène. L'absence de CTC, la présence de lymphocytes T spécifiques aux AAT, ou la combinaison de ceux-ci, étaient tous des paramètres montrant une tendance pour une meilleure survie globale ou une survie sans maladie. L’amplitude et les signatures fonctionnelles des lymphocytes T spécifiques aux AAT chez les patients atteints de HNSCC étaient associées à la présence de CTC. Ces résultats suggèrent qu’une évaluation concomitante de ces deux paramètres pourrait être plus informative sur le pronostic et potentiellement sur l’impact des traitements (notamment dans la perspective d’un traitement par des « immune checkpoints ») / We have evaluated herein two important parameters in the immunomonitoring of cancer patients: circulating tumor cells (CTC) as an indicator of “tumoral antigenic load” and tumor-associated antigens (TAA) specific T-cells. We firstly evaluated the diagnostic and prognostic value of CTC in Head and Neck Squamous Cell Carcinoma (HNSCC) by a systematic review and meta-analysis. We came to the conclusion that current evidence identifies the CTC detection test as an extremely specific but low sensitive test in HNSCC. In addition, the presence of CTC indicates a worse disease-free disease (DFS). Also, we report for the first time a rare case of extremely high enumeration of circulating tumor cells detected in a patient with squamous cell carcinoma of the oral cavity using the CellSearch® system. The absolute number of CTC could therefore predict a particular phase of cancer development as well as a poor survival, potentially contributing to personalized health. In addition, we describe an adaptation of the CellSearch® method that we have developed for detecting tumor cells in the cerebrospinal fluid of patients with carcinomatous meningitis. This new approach reaches a significantly improved sensitivity compared to conventional cytology. CellSearch® technology, applied to limited sample volumes and allowing an increased pre-analytical time, may be of great interest in the diagnosis of leptomeningeal metastases in patients with epithelial cancer. By a concomitant evaluation of CTC and TAA-specific lymphocyte responses in 24 HNSCC patients, we describe that CTC could be an independent indicator of immunogenic tumor burden. The absence of CTC, the presence of TAA-specific T-cells, or the combination of these, were all parameters showing a trend for a better overall survival or DFS. The amplitude and functional signatures of TAA-specific T-lymphocytes in patients with HNSCC were associated with the presence of CTC. These results suggest that a concomitant evaluation of these two parameters may be more pertinent for prognosis assessment as well as for treatment impact, especially in “checkpoint-inhibitors” new immunotherapies
|
100 |
Towards universal health coverage in Tunisia : theoretical analysis and empirical tests / Vers une couverture santé universelle en Tunisie : analyse théorique et tests empiriquesMakhloufi, Khaled 23 January 2018 (has links)
La présente thèse explore, à travers quatre papiers, la possibilité d’étendre le régime d’assurance maladie sociale (SHI) vers la couverture santé universelle (CSU) et ce en présence d’obstacles structurels économiques.Les effets moyens de deux traitements, les deux assurances MHI et MAS, sur l’utilisation des soins de santé (consultations externes et hospitalisations) sont estimés. L’actuel régime d’assurance sociale en Tunisie (SHI), malgré l’amélioration de l’utilisation des soins de santé procurée aux groupes couverts, reste incapable d’atteindre une couverture effective de tous les membres de la population vis-à-vis des services de soins dont ils ont besoin. L’atteinte de cet objectif requière une stratégie qui cible les ‘‘arbres’’ et non la ‘‘forêt’’.Le chapitre deux contourne les principaux obstacles à l’extension de la couverture par l’assurance maladie et propose une approche originale permettant de cibler les travailleurs informels et les individus en chômage. Une étude transversale d’évaluation contingente (CV) a été menée en Tunisie se proposant d’estimer les volontés d’adhésion et les consentements à payer (WTP) pour deux régimes obligatoires présentés hypothétiquement à l’adhésion. Les résultats confirment l’hypothèse selon laquelle la proposition d’une affiliation volontaire à un régime d’assurance obligatoire serait acceptée par la majorité des non couverts et que les WTP révélés pour cette affiliation seraient substantiels. Enfin, dans le chapitre trois, on insiste sur l'’importance de prendre en compte les attitudes protestataires en évaluant la progression vers la CSU. / This thesis explores, in a four paper format, the possibility of extending social health insurance (SHI) schemes towards Universal Health Coverage (UHC) in presence of structural economic obstacles.The average treatment effects of two insurance schemes, MHI and MAS, on the utilization of outpatient and inpatient healthcare are estimated. The current Tunisian SHI schemes, despite improving utilization of healthcare services, are nevertheless incapable of achieving effective coverage of the whole population for needed services. Attaining the latter goal requires a strategy that targets the “trees” not the “forest”.Chapter two gets around major challenges to extending health insurance coverage and proposes an original approach by targeting informal workers and unemployed. A cross-sectional Contingent valuation (CV) study was carried out in Tunisia dealing with willingness-to-join and pay for two mandatory health and pension insurance schemes.Results support the hypotheses that the proposition of a voluntary affiliation to mandatory insurance schemes can be accepted by the majority of non-covered and that the WTP stated are substantial.Finally in chapter three we focus on methodological aspects that influence the value of the WTP. Our empirical results show that the voluntary affiliation to the formal health insurance scheme could be a step towards achieving UHC in Tunisia. Overall, we highlight the importance of taking into account protest positions for the evaluation of progress towards UHC.
|
Page generated in 0.0318 seconds