• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 321
  • 97
  • 40
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 497
  • 188
  • 118
  • 60
  • 54
  • 36
  • 35
  • 27
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Diminution des vibrations et du bruit rayonné d'une paroi par contrôle distribué / Reduction of vibrations and radiated wall noise by distributed control

Bricault, Charlie 14 June 2017 (has links)
L'allègement des structures est un enjeu économique important dans les domaines d'activités industrielles telles que l'automobile, l'aéronautique ou le naval, qui intègrent peu à peu les matériaux composites dans la fabrication des structures. Cet allègement s'accompagne d'un raidissement de la matière qui implique des problèmes de vibrations et d'isolation acoustique. Plusieurs méthodes de traitement existent pour diminuer les vibrations ou le bruit rayonné d'une paroi, mais ces méthodes ont l'inconvénient d'augmenter significativement la masse de la paroi. Afin de répondre à cette problématique, il est proposé dans cette thèse de modifier le comportement dynamique des structures à partir d'un réseau périodique de patchs piézoélectriques shuntés avec un circuit électrique dont il est possible de modifier l'impédance. En contrôlant ainsi le comportement dynamique des patchs piézoélectriques, il est possible de contrôler le comportement vibratoire de la structure et donc de traiter les problèmes de transmissions solidiennes ou de transmissions aériennes.La méthode de shunt choisie est la méthode dite de shunt à capacité négative qui permet de modifier la rigidité d'une structure. Cette méthode dite semi-passive présente plusieurs avantages : la mise en œuvre est simple, il est possible d'intégrer les patchs directement à l'intérieur de la paroi, elle consomme une faible quantité d'énergie électrique et sa mise en application est peu onéreuse. / Making the structure lighter is an important economic stake in the field of industrial activities such as automotive, aeronautic or naval, which gradually integrate composite materials in the manufacturing of structures. This reduction of the mass goes along with a stiffening of the matter implying acoustics and vibrations issues. Several methods exist to reduce vibrations or acoustic radiations of structures, but these methods increase the mass. In order to answer the problematic, we propose to change the dynamic behavior of structures with a periodic lattice of piezoelectric patches shunted with an electrical circuit whose the impedance can be controlled. Therefore, the control of the coupled behavior of the piezoelectric patches allows the control of vibrational wave's diffusion inside the structure and so to treat the structure-borne vibrations and airborne acoustics emission. The shunt method chosen is negative capacitance shunt which allows to modify the rigidity of a structure. This semi-passive method has several advantages: the implementation is simple, it is possible to integrate the patches directly inside the wall, it consumes a low amonte of electrical energy and its implementation is inexpensive.
122

Internationalisation des réseaux de franchise : Une perspective dynamique pour appréhender le choix de la modalité d’entrée / Internationalization of franchise network

Weigel, Romain 24 November 2016 (has links)
Au cours de notre travail doctoral nous avons étudié les stratégies d’internationalisation des franchiseurs afin de comprendre les déterminants du choix de la modalité de franchise internationale. Ces développements internationaux font émerger de nouvelles problématiques auxquelles les travaux académiques existants ne donnent pas d’analyses satisfaisantes. Pour les approfondir nous revenons sur ces questions à travers une approche dynamique des réseaux de franchise internationaux. Nous focalisons notre travail sur les problématiques de développement de l’avantage concurrentiel par les localisations étrangères des franchiseurs en proposant un cadre d’analyse basé sur l’approche des capacités des entreprises. Une méthodologie qualitative nous a permis de dimensionner le métier de franchiseur et d’interroger la mise en œuvre de métier au niveau international. Suite à une analyse thématique du discours de franchiseurs, nous avons identifié trois capacités centrales sources d’avantage concurrentiel. Par la suite, nous avons analysé des développements internationaux et mis en évidence le transfert de ces capacités à la modalité de franchise internationale. Notre cadre d’analyse nous a alors permis de souligner l’importance de l’analyse des capacités sources de l’avantage concurrentiel dans le processus du choix de la modalité d’entrée pour comprendre le développement des réseaux dans le nouveau marché. D’un point de vue dynamique, nous avons identifiés deux niveaux de dynamisme distincts et nous montrons qu’il importe de comprendre les déterminants du développement du deuxième niveau pour affiner notre compréhension de la réussite internationale des entreprises. / During our thesis we studied franchisors’ internationalization strategies in order to determine the optimum choice of organizational mode. These international developments cause new problems which existing literature does not provide satisfactory answers. In order to propose a new analysis, we choose to use a dynamic approach to international franchise systems. We focus our work on issues of competitive advantage development by foreign franchisors locations and we provide a framework based on the organizational capabilities perspective. A qualitative methodology enables us to define the competitive advantage of franchisor and questioned the implementation of this advantage into international operations. We seize the competitive advantage of franchisor with athematic analysis of franchisors practice. We identified three core capabilities. Subsequently, we analyzed international developments and highlighted the transfer of the core capabilities to the sub-franchisor. Then, our analytical framework allowed us to underline the importance of taking account of the competitive advantage in the process of choosing the organizational mode in order to understand the competitive advantage exploitation in the new market. From a dynamic perspective, we identified two levels of dynamism and we show the importance of understanding the determinants of the development of the second level to refine the knowledge of the achievement of international operation.
123

Airline network revenue management : integrated optimization of hub location and capacity allocation / Gestion des revenus dans un réseau de compagnies aériennes : optimisation intégrée de la localisation de plateforme et du dimensionnement de capacité

Hou, Yanting 22 November 2019 (has links)
La gestion des revenus d’un réseau de compagnies aériennes, un des problèmes le plus critiques dans le secteur du transport aérien, a reçu une attention significative depuis ces dernière décennies. Cependant, de nombreuses problématiques doivent encore être traitées. Cette thèse étudie quatre nouveaux problèmes de la gestion des revenus dans un réseau de compagnies aériennes. D'abord, un problème de dimensionnement de capacité du réseau avec alliances concurrentes est étudié. Dans ce problème, les concurrences horizontales et verticales sont considérées et la demande est supposée déterministe. L’objectif est de maximiser les revenus globaux de l’alliance en déterminant la capacité (en nombre de places) dans les vols pour chaque classe tarifaire de chaque compagnie. Le problème est formulé en programmation linéaire en nombres entiers et résolu à l’aide du solveur CPLEX. Deuxièmement, un problème intégrant la localisation de p-hub médian et le dimensionnement des capacités (places) est étudié pour maximiser une combinaison du bénéfice moyen et du bénéfice au pire cas. Pour ce problème, un seul hub à capacité illimitée est considéré. De plus, les incertitudes sur la demande sont représentées à l’aide d’un ensemble fini des scénarios. Le problème est formulé en programmation stochastique à deux étapes. Ensuite, un algorithme génétique (GA) est proposé pour résoudre le problème pour chaque scénario. Les résultats numériques montrent que la méthode est meilleure que celles dans la littérature qui considèrent uniquement le bénéfice moyen. Le troisième problème étudié est une extension naturelle du deuxième dans lequel la capacité de hub à localiser est limitée et les perturbations qui peuvent impacter la capacité du hub, telles que des conditions météorologiques, sont prises en compte. Deux formulations du problème sont proposées : (1) une programmation stochastique à deux étapes sur la base des scénarios, et (2) optimisation hybride de programmation stochastique à deux étapes à l’aide de pondération. Ensuite, l’approximation moyenne par échantillonnage (SAA) et le GA sont appliqués pour résoudre le problème, respectivement. Les résultats numériques montrent que la SAA est plus performante que le GA. Le quatrième problème est aussi une extension du deuxième problème où la compagnie aérienne doit respecter le niveau d'émissions de CO2 imposé. Le problème est modélisé en programmation stochastique à deux étapes sur la base des scénarios. De plus, une méthode SAA est proposée pour sa résolution. / As one of critical problems in aviation industry, airline network revenue management has received significant attention in recent decades. However, many issues still need to be addressed. This thesis investigates four new airline network revenue management problems. Firstly, a network capacity allocation problem with competitive alliances is studied. In this problem, horizontal and vertical competitions and deterministic demand are considered. The aim is to maximize the global alliance revenue by determining the (seat) capacities in flights for each fare class of each airline. The problem is formulated into a mixed integer programming and is solved by a commercial solver CPLEX. Secondly, an integrated p-hub median location and (seat) capacity allocation problem is investigated to maximize the combined average-case and worst-case profits of an airline. For this problem, an uncapacitated hub is considered and uncertain demand is represented by a finite set of scenarios. The studied problem is formulated based on a two-stage stochastic programming framework. Then a Genetic Algorithm (GA) is proposed to solve the problem for each scenario. Computational results show that the proposed method outperforms those in the literature only considering average-case profit. The third studied problem is a generalization of the second one in which the capacity of hub to be located is limited and disruptions which can impact airline hub capacity, such as adverse weather, are considered. Two formulations of the problem are proposed based on : (1) a scenario-based two-stage stochastic programming, and (2) a weight-based hybrid two-stage stochastic programming-robust optimization framework. Then a Sample Average Approximation (SAA) method and a GA are applied to solve them, respectively. Computational results show that the SAA is more effective than the GA. The fourth problem is also an extension of the second one where an airline is subjected to a CO2 emission limit. The problem is modeled into a scenario-based two-stage stochastic programming. And a SAA method is proposed to solve it.
124

Influence des propriétésdu graphite sur le premier cycle d'intercalation du lithium / Influence of graphite properties on the first cycle lithium intercalation

Bernardo, Philippe 05 July 2011 (has links)
Les batteries à ions lithium alimentent la plupart des petits appareils électriques, portables. Elles font usage du graphite comme électrode négative. Pour optimiser celle-ci, il faut réduire la perte spécifique de charge du premier cycle d’intercalation du lithium. Cette perte est principalement due à la formation d’une couche passive par décomposition de l’électrolyte. Les propriétés du graphite qui l’influencent sont partiellement connues. En particulier, une meilleure compréhension de l’exfoliation du graphite, responsable d’une grande perte spécifique de charge, est souhaitée. Ce phénomène est provoqué par la co-intercalation de solvant à travers les plans de bord des particules. Des paramètres comme la cristallinité, la chimie de surface et la réactivité du graphite semblent jouer un rôle. Une étude systématique a été entreprise afin de déterminer leur influence sur le premier cycle dans un électrolyte standard à base de carbonate d’éthylène et de diméthyle. Il apparaît que les complexes de surface oxygénés ne jouent pas de rôle particulier tandis que les complexes hydrogénés favorisent la co-intercalation de solvant. De plus, les graphites ayant une faible teneur en sites actifs constituant l’Active Surface Area (ASA), mesurée par chimisorption d’oxygène, sont plus enclins à exfolier. Comme les atomes de bord à deux voisins sont les plus réactifs en raison de la présence d’un électron célibataire, la plus grande sensibilité à la co-intercalation de solvant des graphites de faible ASA peut s’expliquer par la formation d’une couche passive inappropriée sur des plans de bord peu réactifs laissant passer le solvant. / In the field of small portable electrical devices, lithium-ion batteries are common. Graphite is used as the negative electrode. To improve its electrochemical performances, the first cycle specific charge loss must be decreased. It is predominantly attributed to the electrolyte reduction into a passivation layer. The graphite properties which influence this charge loss are not clearly identified. In particular, the graphite exfoliation which is responsible for a huge specific charge loss must be better understood. This dramatic phenomenon is due to solvent co-intercalation through the particle edge planes. Many graphite parameters such as crystallinity, surface chemistry and reactivity are thought to play a role. A systematic study was carried out in which the influence of each parameter on the first cycle was assessed in a standard ethylene and dimethyl carbonate based electrolyte. It appears that the presence of oxygen surface complexes does not have any influence whereas C6H bonds cause slight exfoliation. In addition, graphite samples containing low amount of active sites : the so-called Active Surface Area (ASA), quantified by oxygen chemisorption, are more likely to exfoliate. Since graphite active sites are mainly the edge atoms because of unpaired electron presence, low ASA graphite exfoliation can be explained by the formation of inappropriate passivation layer on the edge planes letting solvent molecules co-intercalate.
125

Les effets d'un processus d'accompagnement des équipes-classes basé sur le modèle ARC sur les comportements et les capacités d'adaptation d'élèves de niveau primaire présentant des troubles complexes

Martineau-Crète, Isabelle January 2020 (has links) (PDF)
No description available.
126

Predicting home Wi-Fi QoE from passive measurements on commodity access points / Prédiction de la QoE de la Wi-Fi domestique avec mesures passives sur les points d'accès de base

Hora, Diego Neves da 27 April 2017 (has links)
Une mauvaise qualité Wi-Fi peut perturber l'expérience des utilisateurs domestiques sur Internet, ou la qualité de l'expérience (QoE). Détecter quand le Wi-Fi dégrade la QoE des utilisateurs est précieux pour les fournisseurs d’accès internet (FAI), surtout que les utilisateurs tiennent souvent pour responsable leur FAI lorsque leur QoE se dégrade. Pourtant, les FAI ont peu de visibilité au sein de la maison pour aider les utilisateurs. Cette thèse conçoit et évalue des techniques de surveillance passive de la qualité Wi-Fi sur les points d'accès de base (APs) et prédit quand la qualité du Wi-Fi dégrade la QoE de l'application Internet. Nous concevons et évaluons une méthode qui estime la capacité de liaison Wi-Fi. Nous concevons et évaluons prédicteurs de l'effet de la qualité Wi-Fi sur la QoE de quatre applications populaires: la navigation sur le Web, YouTube, la communication audio et vidéo en temps réel. Nous concevons une méthode pour identifier les événements qui traduisent une mauvaise QoE pour identifier les cas où les prédicteurs QoE estiment que toutes les applications visées fonctionnent mal. Nous appliquons nos prédicteurs aux métriques Wi-Fi collectées sur une semaine de surveillance de 832 points d’accès de clients d'un grand FAI résidentiel. Nos résultats montrent que la QoE est bonne sur la grande majorité des échantillons, mais nous trouvons encore 9% des échantillons avec une mauvaise QoE. Pire, environ 10% des stations ont plus de 25% d'échantillons dont la QoE est médiocre. Dans certains cas, nous estimons que la qualité Wi-Fi provoque une QoE médiocre pendant de nombreuses heures, bien que dans la plupart des cas ces événements soient courts. / Poor Wi-Fi quality can disrupt home users' internet experience, or the Quality of Experience (QoE). Detecting when Wi-Fi degrades QoE is valuable for residential Internet Service Providers (ISPs) as home users often hold the ISP responsible whenever QoE degrades. Yet, ISPs have little visibility within the home to assist users. This thesis designs and evaluates techniques to passively monitor Wi-Fi quality on commodity access points (APs) and predict when Wi-Fi quality degrades internet application QoE. Our first contribution is the design and evaluation of a method that estimates Wi-Fi link capacity. We extend previous models, suited for 802.11a/b/g networks, to work on 802.11n networks using passive measurements. Our second contribution is the design and evaluation of predictors of the effect of Wi-Fi quality on QoE of four popular applications: web browsing, YouTube, audio and video real time communication. Our third contribution is the design of a method to identify poor QoE events. We use K-means clustering to identify instances where the QoE predictors estimate that all studied applications perform poorly. Then, we classify poor QoE events as short, intermittent, and consistent poor QoE events. Finally, our fourth contribution is to apply our predictors to Wi-Fi metrics collected over one week from 832 APs of customers of a large residential ISP. Our results show that QoE is good on the vast majority of samples of the deployment, still we find 9% of poor QoE samples. Worse, approximately 10% of stations have more than 25% poor QoE samples. In some cases, we estimate that Wi-Fi quality causes poor QoE for many hours, though in most cases poor QoE events are short.
127

Modèle d'équilibre dans les réseaux de transport en commun : le cas des capacités explicites des services

Cepeda, Manuel January 2002 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
128

Nouvelles méthodes de résolution de problèmes de conception de réseaux et leur implantation en environnement parallèle

Gendron, Bernard January 1994 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
129

Trois essais sur les conséquences de l'absence d'engagement en économique

González, Patrick 09 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l’Université de Montréal / Cette thèse est constituée de trois essais concernant la théorie des contrats. À prime abord, les sujets de ces trois essais peuvent paraître fort distincts mais ils sont toutefois liés par le thème récurrent des conséquences économiques d'une capacité limitée d'engagement dans une relation d'affaires bilatérale. Le premier essai présente un algorithme de programmation dynamique que j'ai développé afin de résoudre le modèle exposé dans Gauthier, Poitevin et González (1997). Le second essai explore la nature des contrats bilatéraux optimaux en information incomplète lorsque l'information est révélée de façon séquentielle à la partie informée. L'analyse y est menée sous différentes hypothèses quant à la capacité d'engagement des parties au contrat. Le troisième essai examine la teneur des comportements stratégiques des parties contractuelles lorsque la partie disposant du plus faible pouvoir de négociation peut procéder de manière privée à un investissement qui accroît le surplus social. Si l'on écarte le délicat problème du partage du surplus social, la nature des allocations économiques optimales dans une relation bilatérale, réalisables par l'emploi de contrats complets, en information complète et avec pleine capacité d'engagement des parties au contrat, est assez bien comprise dans la profession. À l'instar du système des prix, ces allocations réalisent l'égalité des taux marginaux de substitution des deux parties entre toutes les paires imaginables de biens économiques. Cependant, les contrats obtenus sous ces hypothèses ressemblent généralement fort peu à ceux que l'on peut observer empiriquement. En relâchant les hypothèses précédentes, la théorie moderne des contrats parvient à expliquer la nature des contrats comme résultant d'une adaptation optimale à un environnement contractuel imparfait. Parmi les hypothèses les plus susceptibles de ne pas être vérifiées dans la réalité, celle d'information parfaite des agents ainsi que celle d'une capacité d'engagement illimitée, sur tout horizon temporel et en toute circonstance, semblent les moins plausibles. La première de ces hypothèses est relâchée dans les deux derniers essais alors que la seconde l'est tout au long de la thèse. En information incomplète ou imparfaite, on peut démontrer que les objectifs d'assurance du revenu et d'efficacité dans la production sont généralement incompatibles, même si des contrats avec plein engagement sont disponibles. Afin de bien isoler les effets des déficiences quant à la capacité d'engagement des parties à un contrat en information incomplète ou imparfaite, je pose l'hypothèse, dans les deux derniers essais, que les agents n'ont aucune préférence pour le risque. Cette hypothèse n'est pas appropriée dans le premier essai; d'abord, parce que l'aversion stricte pour le risque y constitue la source des gains à l'échange et ensuite, parce que l'analyse y est menée en information complète. De manière générale, il ressort de mes travaux qu'une capacité limitée d'engagement dans les contrats restreint plus ou moins sévèrement l'ensemble des gains à l'échange réalisables. Il existe des moyens pour parvenir à créer un surplus économique — éventuellement sous-optimal — même si les agents économiques sont opportunistes et ne sont pas tenus de respecter leurs engagements passés. En ce sens, un environnement contractuel parfait n'est pas absolument requis pour qu'une économie puisse fonctionner à un niveau supérieur à l'autarcie. En horizon fini, les contrats robustes au problème de capacité limitée d'engagement, tels que prescrits en théorie, ont souvent une structure plus simple que les contrats de premier rang. Ils ressemblent davantage aux contrats réels et, en ce sens, il est plausible de penser que ce type de problème constitue un trait caractéristique de la nature des relations d'affaires dans l'économie. En horizon infini, lorsque les agents exploitent le potentiel de gain économique réalisable par des échanges différés, le problème d'engagement limité restreint la gamme des échanges possibles. Malgré un problème d'engagement, deux agents pourront s'auto-assurer mutuellement mais de manière imparfaite. Encore une fois, les contrats prescrits par cette théorie de second rang ressemblent davantage aux contrats observés dans la réalité.
130

Le surentraînement dans les activités physiques de longue durée : étude de plusieurs marqueurs physiologiques

Bosquet, Laurent 12 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Thèse de Doctorat effectuée en cotutelle au Laboratoire de Physiologie de l'Exercice Département de Kinésiologie - Université de Montréal - Canada et au Laboratoire d'Analyse de la Performance Motrice Humaine Faculté des Sciences du Sport - Université de Poitiers - France / L'histoire du sport moderne est parsemée d'exemples d'athlètes qui n'ont jamais eu le palmarès auquel leur talent les prédestinait. Peut être par malchance, mais aussi, souvent, par excès d'entraînement. La relation entre la charge d'entraînement et la capacité de performance est en forme de U inverse (Rowbottom et al., 1998). Il existe un seuil individuel à partir duquel toute augmentation de la charge d'entraînement ne se traduit plus par une augmentation de la capacité de performance, mais par une stagnation, puis une diminution. On distingue deux étapes à partir de cette rupture. La première, le dépassement, est une diminution de la performance provoquée par une fatigue aiguë liée à la charge d'entraînement et à d'autres facteurs de stress (Kreider et al., 1998). La récupération de la capacité de performance nécessite plusieurs jours à plusieurs semaines. La seconde étape est le surentraînement. Il s'agit d'une diminution de la capacité de performance provoquée par une fatigue chronique liée à la charge d'entraînement et aux autres facteurs de stress (Kreider et al., 1998). Dans le cas du surentraînement la récupération du niveau initial est beaucoup plus longue, puisqu'elle nécessite plusieurs semaines à plusieurs mois. Les limites entre l'enti-aînement optimal, le dépassement et le surentraînement sont assez étroites, et le passage d'une étape à l'autre peut être relativement rapide. A partir de là, on conçoit l'intérêt de disposer de marqueurs qui permettent d'identifier à quel niveau se situe l'athlète, afin de l'entraîner au maximum de ses possibilités, tout en prévenant le risque de surentraînement (Hooper et MacKinnon, 1995). Le problème est qu'il n'existe actuellement aucun signe clinique qui permet de diagnostiquer le surentraînement sans risque de se tromper. Paradoxalement, l'effort de recherche s'est orienté vers l'étude de marqueurs biologiques dont le dosage est complexe et coûteux, tels que les catécholamines, la glutamine, et a plus ou moins laissé de côté d'autres marqueurs beaucoup plus accessibles, tels que la lactatémie ou la fréquence cardiaque. Le but de cette thèse est donc d'étudier la réponse d'athlètes spécialistes de disciplines d'endurance aérobie à une augmentation du volume d'enù-aînement de 100% en 3 semaines, afin de déterminer si la lactatémie et/ou la fréquence cardiaque permettent de détecter le surentraînement. Nous avons recmté 6 coureurs de demi-fond et 4 tiiathlètes de niveau provincial à Monù-éal et à Poitiers. Ils étaient âgés de 27±5 ans et avaient une vitesse aérobie maximale de 18.9±1.2km.h-'. Le schéma expérimental que nous avons utilisé pour provoquer le surentraînement est constitué de 3 périodes. Au cours de la période de référence, d'une durée de 3 semaines, nous avons demandé aux sujets de conserver leur volume d'entraînement habituel. Le kilométrage hebdomadaire moyen de cette période est calculé pour chaque sujet, et sert de référence pour les périodes suivantes. Au cours de la période de surcharge, nous avons augmenté ce kilométrage hebdomadaire moyen de 33% par semaine pendant 3 semaines, de façon à provoquer un état d'épuisement susceptible de placer les sujets en état de surentraînement. Suite à cette période de surcharge, nous avons demandé aux sujets de courir la moitié du kilométrage hebdomadaire de référence pendant. Il s'agit de la période de récupération. Nous avons évalué les sujets à plusieurs reprises. Il y a tout d'abord eu une session de familiarisation aux différents tests au début de la période de référence, puis une mesure expérimentale à la fin de chaque période. Nous avons donc une mesure de référence, une mesure de surcharge et une mesure de récupération. Chaque évaluation comprend successivement un électrocardiogramme de nuit, un test orthostatique, un test progressif jusqu à épuisement, un test de performance et un test sous-maximal. L ECG de nuit a été enregistré au moyen du Polar RR Recorder (Polar Electro Oy, Kempele, Finlande). Chaque sujet est équipé le soir vers 20 heures, et doit garder l'appareillage jusqu'au lendemain matin 7 heures. La durée d'enregistrement proprement dite commence à minuit et se termine à 5 heures. A l'intérieur de cette période nous prélevons un segment de 1024 intervalles RR, tel que représenté sur cette figure. Nous faisons ensuite une analyse spectrale de ce signal au moyen d'une transformation rapide de Fourier. Le test orthostatique, d'une durée de 30 minutes, est réalisé le matin entre le réveil et le petit déjeuner, au domicile du sujet. Il consiste en une période de 20 minutes en position couchée, immédiatement suivie d'une période de 10 minutes en position debout. Un segment de 256 intervalles RR est prélevé dans les 5 dernières minutes de chaque position, afin d'obtenir leur spectre de fréquence. Le test progressif est réalisé au laboratoire sur tapis roulant (Q65, Quiton, Seattle, USA). Il s agit de paliers de 3 minutes séparés par une minute de récupération. La vitesse des 3 premiers palters est 12, 14 et 16 km.h , respectivement, puis augmente par incréments de l km.h jusqu'à épuisement. Lors de la récupération entre chaque palier, nous prélevons une goutte de sang pour doser la lactatémie lors des 15 premières secondes, puis nous demandons aux sujets d'évaluer la difficulté de l'effort au moyen de l'échelle de Borg (1985, RPE). Le test de performance est réalisé au laboratoire sur tapis roulant (Q65, Quiton, Seattle, USA). Suite à un échauffement standard de 15 minutes, le sujet de courir le plus longtemps possible à 85% de la vitesse aérobie maximale. L'épreuve se termine lorsqu'il n'est plus capable de maintenir la vitesse demandée. Nous utilisons la durée pendant laquelle il a couru comme indicateur de la capacité de performance. Le test sous-maximal est réalisé au laboratoire sur tapis roulant (Q65, Quiton, Seattle, USA). Il s'agit de 3 paliers de 10 minutes séparés par 12 minutes de récupération. L'intensité d'effort est 65, 75 et 85% de la vitesse aérobie maximale, respectivement. Lors de la récupération les sujets sont assis pendant 10 minutes, puis libres de leur activité pendant 2 minutes. La fréquence cardiaque est enregistrée de la 9ème minute d'effort à la lOème minute de récupération au moyen du cardiofréquence mètre Polar Vantage (Polar Electro Oy, Kempele, Finlande). Pour comparer les cinétiques de fréquence cardiaque après chaque période expérimentale, nous avons utilisé une modélisation de type mono-exponentielle de la forme Fc (t) = ao +ai.e-t/T, ou ao est la valeur asymptotique de la fréquence cardiaque, ai est la différence entre la fréquence cardiaque à la fin du palier et la valeur asymptotique, et T est la constante de temps. Pour donner une explication physiologique des phénomènes observés, nous avons calculé le spectre de fréquence d'un segment de 256 intervalles RR prélevés entre la 5ème et la lOème minute de récupération, et nous avons dosé la noradrénaline de façon sériée au cours des 5 premières minutes de la récupération. Toutes les études expérimentales qui s'intéressent au surentraînement sont confrontées au même dilemme au moment d'interpréter les résultats : les sujets sont-ils réellement surentraînés, ou sont-ils victimes d'une fatigue aiguë, rapidement réversible, auquel cas il s'agit plutôt d'un état de dépassement? En l'absence de signes biologiques spécifiques, la plupart des études établissent qu'un athlète est surentraîné lorsqu'il fait face à une diminution chronique de sa capacité de performance, et que cet état est associé à un certain nombre de modifications du comportement (troubles de l'humeur, du sommeil, etc.). C'est la démarche que nous avons retenue pour notre étude. Pour être considéré comme surentraîné, un sujet doit tout d'abord ne souffrir d'aucune maladie ou blessure en mesure d'expliquer la diminution de la capacité de performance. Ensuite, nous devons observer au moins 2 des 3 critères suivants : une diminution du résultat au test de performance (Urhausen et al., 1998), une augmentation du score au questionnaire proposé par la Société Française de Médecine du Sport pour détecter le surentraînement (Legros et al., 2000), une auto-évaluation quotidienne de la fatigue supérieure à 5 (sur une échelle de l à 7) pendant au moins 7 jours consécutifs (Hooper et al., 1993). Pour s'assurer du caractère chronique de la diminution de la capacité de performance, il ne doit pas y avoir de retour au niveau initial du résultat au test de performance après la période de récupération. Dans la cas contraire, le sujet n'est plus considéré comme surentraîné, mais comme étant en état de dépassement. Au total, et en supposant que cette démarche est valide, nous avons diagnostiqué un état de surentraînement chez 7 des 10 sujets, et un état de dépassement chez les 3 autres. La première partie de nos travaux consistait à étudier la lactatémie au cours d'un test progressif jusqu'à épuisement. Nos résultats montrent une diminution significative du pic de lactatémie après les périodes de surcharge et de récupération chez nos 7 sujets surentraînés, ainsi qu'un décalage de la courbe lactatémie-intensité relative vers la droite. Le problème est qu'il s'agit exactement de la réponse observée chez l'athlète pour qui il y a une amélioration de la capacité de performance dans les épreuves de longue durée (Hurley et al., 1984). Il fautr donc trouver un critère qui permet de déterminer si le décalage de la courbe vers la droite traduit une amélioration ou une diminution de la capacité de performance. Snyder et al. (1993) proposent pour cela de compléter le dosage de la lactatémie par un indice de perception de la difficulté de l'effort (RPE). Pour une même diminution de la lactatémie, le RPE est sensé rester le même chez l'athlète qui s'améliore, et diminuer chez l'athlète surentraîné. A partir de là, le rapport lactatémie/RPE doit augmenter chez l'athlète qui s améliore, et diminuer chez l'athlète surentraîné. Nos résultats montrent effectivement une diminution significative du rapport lactatémie - RPE à partir de 90% de la vitesse aérobie maximale après les périodes de surcharge et de récupération. Mais contrairement à l'hypothèse de Snyder et al. (1993), le RPE varie très peu d'une période à l'autre. Cela signifie que les modifications de ce rapport s'expliquent majoritairement par celles de la lactatémie, et que le RPE ne pennet pas de détenniner si l'athlète s'est amélioré ou s'il est surentraîné. Bien qu'il y ait un décalage de la courbe de lactatémie dans les deux cas, il existe néanmoins une différence fondamentale chez l'athlète surentraîné. Nous avons montré que le pic de lactatémie diminue de façon significative, alors qu'il est relativement peu affecté chez l athlète qui s'améliore. Cela suggère que le décalage vers la droite observé lors du surentraînement est en fait un abaissement de la courbe essentiellement dû à une diminution de la capacité du muscle à produire de l'acide lactique. Il est donc possible d interpréter la courbe de lactatémie en utilisant le pic de lactate comme critère diagnostic. Lorsqu'on observe un décalage vers la droite sans modification du pic de lactatémie, nous pouvons supposer une amélioration de la capacité du muscle et des autres organes à utiliser le lactate, et conclure à une amélioration de la capacité de performance pour les épreuves de longue durée. A l'inverse, si le décalage s'accompagne d'une diminution du pic de lactatémie, nous pouvons supposer une diminution de la capacité du muscle à produire de l'acide lactique, et conclure à une diminution de la capacité de performance pour les épreuves de longue durée. La seconde partie de nos travaux consistait à étudier la régulation de la fréquence cardiaque au repos. Nos résultats ne montrent aucun effet de la période de surcharge sur les différents paramètres de l'analyse spectrale de la variabilité de la fréquence cardiaque, quelle que soit la condition expérimentale. Cette absence d'effet statistique semble pouvoir être expliquée par une très grande variabilité interindividuelle, puisque le coefficient de variation est souvent proche de 100%. Compte tenu de cette hétérogénéité, il paraît plus judicieux de mettre l'emphase sur les résultats individuels. Parmi nos sujets, deux cas nous paraissent particulièrement évocateurs. Chez le premier, nous avons pu vérifier la présence de tous les critères diagnostiques du surentraînement après la période de surcharge, puis un retour au niveau initial pour chacun d'entre eux après la période de récupération. Il a réalisé successivement 30 minutes, 19 minutes puis 29 minutes à l'épreuve de temps limite. Par ailleurs il a amélioré ses meilleiires performances de l'aimée lors des compétitions qui se sont déroulées les semaines suivantes. Il s'agit donc d'un cas manifeste de dépassement. Chez le second, nous avons constaté la présence de 3 des 4 critères diagnostiques après les périodes de surcharge et de récupération. Il a réalisé successivement 31 minutes, 25 minutes, puis 19 minutes à l'épreuve de temps limite, et n'a retrouvé son niveau de performance initial que plusieurs mois après l'experimentation. Nous avons diagnostiqué chez lui un état de surentraînement. Nous observons une hyperactivité sympathique au repos chez ces deux sujets à l'issue de la période de surcharge, tel que mesuré par le rapport LF/HF, qu'il s'agisse de l'enregistrement de nuit ou du test orthostatique. Nous constatons un retour au niveau initial chez le sujet en état de dépassement à l'issue de la période de récupération, mais pas chez le sujet surentraîné, pour qu'il y a plutôt une chute du rapport LF/HF. Ces résultats suggèrent donc que la balance autonome est modifiée chez l'athlète surentraîné. Il convient maintenant de le confirmer au moyen d'une étude longitudinale, au cours d'une saison complète, et de vérifier si ces modifications précèdent les premières contre performances, ou si elles sont postérieures à l'apparition du syndrome de surentraînement. La troisième partie de nos travaux consistait à étudier la cinétique de récupération de la fréquence cardiaque suite à un exercice sous-maximale. Suite au palier de 10 minutes à 85% de la vitesse aérobie maximale, nous constatons une diminution significative de la constante de temps et de l'asymptote à l'issue des périodes de surcharge et de récupération. Comme pour la lactatémie, il s'agit exactement de la réponse que l'on observe chez l'athlète qui s'améliore. Mais cette fois-ci, il ne semble pas que l'on puisse séparer ces deux états. En effet, les modifications de la cinétique de récupération de la fréquence cardiaque ne sont ni systématiques, puisque nous ne les observons pas chez tous les sujets surentraînés, ni spécifiques, puisque nous les observons chez un sujet en état de dépassement. Dans la mesure où elle ne permet pas de déterminer si l'athlète s'améliore, s'il est en état de dépassement ou s'il est en état de surentraînement, la cinétique de récupération de la fréquence cardiaque ne peut être considérée comme un marqueur valide du surentraînement. En conclusion, notre étude a permis de montrer que le pic de lactatémie peut être utilisé comme critère diagnostic du surentraînement dans les activités physiques de longue durée. Cela n'est pas le cas pour la cinétique de récupération de la fréquence cardiaque, et reste à confirmer pour la régulation de la fréquence cardiaque au repos. Il convient maintenant de mener un travail de validation longitudinal pour déterminer si ce dernier marqueur permet de prévenir le surentraînement. Enfin, la meilleure façon de prévenir le surentraînement reste 1 optimisation et la planification de la charge d'entraînement. Or la relation quantitative entre la charge d'entraînement et la performance est encore assez peu explorée. Hormis quelques modèles mathématiques descriptifs, qui d'ailleurs ne prédisent pas la diminution de la capacité de performance quand la charge d'entraînement devient excessive, il faut avouer qu'on ne connaît pas grand chose à son sujet.

Page generated in 0.0423 seconds