• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Facteurs pronostiques de patients atteints de démence suivis en centre mémoire de ressource et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique

Bruandet, Amelie 23 September 2008 (has links) (PDF)
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins.<br />L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences.<br />Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment.<br />Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins.<br />Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins.
92

Synthèse architecturale flexible

Cesario, W. 14 October 1999 (has links) (PDF)
Le sujet de cette thèse est le développement d'une nouvelle méthodologie de synthèse basée sur une approche interactive et<br />flexible conçue pour l'exploration de l'espace des solutions. C'est le concepteur qui est au centre du processus de création, il a la<br />possibilité d'adapter les techniques et les méthodes de conception à l'application et il est guidé par des estimations de haute fidélité pour prendre des décisions pendant la phase de synthèse. La flexibilité concerne l'architecture cible et le flot de conception. Une nouvelle méthodologie pour l'évaluation de performance à partir d'une description de niveau système est aussi<br />présentée. Cette méthodologie est basée sur un modèle de performance exécutable décrit dans un langage de spécification au niveau système.
93

Exploration des liens entre la synthèse de haut niveau (HLS) et la synthèse au niveau transferts de registres (RTL)

VIJAYARAGHAVAN, V. 29 December 1996 (has links) (PDF)
Le sujet traité dans cette thèse, concerne les liens entre la synthèse de haut niveau (HLS: High Level Synthesis) et la synthèse au niveau transfert de registres (RTL: Register Transfer Level). Il s'agit d'une adaptation de l'architecture résultat de la synthèse de haut niveau par transformation en une description (au niveau) RTL acceptée par les outils industriels actuels. Les objectifs visés par cette transformation, sont: accroître la flexibilité et l'efficacité, permettre la paramétrisation de l'architecture finale. A partir d'une description comportamentale décrite dans un language de description de materiel (la synthèse de haut niveau) génère une architecture au niveau transfert de registres, comprenant un contrôleur et un chemin de données. Le contrôleur et le chemin de données peuvent être synthétisés par des outils de synthèse RTL et logique existant pour réaliser un ASIC ou un FPGA. Cependant, pour des raisons d'efficacité, il est préférable de synthétiser le chemin de données par un compilateur de chemin de données. Nous allons dans un premier temps concevoir une méthode que nous appelerons personnalisation. Elle permet aux concepteurs d'adapter l'architecture générée aux outils de synthèse RTL et à toute structure particulière requise. Ensuite, nous définirons une méthode appelée Décomposition. Cette dernière fournira un moyen de décomposer un chemin de données en plusieurs sous chemins de données réguliers, pouvant être synthetisés de manière efficace par un compilateur de chemin de données. Enfin, nous présenterons la génération de chemins de données génériques, destinés à la réalisation d'architectures paramétrables au niveau RTL. Cet algorithme a été implanté dans le generateur de code VHDL à partir de la structure de données intermédiaire utilisée par AMICAL, un outil de synthèse de haut niveau.
94

Méthodologie de conception de composants virtuels comportementaux pour une chaîne de traitement du signal embarquée

Savaton, Guillaume 10 December 2002 (has links) (PDF)
Les futures générations de satellites d'observation de la Terre doivent concilier des besoins croissants en résolution, précision et qualité des images avec un coût élevé de stockage des données à bord et une bande passante limitée des canaux de transmission. Ces contraintes imposent de recourir à de nouvelles techniques de compression des images parmi lesquelles le standard JPEG2000 est un candidat prometteur. Face à la complexité croissante des applications et des technologies, et aux fortes contraintes d'intégration - faible encombrement, faible consommation, tolérance aux radiations, traitement des informations en temps réel - les outils et méthodologies de conception et de vérification classiques apparaissent inadaptés à la réalisation des systèmes embarqués dans des délais raisonnables. Les nouvelles approches envisagées reposent sur une élévation du niveau d'abstraction de la spécification d'un système et sur la réutilisation de composants matériels pré-définis et pré-vérifiés (composants virtuels , ou blocs IP pour Intellectual Property). Dans cette thèse, nous nous intéressons à la conception de composants matériels réutilisables pour des applications intégrant des fonctions de traitement du signal et de l'image. Notre travail a ainsi consisté à définir une méthodologie de conception de composants virtuels hautement flexibles décrits au niveau comportemental et orientés vers les outils de synthèse de haut niveau. Nous avons expérimenté notre méthodologie sur l'implantation sous forme d'un composant virtuel comportemental d'un algorithme de transformation en ondelettes bidimensionnelle pour la compression d'images au format JPEG2000.
95

Dynamique et hydrologie du glacier d'Argentière ( Alpes françaises)

Hantz, Didier 28 April 1981 (has links) (PDF)
Dans le cadre du projet hydroélectrique d 'Emosson, l'EDF a dû capter le torrent sous-glaciaire d'Argentière à une altitude supérieure à celle du plan d 'eau du barrage d'Emosson, c'est-à-dire vers 2000 m, au niveau du verrou de Lognan . En 1975, l'eau qui s'écoulait jusque là dans le sillon principal en a progressivement disparu. Elle s ' écoule maintenant près de la rive droite . C 'est pour ces raisons que la Société d'Emosson a demandé au Laboratoire de Glaciologie et Géophysique de l'Environnement d'étudier d'une part le problème de la prévision des crues et décrues du glacier, d'autre part celui de l'écoulement des eaux sous-glaciaires d'Argentière. Le premier de ces problèmes est lié à l'un des principaux thèmes de la glaciologie actuelle, la réaction des glaciers tempérés aux variations climatiques, qui nécessite l'étude de la dynamique de ces glaciers. Le second concerne l'hydrologie sous - glaciaire, c'est- à -dire l'étude de l'eau liquide dans et sous les glaciers. Ce thème a été relativement peu abordé du fait des difficultés que rencontrent les études de terrain. Le premier chapitre est constitué par l 'étude des bilans mesurés aux différentes lignes de balises que le laboratoire relève depuis 1975. Ces bilans satisfont assez bien au modèle statistique linéaire de Lliboutry (1974) . Aussi peut-on estimer les variations centrées du bilan de masse du glacier depuis 1975 . Celles - ci sont assez bien corrélées avec celles estimées au Glacier de Saint-Sorlin. Un modèle est proposé pour décrire les bilans de différents glaciers. Le second chapitre traite des réactions du glacier aux variations du bilan en analysant les variations du niveau de la glace mesuré à différents profils transversaux depuis le début du siècle. Un mécanisme est proposé pour expliquer la crue observée sur la langue terminale en 1970-75. Les vitesses annuelles mesurées aux différentes lignes de balises depuis 1975 sont analysées au chapitre 3 et utilisées au chapitre 4 pour calculer les débits de glace à travers différentes sections et faire le bilan de masse de différentes tranches de glacier. Au chapitre 5, afin d'expliquer les variations de la vitesse en surface, celles- ci sont étudiées à l 'échelle du mois. Les variations saisonnières importantes observées ne s'expliquent qu'en faisant intervenir les conditions hydrologiques à la base du glacier. La dynamique et l'hydrologie du glacier semblent très étroitement liées . Dans le chapitre 6 sont analysées les observations effectuées au cours de la campagne de forages de 1980. Une "nappe d 'eau" intraglaciaire est mise en évidence à l'amont du verrou de Lognan. Il semble que le glacier se comporte d'une manière intermédiaire entre un milieu perméable et un milieu karstique. Les deux derniers chapitres concernent des calculs numériques utilisés dans les chapitres précédents. Au chapitre 7, on tente de calculer les vitesses en profondeur à partir des vitesses mesurées à la surface d'un glacier. Mais une instabilité numérique apparait avant que le lit ne soit atteint. Au chapitre 8, le profil piézométrique de différents chenaux est calculé à partir d'une théorie établie par Rothlisberger (1972) selon laquelle la fermeture des chenaux par déformation de la glace est compensée par la fonte produite par dissipation d'énergie newtonienne.
96

Estimation des mouvements verticaux de l'écorce terrestre par GPS dans un repère géocentrique, dans le cadre du projet TIGA.

Santamaría-Gómez, Alvaro 11 October 2010 (has links) (PDF)
Deux techniques complémentaires coexistent aujourd'hui pour observer les variations du niveau des mers. L'altimétrie par satellite permet une observation quasi globale avec un échantillonnage temporel et spatial régulier. Cependant, cette technique n'a pas plus de quelques décennies d'existence. A cause des variations inter-décennales du niveau des mers, elle ne donne donc pas accès aux signaux de longue période ou aux variations séculaires. Les variations du niveau des mers à long terme sont accessibles aujourd'hui que grâce aux mesures marégraphiques, certains marégraphes fournissant des enregistrements continus depuis le XIXème siècle. Cette technique constitue donc le seul moyen d'estimer, à partir de la mesure directe, les variations du niveau des mers pendant le XXème siècle, donnée qui représente un bon indicateur du changement climatique. Cependant, les estimations marégraphiques sont contaminées par des mouvements verticaux à long terme de la croûte terrestre. Afin d'obtenir les variations absolues à long terme du niveau des mers, les mouvements verticaux des marégraphes peuvent maintenant être déterminés par la technique GPS. Cette approche est explorée en pratique depuis 2001 par le projet pilote TIGA (Tide Gauge benchmark monitoring) du Service International des GNSS (IGS). Dès 2002, le Consortium ULR (Université de La Rochelle et Institut Géographique National) contribue à ce projet en tant que Centre d'Analyse TIGA. Actuellement, plus de 300 stations GPS globalement reparties sont traitées, parmi lesquelles plus de 200 sont co-localisées avec un marégraphe. Mes travaux de thèse s'inscrivent dans l'étude méthodologique visant à améliorer l'estimation des vitesses verticales des stations GPS. Une première étape de mes travaux a donc consisté en l'étude de la meilleure stratégie de traitement des données GPS. Différentes modélisations ont été testées comme, par exemple, les effets de variation de phase des antennes et du retard troposphérique. A cause du grand nombre de stations du réseau, une répartition en sous-réseaux est imposée pour le traitement. Une répartition optimale des stations GPS selon une approche dynamique a été élaborée et testée. Les résultats ont montré que cette procédure améliore grandement la qualité du traitement GPS. A l'issue de l'application de cette nouvelle stratégie de calcul, on a obtenu et exporté des produits dérivés comme les positions des stations, les orbites des satellites, les paramètres d'orientation de la Terre, et le mouvement apparent du géocentre, pour être combinés dans le cadre de la première campagne de retraitement des données GPS de l'IGS. La confrontation de ces produits avec les produits d'autres analyses de très haute qualité (la grande majorité des Centres d'Analyse IGS y participent) on fourni une validation de la stratégie de traitement GPS implémentée et aussi des indications pour de futures améliorations. La participation à cette campagne a permis en plus de densifier et d'étendre le repère international de référence terrestre (ITRF) aux marégraphes. La deuxième étape de mes travaux a consisté en l'étude de l'estimation de vitesses verticales GPS. L'effet couplé des signaux périodiques et des discontinuités sur les vitesses estimées a été mis en évidence, montrant la nécessité d'estimer ces paramètres d'une manière cohérente et rigoureuse. Particulièrement, l'effet des discontinuités a été signalé comme la source d'erreur la plus importante aujourd'hui pour l'estimation de vitesses. Les incertitudes réalistes des vitesses estimées ont été analysées en profondeur en prenant en compte le contenu de bruit corrélé dans les séries temporelles. En comparant rigoureusement les résultats de cette analyse avec la précédente solution ULR, on constate une réduction significative du contenu du bruit corrélé. Ceci est dû principalement à l'amélioration du traitement des données. Cette analyse du bruit a abouti à la démonstration que la corrélation temporelle des données retraitées de façon homogène dépend de l'époque des données. De cette façon, il a été démontré que le contenu du bruit dans les séries temporelles GPS longues s'explique principalement par le niveau de bruit des données les plus anciennes. Toutefois, pour obtenir l'incertitude formelle de vitesse la plus petite possible, il est nécessaire d'incorporer toutes les données disponibles. Il a été montré qu'en utilisant le modèle de bruit le plus approprié pour la série temporelle de chaque station, l'incertitude formelle du champ de vitesse estimé est en accord avec les différences de vitesse obtenues par rapport à la prochaine réalisation du repère international de référence terrestre, l'ITRF2008.
97

LA MOBILITE RECENTE DES LITTORAUX PROVENCAUX : ELEMENTS D'ANALYSE GEOMORPHOLOGIQUE

Morhange, Christophe 27 January 1994 (has links) (PDF)
Résumé d'une thèse de doctorat en Géographie Physique présentée par Christophe Morhange, sous la direction de Madame Mireille Lippmann Provansal. 269 p., 157 fig. et 2 ann. Université de Provence, Institut de Géographie, unité de rattachement C.N.R.S. U.R.A. 141 et formation doctorale C.N.R.S. U.R.A. 903. Dans un premier temps nous avons analysé la montée relative du niveau de la mer depuis 5000 B.P. sur les côtes rocheuses de la Méditerranée nord-occidentale, grâce à un enregistreur biologique, la corniche à Lithophyllum lichenoides. L'objectif était d'établir des courbes de référence sur des portions de secteurs rocheux différents. Dans une deuxième partie, nous présentons les informations paléo-bathymétriques obtenues à partir des fouilles archéologiques sur côte meuble, afin de mieux cerner la part de chaque facteur : eustasie, géodynamique, bilan sédimentaire et pression anthropique, dans la variabilité du trait de côte. Une dernière partie est consacrée à l'étude des impacts anthropiques sur le fonctionnement de la calanque du vieux Port de Marseille depuis le Néolithique final. Une annexe complète ce travail. Nous présentons un petit atlas des bioconstructions à Lithophyllum, en insistant sur les dégradations des bioconstructions actuelles. Les principaux résultats obtenus sont les suivants : 1. Variations relatives du niveau de la mer sur côtes rocheuses - La similitude entre les nuages de points obtenus dans les différentes stations (diagrammes âge/profondeur et âge/vitesse), dans le cadre de substrats différents, plaide en faveur d'une montée relative du niveau marin sous la dépendance de facteurs globaux (eustatique ou isostatique). Toutes les stations indiquent des ralentissements constants des vitesses globales de montée relative du plan d'eau depuis environ 4500 ans. La transgression marine holocène semble s'achever en Provence vers 500 ans après J.C. Sur côte rocheuse, cette quasi-stabilisation historique de la montée relative du niveau de la mer se matérialise par le développement de larges et épaisses bioconstructions (figures 1 et 2). - Nous insistons sur l'absence d'indice de stationnement marin holocène supérieur au niveau marin actuel sur les côtes de Provence et de Haute Corse. De plus, aucun indice de stationnement ou d'oscillation du niveau marin au cours des 4500 dernières années n'a pu être mis en évidence. - La vitalité du placage de thalles de Lithophyllum, au dessus des bioconstructions, pose un double problème, suggérant à la fois une légère variation positive du plan d'eau, pouvant correspondre à la montée eustatique séculaire enregistrée par les marégraphes. 2. Variations relatives du niveau de la mer sur côtes meubles (Lacydon, actuel Vieux Port de Marseille) - Entre 4000 et 500 ans avant J.C., la vitesse maximale de montée relative du niveau marin est d'environ 0,03 cm/an. Elle est identique à la vitesse de montée sur côte rocheuse pour des âges et des profondeurs comparables. - Entre 500 ans avant J.C. et 250 ans après J.C., la montée relative du niveau de la mer est beaucoup plus rapide (0,13 cm/an). Cette donnée peut autant traduire des déformations du substrat ou des tassements des formations superficielles que la plus faible précision des mesures sur côte meuble. Cependant, la vitesse de montée du niveau de la mer décélère rapidement. En effet, elle est divisée au moins par deux en sept siècles. Cette décélération constante est donc comparable à celles analysées sur côtes rocheuses. - Depuis le V siècle après J.C., le plan d'eau s'est à peu près stabilisé au niveau actuel. Nous n'avons découvert aucun indice de stationnement (ou de pulsation) marin historique supérieur au niveau marin actuel à Marseille ou à Toulon. Au Lacydon, comme sur côte rocheuse, le niveau marin connaît donc une montée relative de plus en plus lente. C'est la décélération constante des vitesses de montée relative du niveau de la mer qui aboutit à une quasi-stabilisation de celui-ci à l'époque actuelle (figure 3). 3. Morphogenèse et impacts anthropiques au Lacydon Dans un contexte transgressif du plan d'eau, le Lacydon connaît une importante progradation des surfaces émergées et un repli concommittant des surfaces en eau. Cette évolution morphologique "paradoxale" s'explique par un bilan sédimentaire positif lié à la conjoncture de l'anthropisation et de l'évolution morpho-climatique des milieux continentaux (figure 4). Sur la rive nord, trois évènements marquent l'histoire paléo-écologique de ce rivage : - Les premiers indices d'une anthropisation du littoral du Lacydon sont décelés, vers 2300 ans B.C. (Néolithique final). Les deux sites, de la rive nord et est du Lacydon, enregistrent les premiers effets d'une érosion des sols, sans doute d'origine anthropique. - La première crise de l'environnement littoral a lieu, vers 1900 ans B.C., caractérisée par la "mort" du maërl, contemporaine d'un envasement et d'un rejet anthropique massif d'huîtres (première crise écologique d'origine anthropique). La part de l'Homme, dans l'histoire écologique du Lacydon, apparaît donc déterminante dès le début de l'Age du Bronze. Cette crise de 3900 B.P. (environ 1900 ans avant J.C.) traduit la transformation du milieu naturel en espace géographique. Le Vieux Port de Marseille, est donc un haut lieu d'activités depuis près de quatre millénaires. Cependant, les apports détritiques restent encore modestes, à l'Age du Bronze, suggérant une occupation du sol sur les collines relativement peu dense et insuffisante pour engendrer une crise érosive. - Quand les Phocéens se sont implantés vers 600 ans avant J.C., la rive nord du Lacydon était donc déjà un écosystème marin fortement dégradé. L'urbanisation des collines de Saint Laurent, de la butte des Moulins, puis de la colline des Carmes, vont entraîner une crise détritique sans précédent et sans comparaison sur les autres rives. Nous l'avons désignée comme la crise détritique phocéenne. Nous interprétons cet épisode comme le passage d'un système morphogénique "naturel" à un système morphogénique urbain, et non pas comme une érosion seulement accélérée. Il est probable que la dégradation climatique régionale, mise en évidence sur d'autres sites de Basse-Provence entre 600 et 300 ans avant J.C., a joué un rôle en favorisant des écoulements concentrés et en augmentant la compétence des cours d'eau. Le site topographique accentue ces phénomènes. Les versants raides induisent une réponse hydro-sédimentaire immédiate aux processus d'urbanisation. En revanche, la rive est, à l'aval du talweg de la Canebière, enregistre une histoire sédimentaire plus calme. Les marécages côtiers, à l'écart de l'urbanisation grecque puis romaine, sont à l'origine d'une réponse sédimentaire tamponnée des effets des fluctuations climatiques et des pressions anthropiques. Nous notons cependant une progradation d'origine terrigène à l'époque grecque et une transgression marine à l'époque romaine. Au total, plus que la remontée relative du niveau de la mer, le facteur anthropique apparaît, à l'échelle historique, déterminant dans la mobilité des littoraux provençaux. Depuis 4000 ans, les principaux changements côtiers sont dûs davantage aux activités humaines, dans un contexte climatique favorable au déplacement des débris jusqu'au littoral, qu'aux variations des niveaux marin ou terrestre. Le colmatage par envasement et l'artificialisation des rives ont en effet largement compensé la remontée historique relative du niveau moyen de la mer. Trois conclusions de cette recherche doivent être finalement soulignées : - La transgression holocène semble perdurer jusque vers 1400-1200 B.P., c'est à dire au haut Moyen-Age. - Le part de l'Homme, dans l'histoire sédimentologique de la calanque du Lacydon, apparaît déterminante à la charnière Néolithique final-Age du Bronze (vers 4000 ans B.P. environ). - Plus que la remontée relative du niveau de la mer, le facteur anthropique apparaît, à l'échelle historique, déterminant dans la mobilité des littoraux provençaux.
98

Etude ab initio des alignements de bandes dans les empilements Métal-Oxyde-Semiconducteur

Prodhomme, Pierre-Yves 20 June 2008 (has links) (PDF)
L'échec des modèles pour prévoir l'alignement de bandes dans un empilement MOS (métal-oxyde-semiconducteur) rend utile et intéressant une étude à l'échelle atomique. Nous exposons deux théories ab initio: d'abord la théorie de la fonctionnelle de la densité (DFT), dont dépendent les codes Abinit et Siesta utilisés pour étudier la nature quantique des matériaux ; puis la théorie de l'approximation GW qui corrige les niveaux d'énergies électroniques mal évalués avec l'approximation utilisée en DFT. Ces deux théories sont appliquées à chaque matériau composant l'empilement. Puis nous étudions la façon dont intervient le dipôle dans l'alignement de bandes. La méthode de Van de Walle et Martin est adaptée pour évaluer de façon précise ces alignements grâce à l'approximation GW. Enfin cette méthode est appliquée aux différentes interfaces oxyde/semiconducteur et métal/oxyde et montre que les alignements de bandes estimés par simulation tendent vers un accord avec les mesures expérimentales.
99

Les décisions du passeur de haut niveau en volley-ball sur side out : quatre études de cas

Roche, Benjamin 28 June 2011 (has links) (PDF)
En accord avec Eloi (2009), tous les spécialistes s'accordent à reconnaître le rôle prépondérant du passeur dans la performance d'une équipe de volley-ball. Il n'existe paradoxalement, que peu de travaux disponibles sur ce thème. Cette thèse a pour objet l'élaboration d'une modélisation de son activité décisionnelle au haut niveau, en situation de match. L'enjeu est de caractériser la complexité des décisions tactiques, en soulignant les relations dynamiques entre les aspects circonstanciés et les sources d'influence plus générales. En adaptant la modélisation de Mouchet (2003), nous opérons une friction de plusieurs paradigmes scientifiques qui proposent différents modèles explicatifs de la cognition, apportant un éclairage particulier sur les conduites décisionnelles. Notre posture épistémologique consiste à appréhender la complexité (Morin, Le Moigne, 1999 ; Le Moigne, 1999) par une approche systémique, en investiguant les conduites décisionnelles en situation écologique et en prenant en compte le point de vue du sujet. Nous faisons l'hypothèse que le système d'influence, constitué de la culture, de l'environnement momentané et de l'expérience de la personne, imprègne l'activité décisionnelle, en étant compacté dans l'action en cours. Chaque joueur construit son propre monde en intégrant les différents niveaux selon une logique singulière. Notre étude porte sur quatre études de cas de passeurs français internationaux. Pour recueillir des données de la " partie cachée " (Gouju, 2001), nous avons mis en place une méthodologie constituée d'une observation armée, d'un entretien semi directif, d'une simulation, et de rétroactions vidéo (principe de triangulation).
100

Mouvements verticaux à la surface de la Terre par altimétrie radar embarquée sur satellite, marégraphie et GPS. : un exemple d'application : le Golfe du Mexique

Letetrel, Camille 25 August 2010 (has links) (PDF)
Dans le contexte de la hausse actuelle du niveau marin, la détermination du mouvement vertical à la côte est cruciale pour deux principales raisons. D'une part, parce qu'il est enregistré dans la mesure marégraphique et constitue une source d'incertitude dans l'estimation des variations long terme du niveau marin (suivant les auteurs ces variations sont de l'ordre de 1 à 2 mm/an de montée au cours du siècle passé). Et d'autre part, parce que les processus de subsidence à la côte sont un facteur aggravant des effets de la montée du niveau marin avec parfois des taux qui résultent en une montée relative du niveau marin de l'ordre de 1 cm/an, soit des projections de 1 mètre en un siècle, sans accélération des contributions climatiques actuelles. Cette thèse de doctorat s'attaque à la détermination des mouvements verticaux à la côte par GPS et par une méthode originale de combinaison des données de marégraphie et d'altimétrie radar embarquée sur satellite. La méthode proposée ici est basée sur celle de Kuo et al. (2004), reprise et étendue en appliquant un filtrage spatio-temporel issu de l'analyse EOF des deux types de séries de données. La méthode est appliquée dans le Golfe du Mexique sur la période 1950-2009 en utilisant les quinze séries marégraphiques de plus de 40 ans d'observations disponibles dans la région au PSMSL et les séries altimétriques mises à disposition dans AVISO sur la période 1992-2009. La comparaison avec les mouvements verticaux issus des cinq séries de positions de stations GPS co-localisées avec marégraphes montre un écart moyen quadratique sur les différences de 0.60 mm/an révélant la grande précision de la nouvelle approche. Les séries temporelles GPS ont préalablement fait l'objet d'une analyse poussée du bruit et des incertitudes associées, légitimant l'utilisation des séries GPS dans la correction des tendances du niveau marin obtenues des marégraphes. Les incertitudes obtenues des vitesses verticales GPS sont de l'ordre de 0.5 mm/an ce qui est significativement inférieur à d'autres analyses de ce type. La méthode altimétrie moins marégraphie mise au point offre donc des perspectives intéressantes dans la détermination précise des mouvements verticaux côtiers où il n'existe pas de mesures géodésiques.

Page generated in 0.0771 seconds