• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 39
  • 15
  • 1
  • 1
  • 1
  • Tagged with
  • 248
  • 110
  • 56
  • 49
  • 43
  • 43
  • 42
  • 34
  • 33
  • 30
  • 24
  • 22
  • 22
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

De la générosité en entreprise : Mécénat et bénévolat des salariés dans les grandes entreprises en France et aux Etats-Unis

Bory, Anne 05 December 2008 (has links) (PDF)
Le bénévolat d'entreprise est une forme de mécénat qui consiste à encourager les salariés à être bénévoles auprès d'organisations non lucratives présélectionnées par les services de mécénat de l'entreprise, et ce sous les couleurs de celle-ci, pendant ou hors du temps de travail. Ces pratiques sont envisagées comme des politiques d'entreprise : il s'agit d'analyser, en France et aux Etats-Unis, leur genèse, les acteurs qui les portent et ceux auxquels elles sont destinées, et leurs effets. La première partie de la thèse se concentre sur le contexte historique, politique et social dans lequel les politiques de bénévolat d'entreprise se sont développées dans chaque pays. L'importation en France par certains chefs d'entreprise de pratiques développées aux Etats-Unis, la philanthropie et l'éthique du don américains, le paternalisme industriel et l'idéologie associative français et les soutiens fiscaux et symboliques des pouvoirs publics dans les deux pays sont au cœur de l'analyse. La seconde partie étudie les discours et les pratiques des acteurs rencontrés au cours de l'enquête de terrain menée en région parisienne et à New York : les salariés responsables du bénévolat d'entreprise, les salariés participant au bénévolat d'entreprise, les syndicalistes et les salariés chargés de l'accueil des bénévoles d'entreprise au sein des organisations non lucratives. La thèse souligne la promotion d'un engagement au sein et au profit des entreprises, les transformations du secteur non lucratif induites par le bénévolat d'entreprise, la primauté des attentes des entreprises sur les besoins sociaux et leur intervention dans la prise en charge de l'intérêt général.
32

Conditions et contraintes de l'enseignement de la statistique en classe de seconde générale. Un repérage didactique.

Wozniak, Floriane 26 November 2005 (has links) (PDF)
Former les citoyens à la pensée de la variabilité et à la gestion de l'aléatoire est aujourd'hui une question socialement vive dont on montre ici, à propos de la classe de seconde, qu'elle est aussi didactiquement vive. Lorsqu'un professeur de mathématiques conçoit et réalise la partie de son enseignement dévolue à la statistique, sous quelles contraintes doit-il opérer ? Pourquoi, bien que fort divers, les enseignements donnés semblent-ils converger imparablement vers une réduction arithmétique de la statistique ? Peut-on modifier ces contraintes pour rendre possible un enseignement plus authentique au plan épistémologique ? Qu'y peuvent les professeurs et leurs organisations professionnelles ? À l'aide des outils les plus récents de la théorie anthropologique du didactique, nous mettons notamment en évidence que l'indispensable reprise de la transposition didactique de la statistique doit être éclairée et guidée par une analyse d'ensemble de son enseignement comme « fait social total ».
33

Coeur et balancement dépendant: théorie et applications

Iehlé, Vincent 14 November 2004 (has links) (PDF)
Cette thèse est composée de quatre articles. L'objet principal de la thèse est d'énoncer des conditions suffisantes de non vacuité pour le coeur dans les jeux sans paiements latéraux. Rappelons que, dans un système social où des comportements coopératifs entrent en jeu, le coeur est l'ensemble qui vérifie des propriétés naturelles de stabilité et de rationalité. Pour assurer la non vacuité, les principaux résultats de la littérature supposent qu'une condition de balancement sur le jeu est satisfaite. La première partie de la thèse concerne les résultats théoriques de non vacuité, ces résultats reposent sur une nouvelle condition de balancement, dite de balancement dépendant. Le deuxième partie de la thèse propose des applications de ces différents résultats pour le problème des tarifications stables dans les marchés contestables.
34

Equilibre général avec une double infinité de biens et d'agents

MARTINS DA ROCHA, Victor Filipe 03 June 2002 (has links) (PDF)
Nous proposons une nouvelle approche pour démontrer l'existence d'équilibres de Walras pour des économies avec un espace mesuré d'agents et un espace des biens de dimension finie ou infinie. Dans un premier temps (chapitre 1) on démontre un résultat de discrétisation des correspondances mesurables, qui nous permettra de considérer une économie avec un espace mesuré d'agents comme la limite d'une suite d'économies avec un nombre fini d'agents. Dans le cadre des économies avec un espace mesuré d'agents, on applique tout d'abord (chapitre 2) ce résultat aux économies avec un nombre fini de biens, puis (chapitre 3) aux économies avec des biens modélisé par un Banach séparable ordonné par un cône positif d'intérieur non vide, et finalement (chapitre 4) aux économies avec des biens différenciés. On parvient ainsi à généraliser les résultats d'existence de Aumann (1966), Schmeidler (1969), Hildenbrand (1970), Khan et Yannelis (1991), Rustichini et Yannelis (1991), Ostroy et Zame (1994) et Podczeck (1997) aux économies avec des préférences non ordonnées et un secteur productif non trivial.
35

Extraction des paramètres cosmologiques et des propriétés de l'énergie noire

Linden, Sebastian 19 April 2010 (has links) (PDF)
Avec la découverte étonnante que l'univers se trouve à présent dans une phase d'expansion accélérée, il y a dix ans, la cosmologie entra dans ce que l'on peut nommer l'ère de la cosmologie à haute précision. Les contraintes actuelles indiquent un modèle cosmologique à géométrie plate, où la plus grande partie du contenu en masse-énergie de l'univers est contribuée par une composante inconnue, souvent appelée l'`énergie noire', qui contribue environ soixante-dix pour cent à la densité totale de l'univers. Dans ce modèle, la matière baryonique ordinaire et la radiation ne contribuent qu'environ cinq pour cent, et la matière noire contribue vingt-cinq pour cent. Les propriétés mesurées de l'énergie noire étant consistant avec celles d'une Constante Cosmologique, $Lambda$, ce modèle standard cosmologique est connu sous le nom du modèle `$Lambda$-Cold-Dark-Matter' (`$Lambda$CDM'). Malgré son succes, ce modèle souffre de plusieurs problèmes. L'existence d'une Constante Cosmologique soulève des problèmes fondamentaux concernant sa nature physique, et beaucoup d'auteurs traitent le `problème de coîncidence'. Des essais de la décrire comme la contribution du vide quantique faillissent quantitativement. En conséquent, un grand nombre de modèles alternatifs a été développé, qui tentent décrire la composante d'énergie noire: des loi modifiés de la gravitation, de dimensions supplémentaires, les modèles de Quintessence. Aussi, des effets astrophysiques qui miment une expansion accélérée ont été considérés. Dans ce manuscrit, on expose les bases théoriques et observationneles du modèle $Lambda$CDM et les divers approches théoriques à expliquer l'énergie noire. Un autre problème du modèle standard provient de la dépéndance des résultats de l'analyse des données sur des hypothèses qui sont présentes dans les analyses pour l'extraction des paramètres. Il s'agit des hypothèses sur la physique, mais aussi des dépéndances des paramétrages notamment des propriétés de l'énergie noire. Aujourd'hui, des analyses combinées de divers sondes cosmologiques sont effectuées afin d'extraire les paramètres du modèle, dont le nombre peut s'élever jusqu'à vingt, dépendant des suppositions de modèle. De différentes hypothèses (géométrie plate, équation d'état de l'énergie noire constante, hypothèses sur la physique du CMB comme la vitesse du son ou le spectre de puissance initial,...) sont appliquées, qui peuvent dangereusement biaiser les résultat de l'analyse. La présence d'une mauvaise hypothèse, où une application d'un paramétrage non-approprié de la physique, pourra entraîner qu'on mesure à haute précision quelque chose qui n'est pas là. Nous montrons que, dû à la haute précision des mesures cosmologiques modernes, des approches purement cinématiques à la cosmologie ne permettent plus d'extraire des résultats fiables sur l'expansion de l'univers. Dans l'analyse des données cosmologiques on doit par conséquent se servir de la relation (exacte) intégrale pour les distances cosmologiques. Nous discutons le problème de dégénéréscence analytique entre les paramètres cosmologiques qu'introduit l'utilisation de cette relation. Puis, les résultats principaux de ce travail sont présentés. Ils concernent notamment la validité du paramétrage de l'équation d'état de l'énergie noire de Chevallier, Polarski, et Linder, et les éffets d'une évolution en redshift des magnitudes apparentes des Supernovae du type Ia.
36

Essais sur la réforme des retraites , son impact sur la croissance et ses effets redistributifs.

Gonand, Frédéric 22 February 2007 (has links) (PDF)
Cette thèse analyse empiriquement les effets macroéconomiques de différentes réformes des retraites par répartition et leurs conséquences redistributives. Dans un modèle d'équilibre général avec générations imbriquées, le critère de l'effet sur la croissance permet d'écarter le choix d'une hausse des cotisations sociales comme levier exclusif de la réforme. Cependant il ne permet pas de départager, notamment en France, des scénarios aussi différents qu'une hausse de l'âge effectif de départ en retraite liée à l'espérance de vie ou une baisse du taux de remplacement avec âge de la retraite inchangé, qui permettraient chacun de soutenir le taux de croissance annuel moyen futur du PIB par tête d'environ 0.2% par rapport au scénario d'augmentation des prélèvements obligatoires. La prise en compte des conséquences redistributives devient décisive pour le choix de la réforme. Un gel de l'âge de la retraite alimente un conflit intergénérationnel entre actifs alors qu'une augmentation de cet âge répartit le coût en bien-être de la réforme plus également entre les actifs. Un planificateur utilitariste avec aversion modérée à l'inégalité intergénérationnelle privilégie ainsi l'âge effectif de la retraite comme principal levier d'une réforme. Les réformes avec hausse de l'âge de la retraite modèrent aussi les effets de redistribution selon le niveau de revenu par rapport aux réformes avec âge de la retraite inchangé. Enfin, la prise en compte des effets des réformes sur le bien-être des bas revenus (carrières incomplètes, éligibles au minimum vieillesse) peut infléchir le choix du paramètre d'ajustement (taux de cotisations sociales ou de remplacement) accompagnant une hausse de l'âge de la retraite. Au total, cette thèse incite à privilégier, en France, une hausse de l'âge de la retraite d'un peu plus d'une année par décennie, accompagnée d'un repli contenu du taux de remplacement moyen de 0.5 point de pourcentage par an sur les vingt prochaines années.
37

Mise au point et calibration d'indicateurs de la qualité de sols agricoles du Sud de la Chine

Liu, Li 18 July 2007 (has links) (PDF)
Un système d'indicateurs de la qualité des sols a été mis au point pour comparer l'effet des types de gestion des sols dans une région du Sud de la Chine. Ce système synthétise en 5 sous indicateurs et un indicateur général la nature complexe du système sol qui exige la prise en compte simultanée des aspects physique, chimique et biologique. Les méthodes statistiques multivariées sont utilisées ici pour traiter des tableaux de données comportant des dizaines de variables différentes. On a évalué la qualité du sol dans la région de YingDe, (Province de Canton dans le sud de Chine), sur 20 parcelles avec différents type d'utilisation du sol: plantations de thé à différents degrés d'intensification (labour et fertilisation), plantation d'orangers, de canne à sucre, de bambou et de pin. Un ensemble de paramètres mesure l'état physique, chimique, la qualité et quantité de matière organique, l'aggrégation et la morphologie du sol superficiel (0 à 5 cm), ainsi que la diversité et la composition de la communauté de macroinvertébrés du sol. Ces 5 sous-indicateurs (physique, chimique, matière organique, morphologique, biodiversité) sont ensuite regroupés pour former un indicateur général de la qualité du sol (IGQS). Le diagnostic ainsi effectué montre des différences significatives entre la nature des plantations, entre les méthodes de gestion et l'ancienneté des diverses plantations de thé. Les plantations de thé recevant les plus grands apports de résidus organique et de fumier ont des valeurs d' IGQS plus élevées que celles qui reçoivent de l'urée comme apport azoté, La plantation d'orangers fertilisée avec du fumier, de la chaux et et du N, P, K comme fertilisants a la valeur d'IGQS la plus élevée des 20 sites. Comparé aux pratiques recourant à la fertilisation chimiques et à l'utilisation de pesticides chimiques, l'apport de fumiers ou résidus organiques, combiné à la lutte naturelle contre des insects nuisibles améliore beaucoup la qualité du sol ainsi que le recyclage du carbone. Le sous-indicateur de morphologie du sol semble être affecté par le type d'engrais. La matière organique est le facteur le plus important dans la détermination de la qualité du sol. Des apports importants favorisent la diversité, l'abondance et l'activité des invertébrés ; ceux ci produisent plus d'agrégats biogéniques qui peuvent exercer leurs effets à long terme sur les divers services écosystémiques du sol. Le sous indicateur chimique est apparu très sensible aux applications de fumier, d'engrais chimique ou de chaux. A l'inverse, l'indicateur physique est moins fluctuant, la teneur en argile étant la principale variable qui discrimine les sites sur des critères physiques.
38

Valeur ajoutée dans le modèle régional canadien du climat : comparaison de la précipitation aux échelles du modèle global canadien du climat

Di Luca, Alejandro January 2009 (has links) (PDF)
La modélisation du climat à haute résolution est nécessaire pour une meilleure compréhension des impacts des changements climatiques. Les modèles régionaux du climat (MRC) constituent une des principales sources de ce type de données puisque les modèles de circulation générale (MCG) ne fonctionnent toujours pas à une résolution suffisante pour répondre à ces besoins. Une fois que les MRC sont devenus des outils capables de générer des simulations physiquement réalistes, un effort important a été fait pour évaluer leur capacité de mise à l'échelle, en se concentrant principalement sur des variables moyennées temporellement. Cet effort ne s'est pas traduit par des améliorations sans équivoque par rapport aux simulations produites par les MCG. L'objectif principal de cette étude est d'examiner l'existence de la valeur ajoutée dans les simulations du modèle régional Canadien du climat (MRCC) par rapport à celles du modèle de circulation général canadien (MCGC) utilisé comme pilote. Dans cette première étape, il a été nécessaire d'analyser les échelles temporelles et spatiales communes aux deux modèles, le MRCC et le MCGC. Une comparaison est effectuée en ramenant les données à haute résolution des stations météorologiques et du MRCC à la résolution du MCGC. L'évaluation se base sur la comparaison des histogrammes d'intensités de précipitation et des 95e centiles des distributions afin de caractériser les événements extrêmes. On estime le degré de chevauchement entre les distributions simulées et observées en utilisant la mesure S définie par Perkins et al. (2007). Cette dernière reflète principalement le comportement des intensités faibles et modérées. Les résultats montrent que les statistiques quotidiennes des précipitations simulées par le MGCC et le MRCC sont généralement très similaires. En comparant les résultats des deux modèles, il n'existe aucune preuve de l'existence de la valeur ajoutée. En outre, pendant l'été, les données simulées par le modèle MCGC sont plus proches des observations que celles générées par le MRCC. Cette amélioration provient d'une meilleure simulation de la fréquence des jours secs. Pour les événements quotidiens les plus intenses, le MCGC produit aussi des résultats plus proches des valeurs observées que le MRCC. Ce dernier montre une sous-estimation constante de la fréquence d'occurrence des événements intenses. C'est aussi le cas dans les régions caractérisées par d'importants forçages de surface, où la différence entre les topographies des deux modèles pourrait avoir un impact. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : MRCC, Mise à l'échelle, Précipitation, Valeur ajoutée, Histogrammes.
39

La propagande française pendant la drôle de guerre : l'échec du Commissariat général à l'Information (1939-1940)

Marceau, Guillaume 06 1900 (has links) (PDF)
Notre analyse vise à démontrer l'échec de la France de la fin de la Troisième République dans sa tentative de s'adapter à la propagande moderne, plus particulièrement lors de la drôle de guerre (1939-1940). À travers l'étude du Commissariat général à l'Information (CGI), l'organisme de propagande chargé de mener la guerre psychologique de la France au début de la Deuxième Guerre mondiale, nous avons relevé certaines caractéristiques profondes de la faillite de l'effort français dans ce domaine. Nous avons traité notre sujet dans la perspective du renouvellement de l'historiographie concernant la fin de la Troisième République, qui oppose depuis plus de 50 ans l'école de la Décadence à celle des révisionnistes. Afin de bien cerner notre sujet, nous avons effectué un parcours archivistique à Paris, notamment dans les fonds des Archives Nationales et du SHAT. Dans le but de mieux évaluer l'importance de la propagande au vingtième siècle, nous avons procédé à une analyse succincte de la théorie et de l'utilisation de celle-ci. Notre position insiste sur le fait que l'étude de la propagande est une approche pertinente dans une évaluation de l'adaptation de l'État face au monde moderne. Plus particulièrement, nous avons utilisé une approche institutionnelle afin de démontrer, à travers l'étude du CGI, que la France de la fin de la Troisième République a été incapable de s'adapter à la propagande moderne, tout en ne faisant jamais vraiment preuve de « leadership » en la matière. Grâce à notre travail de fond dans les archives, nous avons pu évaluer la perception des dirigeants français face à la propagande, mais aussi l'aspect administratif du CGI. Ainsi, nous avons passé en revue les directives, les lois, les budgets, les nominations, et même les locaux qui abritaient, en 1939-1940, l'organisme de propagande de la France en guerre. De plus, nous avons effectué une évaluation du rôle du chef du CGI, Jean Giraudoux, ainsi que quelques exemples concrets qui nous ont permis de tirer les conclusions qui s'imposent face à l'action de la France en matière de propagande étatique lors de la drôle de guerre. Sans vision d'ensemble, jamais le Commissariat n'a eu une attitude offensive dans la conduite de la guerre psychologique en 1939-1940. Notre analyse ne portait pas sur le travail de base de la propagande française, mais bien sur la conduite administrative, financière et politique du CGI qui nous a permis de bien comprendre pourquoi celui-ci a été un échec. C'était avant tout la faillite de l'élite à accorder à la question de la propagande moderne la place qui lui revenait dans l'arsenal de guerre de la France. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : France, Propagande, Deuxième Guerre mondiale, Commissariat général à l'Information, Jean Giraudoux
40

Simulations of tropical cyclones and african easterly waves in high- and low-resolution climate models

Caron, Louis-Philippe 04 1900 (has links) (PDF)
Cette thèse se penche sur différents aspects des cyclones tropicaux tels que simulés par des modèles de circulation générale (MCG) et un modèle régional de climat (MRC), le modèle régional de climat canadien (MRCC5). D'abord, nous évaluons la capacité d'un ensemble de MCG, utilisé dans le cadre du 4e rapport du GIEC (Groupe d'experts Intergouvernemental sur l'Évolution du Climat), à capturer les principales zones de cyclogenèse au travers d'indices dérivés à partir des champs atmosphériques favorables à la formation des cyclones tropicaux. En comparant les événements de cyclogenèse observés avec les deux indices calculés à partir de réanalyses et d'un ensemble de MCG, nous vérifions que les indices arrivent à relativement bien représenter la distribution actuelle des cyclones tropicaux, autant dans les modèles que les réanalyses. En comparant des simulations couvrant la période 2080-2100 avec la période présente, l'indice jugé plus stable projette une légère augmentation du nombre des tempêtes dans le Pacifique Ouest. Le deuxième partie de la thèse est consacrée à évaluer la capacité du MRCC5 à reproduire la climatologie des cyclones tropicaux observée durant la période 1979-2006. Plus précisément, nous évaluons l'impact d'une augmentation de la résolution sur les caractéristiques physiques des cyclones ainsi que sur leur distribution géographique, de même que l'impact des conditions aux frontières, de la technique de « downscaling » dynamique utilisée et de la taille du domaine sur les cyclones simulés. Une telle évaluation est une étape cruciale à toute étude d'impact des changements climatiques sur les ouragans. La distribution des cyclones est consistante avec la distribution d'un indice de cyclogenèse, ce qui permet de mieux comprendre les changements observés dans les différentes simulations. Aussi, nous évaluons la capacité du modèle à reproduire la variabilité interannuelle observée durant cette période, et plus particulièrement l'impact de l'oscillation australe d'El Niño (El Niño Southern Oscillation ou ENSO) sur la cyclogenèse. Finalement, nous étudions les ondes d'Est africaines, systèmes précurseurs des ouragans dans l'Atlantique, tel que simulées par le MRCC5 de même que leur relation avec les cyclones tropicaux de l'Atlantique. Règle générale, le MRCC5 arrive à reproduire de façon réaliste l'activité observée durant la période 1979-2006. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : cyclones tropicaux, indices de cyclogenèse, ondes d'Est africaines, modèle régional de climat, modèle de circulation générale

Page generated in 0.1416 seconds