321 |
La « cinématisation » des séries télévisées contemporaines : le cas inédit du parcours de la série française Kaamelott (Alexandre Astier, M6, 2005-2009)Chevarie-Cossette, Justine 08 1900 (has links)
No description available.
|
322 |
F. A. Hayek et Herbert A. Simon : la contribution de deux approches par la complexité à l'élaboration d'un corps de connaissances et d'outils utiles dans l'analyse et la prévention des "poly-crises" alimentaires. L'exemple de la crise alimentaire de 2007-2008 / F. A. Hayek and Herbert A. Simon : two approaches face to complexity. Lessons for analysis and prevention of poly-food crisis. The case of the 2007-2008 food crisisDesbois, Jean-Marc 24 November 2016 (has links)
Entre avril et juin 2008, le prix des commodités (blé, maïs, riz) a atteint un niveau impressionnant, mais pas exceptionnel. Les populations de 48 pays ont été affectées par une sévère sous-alimentation. La plupart d’entre eux avait déjà été affaiblie par des conflits et des catastrophes naturelles inhabituelles et dramatiques. Ces facteurs ont souvent interagi pour aggraver la situation. Pourtant, si la crise de 2007-2008 a été un «problème extraordinaire», c’est aussi parce que la connaissance scientifique «normale» a échoué face à la complexité de la «poly-crises» alimentaire (Morin, 2011). En réponse, nous avons conçu un cadre épistémologique, méthodologique, et technique, à partir de deux approches face à la complexité, celles de Hayek (1899-1992) et de Simon (1916-2001), avec un objectif, satisfaire au critère de cumulativité, un reproche traditionnellement adressé à ce type d’approche. Ce travail a produit deux enseignements. Premièrement, les fondements épistémologiques de la production de la connaissance en économie doivent être révisés en environnement complexe et incertain: 1) du certain/de l’objectif vers l’incertain/le subjectif; 2) de la prédiction exacte vers la conception; 3) de la causalité linéaire inappropriée, ou pire, menaçant la liberté individuelle, vers une causalité complexe. Deuxièmement, dans le processus d’adaptation, le rôle de la production et du partage de la connaissance «tacite» est central. Pour cette raison, le problème économique n’est plus un problème d’allocation des ressources. Il est de savoir comment des êtres humains aux capacités cognitives «limitées» computent et socialisent (Nonaka et alii, 1994, 2001) la connaissance et l’information disponibles, mais dispersées, pour la convertir en heuristiques ou patterns favorisant l’adaptation. Deux autres hypothèses les renforcent : 1) les dynamiques du changement s’enracinent «dans la pensée et la créativité des gens impliqués dans des situations complexes et dans leur capacité à restructurer leurs propres modèles d’interactions», (Ostrom, 2011) ; 2) l’altruisme réciproque (Simon, 1992, 1993) est un comportement rationnel qui peut être plus efficient dans les interactions sociales en environnement complexe que le comportement maximisateur ou égoïste. Ces résultats ont été synthétisés dans une interface que nous avons créée et qui a pris la forme d’une boucle de la connaissance à deux allèles, une pour la connaissance générique, l’autre, pour la tacite, qui, par récursion, produisent une méta-connaissance. Cette interface est à la fois ouverte et fermée et reflète ainsi la position défendue par Hayek et Simon pour qui la science économique est une «science frontière». Une part de la recherche est consacrée à la création d’outils, par exemple à un indicateur de perception de la contribution des facteurs au déclenchement et/ou à l’aggravation de la crise, à partir : 1) des allocutions des 138 Chefs d’État et de Gouvernement présents à la Conférence de Haut Niveau sur la Sécurité alimentaire mondiale (3-5 juin 2008) ; 2) des analyses des économistes, 3) des témoignages des gens qui ont subi la sous-nutrition ou la hausse des prix des denrées alimentaires (database IRIN). Nous proposons également une typologie actualisée des policy-mix mis en œuvre par 18 pays divisés en 3 groupes : des pays en développement, pour la plupart importateurs nets, sévèrement touchés par la crise et qui ont connu des «émeutes de la faim» (Égypte, Tunisie, Cameroun, Côte d’Ivoire, Sénégal, Mauritanie, Haïti, Bangladesh) ; des pays Membres du groupe de Cairns ayant connu soit des «émeutes de la faim», soit des désordres sociaux (Indonésie, Philippines, Thaïlande, Afrique du Sud) ; enfin, des pays ayant adopté des restrictions et/ou prohibitions aux exportations (Chine, Inde, Indonésie, Égypte, Cambodge, Ukraine, Vietnam) [...]. / Over the April-June 2008 period, prices of the commodities such as wheat, maize, rice and vegetable oils, reached impressive yet not exceptional peaks. By contrast, the populations of 48 countries were stricken by severe under nutrition. Most of them had already been weakened not only by conflicts, social disorders, dramatic and unusual climatic and natural disasters, but also by outbreaks, epizooties, and population displacements. In some cases, all these factors together played a significant role in the worsening situation. However, another important reason could be advanced to explain why the 2008 food crisis was an “extraordinary problem”. This one is that “normal” scientific knowledge was defeated by the complexity of what it appears now as a food “poly-crises” (Morin, 2011). We answered by designing an epistemological, methodological, and technical knowledge base from two very different and alternative economics approaches of facing complexity. The first is the Hayekian approach (1899-1992), and the second, the Simonian approach (1916-2001). The research intends to fulfill cumulativity criteria, traditionally difficult to satisfy with the ones of complexity. From the following analysis we mostly learned two things. First, epistemological grounds of economics needed to be broken in complex environment(s): 1) from certainty/objectivity to uncertainty/subjectivity, 2) from accurate prediction to design, 3) from linear causality deemed inappropriate or, worse, threatening people freedoms, to complex causality. Second, in the adaptation process, the role of “tacit” knowledge production and sharing is central. For that reason, the core of economics problem is not allocation of resources anymore. Now, the main problem for humans whose cognitive capacity are “bounded” is to compute, to “socialize” (Nonaka et alii, 1994, 2001), available but dispersed information and knowledge and to converse them into heuristics or patterns allowing the adaptation to complex and uncertain environment(s). Two others auxiliary hypotheses –E. Ostrom (2011) will endorse them later- can be drawn from that preliminary work: 1) the dynamics of change rooted “in the thinking and in the creativity of people involved in complex situations and their capacity to restructure their own models for interactions”, 2) reciprocal altruism (Simon, 1992, 1993) is a rational behavior which can be more effective in/for the social interactions in complex environment(s) than maximizing or selfish behavior. To present preliminary results in an effective way, we created a very simple interface scheme. It takes the form of a three-dimensional knowledge loop with two strands, “generic” and “tacit” knowledge connected between themselves to produce by recursion a meta-knowledge. We made the choice of the interface because it reflects with the most accuracy the position defended by Hayek and Simon which is that economics is a frontier science. Moreover, the interface has the advantage of being both open and closed. A part of the research is more specifically dedicated to design tools increasing the understanding of the “polyfood” crises. We elaborated a three-level indicator with: 1) perceptions of the contribution of each factor to the outbreak and the worsening of the situation; 2) contributions of actors to the explanation of the food crisis proposed in 2008. It was developed from: 1) a case study comparing and contrasting explanations proposed a) in their statements by 138 Heads of State and Government attended the High Level Conference on World Food Security (3-5 June 2008), b) in their analyses by economists, c) in their testimonies by people hit by under nutrition/rising food prices (database IRIN); 2) a new and more updated typology focused on the responses addressed by 18 countries split into 3 groups [...].
|
323 |
Violette Leduc in translation : between censure, recognition and emancipationBaveye, Marie-France 12 1900 (has links)
No description available.
|
324 |
Traiter le cerveau avec les neurosciences : théorie de champ-moyen, effets de taille finie et capacité de codage des réseaux de neurones stochastiques / Attacking the brain with neuroscience : mean-field theory, finite size effects and encoding capability of stochastic neural networksFasoli, Diego 25 September 2013 (has links)
Ce travail a été développé dans le cadre du projet européen FACETS-ITN, dans le domaine des Neurosciences Computationnelles. Son but est d’améliorer la compréhension des réseaux de neurones stochastiques de taille finie, pour des sources corrélées à caractère aléatoire et pour des matrices de connectivité biologiquement réalistes. Ce résultat est obtenu par l’analyse de la matrice de corrélation du réseau et la quantification de la capacité de codage du système en termes de son information de Fisher. Les méthodes comprennent diverses techniques mathématiques, statistiques et numériques, dont certaines ont été importés d’autres domaines scientifiques, comme la physique et la théorie de l’estimation. Ce travail étend de précédents résultats fondées sur des hypothèses simplifiées qui ne sont pas réaliste d’un point de vue biologique et qui peuvent être pertinents pour la compréhension des principes de travail liés cerveau. De plus, ce travail fournit les outils nécessaires à une analyse complète de la capacité de traitement de l’information des réseaux de neurones, qui sont toujours manquante dans la communauté scientifique. / The brain is the most complex system in the known universe. Its nested structure with small-world properties determines its function and behavior. The analysis of its structure requires sophisticated mathematical and statistical techniques. In this thesis we shed new light on neural networks, attacking the problem from different points of view, in the spirit of the Theory of Complexity and in terms of their information processing capabilities. In particular, we quantify the Fisher information of the system, which is a measure of its encoding capability. The first technique developed in this work is the mean-field theory of rate and FitzHugh-Nagumo networks without correlations in the thermodynamic limit, through both mathematical and numerical analysis. The second technique, the Mayer’s cluster expansion, is taken from the physics of plasma, and allows us to determine numerically the finite size effects of rate neurons, as well as the relationship of the Fisher information to the size of the network for independent Brownian motions. The third technique is a perturbative expansion, which allows us to determine the correlation structure of the rate network for a variety of different types of connectivity matrices and for different values of the correlation between the sources of randomness in the system. With this method we can also quantify numerically the Fisher information not only as a function of the network size, but also for different correlation structures of the system. The fourth technique is a slightly different type of perturbative expansion, with which we can study the behavior of completely generic connectivity matrices with random topologies. Moreover this method provides an analytic formula for the Fisher information, which is in qualitative agreement with the other results in this thesis. Finally, the fifth technique is purely numerical, and uses an Expectation-Maximization algorithm and Monte Carlo integration in order to evaluate the Fisher information of the FitzHugh-Nagumo network. In summary, this thesis provides an analysis of the dynamics and the correlation structure of the neural networks, confirms this through numerical simulation and makes two key counterintuitive predictions. The first is the formation of a perfect correlation between the neurons for particular values of the parameters of the system, a phenomenon that we term stochastic synchronization. The second, which is somewhat contrary to received opinion, is the explosion of the Fisher information and therefore of the encoding capability of the network for highly correlated neurons. The techniques developed in this thesis can be used also for a complete quantification of the information processing capabilities of the network in terms of information storage, transmission and modification, but this would need to be performed in the future.
|
325 |
Les conditions d'élaboration et d'énonciation d'une doctrine politico-stratégique dans les organisations pluralistes / Conducting deliberate political and strategic transformation of pluralistic organizationsSambugaro, Jonathan 28 September 2016 (has links)
Cette thèse en stratégie vise à comprendre comment les organisations pluralistes, qui combinent une pluralité de logiques d’action, peuvent conduire la transformation délibérée de leurs doctrines. Elle développe une approche originale du travail politico-stratégique dans les organisations pluralistes, approche qui s’appuie sur les théories pragmatistes de la rationalité et des institutions. Les résultats qu’elle présente sont issus d’une recherche de terrain (ethnographie et intervention) réalisée au sein d’une grande mutuelle d’assurance française, la Macif, qui est un acteur référent dans le champ de l’économie sociale. Le premier volet de la recherche a permis d’identifier et d’analyser les obstacles que rencontrent les organisations pluralistes lorsqu’elles cherchent à transformer leurs doctrines. Le second volet a permis de conceptualiser et d’expérimenter les modalités sous lesquelles elles peuvent parvenir à opérer la transformation souhaitée. La thèse présente pour finir un certain nombre de propositions visant à guider l’élaboration de la stratégie des organisations pluralistes / This doctoral research aims at understanding how pluralistic organizations that combine multiple institutional logics can engage in their deliberate transformation. It draws on pragmatist theories of rationality and of institutions to develop a novel perspective on strategy practices and processes in pluralistic organizations. Its results rely on fieldwork (ethnography and research-action) conducted within a French mutual insurance company, Macif, which is a key actor in the field of social economy. Firstly, this research identifies and analyzes the major obstacles that prevent pluralistic organizations from conducting such a transformation. Secondly, it conceptualizes and experiments ways to do so. Finally, this research suggests some methods for strategizing and organizing in pluralistic contexts
|
326 |
Ingénieries de formation à visée autonomisante et émancipatrice : vers un modèle d'association apprenante : une recherche-action dans le réseau associatif des petits débrouillards / Training engineering aimed at self directed learning and empowerment : towards a learning organization model : a action research in the French associativ net-work "Les Petits débrouillards"Braccini, Vivien 10 December 2014 (has links)
Cette thèse aborde la formation et l'accompagnement des acteurs de l'Education Populaire. L'enjeu est de stabiliser la qualité des services des associations, malgré les rapides évolutions de l’environnement. Le postulat d'une nécessaire continuité entre le projet associatif, la démarche éducative et la formation interne, nous a orientés vers une démarche de recherche-action. La récursivité des analyses, a conduit à interroger les conditions d'utilisation du modèle de l'apprenance (Carré 2005), inspiré par le capitalisme cognitif. Il en ressort un cadre éthique qui a orienté le développement d'un modèle d'association apprenante, intégrant un outil de gestion de la fonction « apprendre » inspiré des ingénieries de formation à visée autonomisante (Poisson 2009). Cette thèse propose en outre une réflexion épistémologique et la méthodologique sur la recherche-action qui conduit à établir des liens entre ses conditions de pratique et l'émergence de l'association apprenante. / This dissertation deals with the training and support of personnel in a not-for-profit association involved in education. At stake is the stabilization of the quality of their activities in order to perpetuate both their projects and their on-going operation. The author postulates a necessary continuity between the culture of the association – marked by its approach to education – and its in-house training. This continuity has led to the adoption of an action-research approach. The recursive analysis of the activities have led to a transposition of Carré’s (2005) “learning” model and produced an ethical framework which guided the design of a multidisciplinary learning model for associations. This model includes a tool adapted from instructional design, aimed at learner empowerment (Poisson 2009). The epistemological and methodological reflection aims at shedding light on action research and links its conditions for success to the emergence of associations as learning organizations.
|
327 |
Spectroscopie millimétrique et submillimétrique des premiers états de vibration du butyronitrile et applications à la radioastronomie / Millimeter and submillimeter wave spectroscopy of low-lying vibrational states of normal-propyl cyanide and applications to radio astronomyLiu, Delong 18 December 2018 (has links)
Les spectres de rotation de anti- et gauche-normal-butyronitrile, mesurés au laboratoire jusqu'à 506 GHz ont été analysés pour obtenir un jeu de paramètres moléculaires précis pour l'état fondamental de vibration et cinq vibrations de faible énergie de chaque conformère. L'objectif est de pouvoir fournir les meilleures prévisions possibles pour la radioastronomie. Un total d'environ 15000 raies a été utilisé pour l'analyse. Des paramètres améliorés ont été déterminés pour v30 = 1, v30 = 2, v18 = 1, v29 = 1, pour le conformère anti, et v30 = 1, v30 = 2, v28 = 1, v29 = 1, pour le conformère gauche. Des paramètres ont été déterminés pour la première fois pour v18 = v30 = 1 du conformère anti et v29 = v30 = 1 du conformère gauche. Des preuves ont été trouvées pour un couplage des vibrations pour certains transitions supérieures à 380 GHz. Le couplage entre v18 = 1 et v30 = 2 du conformère anti a été bien caractérisé. Certaines raies montrent aussi un dédoublement dû à la rotation interne qui ne devrait pas être résolu dans les spectres astronomiques. / Laboratory measured rotational spectra of anti- and gauche-normal-propyl cyanide up to 506 GHz have been analyzed to obtain a precise set of molecular parameters for the ground state and five low-lying vibrational states of each conformer. The objective is to be able to make best possible predictions for radio-astronomy. In total around 15000 lines have been included in the analysis. Improved parameters have been determined for v30 = 1, v30 = 2, v18 = 1, v29 = 1, for the anti conformer, and v30 = 1, v30 = 2, v28 = 1, v29 = 1, for the gauche conformer. Parameters are derived for the first time for v18 = v30 = 1 of the anti conformer and v29 = v30 = 1 of the gauche conformer. Evidence has been found for vibrational coupling for some transitions above 380 GHz. The coupling between v18 = 1 and v30 = 2 of the anti conformer has been well characterized. Internal rotation splitting is also observed but not expected to be resolved in astronomical spectra.
|
328 |
Graphes et décompositions / Graphs and decompositionsBouvier, Tom 15 December 2014 (has links)
Dans cette thèse, nous étudions diverses largeurs de graphes autour de la largeur arborescente ainsi que de la largeur de clique. Nous commençons avec une étude comparative entre la largeur arborescente d’un graphe et la largeur de clique du graphe d’incidence associé, de laquelle nous extrayons des résultats algorithmiques encourageants. Puis nous présentons quelques propriétés structurelles liées à la largeur arborescente spéciale, largeur relativement récente qui est à mi-chemin entre les deux largeurs précédentes. Enfin nous nous intéressons à une notion plus générale connue sous le nom de fonction de partition sous-modulaire qui englobe, entre autres, les largeurs arborescentes « classique » et spéciale, la largeur de chemin ainsi que la largeur linéaire et les largeurs de branches de coupe et de découpe. Nous présentons alors un algorithme linéaire à paramètre fixé pour le calcul de ces différentes largeurs, lequel généralise un certain nombre de résultats propres à chacune de ces largeurs. / In this thesis, we study some width parameters on graphs, beyond tree-width and clique-width. Our first investigation is a comparative study between the tree-width of a graph and the clique-width of the associated incidence graph, from which we extract some strong algorithmic results. Then we present a few structural properties over a recently defined width called special tree-width and which takes its definition through both tree-width and clique-width. Finally, we end our journey with a more general notion named sub-modular partition fonction and which encompass both “classic” and special tree-widths, path-width, branch-width, linear-width, cut-width and carvingwidth among others. So, we introduce a fixed parameter tractable algorithm computing those widths parameters and thus we generalize a number of results specific to each of them.
|
329 |
Etude de turbocodes non binaires pour les futurs systèmes de communication et de diffusion / Study of non-binary turbo codes for future communication and broadcasting systemsKlaimi, Rami 03 July 2019 (has links)
Les systèmes de téléphonie mobile de 4ème et 5ème générations ont adopté comme techniques de codage de canal les turbocodes, les codes LDPC et les codes polaires binaires. Cependant, ces codes ne permettent pas de répondre aux exigences, en termes d’efficacité spectrale et de fiabilité, pour les réseaux de communications futurs (2030 et au-delà), qui devront supporter de nouvelles applications telles que les communications holographiques, les véhicules autonomes, l’internet tactile … Un premier pas a été fait il y a quelques années vers la définition de codes correcteurs d’erreurs plus puissants avec l’étude de codes LDPC non binaires, qui ont montré une meilleure performance que leurs équivalents binaires pour de petites tailles de code et/ou lorsqu'ils sont utilisés sur des canaux non binaires. En contrepartie, les codes LDPC non binaires présentent une complexité de décodage plus importante que leur équivalent binaire. Des études similaires ont commencé à émerger du côté des turbocodes. Tout comme pour leurs homologues LDPC, les turbocodes non binaires présentent d’excellentes performances pour de petites tailles de blocs. Du point de vue du décodage, les turbocodes non binaires sont confrontés au même problème d’augmentation de la complexité de traitement que les codes LDPC non binaire. Dans cette thèse nous avons proposé une nouvelle structure de turbocodes non binaires en optimisant les différents blocs qui la constituent. Nous avons réduit la complexité de ces codes grâce à la définition d’un algorithme de décodage simplifié. Les codes obtenus ont montré des performances intéressantes en comparaison avec les codes correcteur d’erreur de la littérature. / Nowadays communication standards have adopted different binary forward error correction codes. Turbo codes were adopted for the long term evolution standard, while binary LDPC codes were standardized for the fifth generation of mobile communication (5G) along side with the polar codes. Meanwhile, the focus of the communication community is shifted towards the requirement of beyond 5G standards. Networks for the year 2030 and beyond are expected to support novel forward-looking scenarios, such as holographic communications, autonomous vehicles, massive machine-type communications, tactile Internet… To respond to the expected requirements of new communication systems, non-binary LDPC codes were defined, and they are shown to achieve better error correcting performance than the binary LDPC codes. This performance gain was followed by a high decoding complexity, depending on the field order.Similar studies emerged in the context of turbo codes, where the non-binary turbo codes were defined, and have shown promising error correcting performance, while imposing high complexity. The aim of this thesis is to propose a new low-complex structure of non-binary turbocodes. The constituent blocks of this structure were optimized in this work, and a new low complexity decoding algorithm was proposed targeting a future hardware implementation. The obtained results are promising, where the proposed codes are shown to outperform existing binary and non-binary codes from the literature.
|
330 |
Validation de descriptions VHDL fondée sur des techniques issues du domaine du test de logicielsPaoli, Christophe 20 December 2001 (has links) (PDF)
L'objectif de cette dissertation est de développer une approche originale de validation de circuits digitaux complexes décrits dans le langage VHDL. Nous proposons de générer automatiquement, à partir d'une description VHDL comportemental au niveau algorithmique, les vecteurs de test à appliquer sur une description de niveau RTL. Nous présentons d'abord la validation de descriptions VHDL au niveau algorithmique dans le contexte général du processus de conception de circuits complexes. Ce type de description étant similaire à un programme, nous explorons les techniques utilisées dans le domaine du test de logiciels, notamment celles basées sur un critère de couverture. Nous présentons le critère du test structuré, qui est fondé sur l'utilisation du graphe de flot de contrôle du programme sous test, et de la complexité cyclomatique de McCabe comme index du nombre de chemins à tester. Nous présentons également l'algorithme de Poole qui permet de générer cet ensemble de chemins. Cependant, le langage VHDL possède des caractéristiques que l'on ne retrouve pas dans les langages de programmation traditionnels (notion de temps, interconnexion de « process » s'exécutant en parallèle, mécanisme de « retard delta »). Nous proposons donc une modélisation adéquate sous forme de graphes, permettant d'appliquer les techniques précédentes à des descriptions VHDL restreintes à un sous-ensemble prenant en compte un style de description algorithmique : un graphe de flot de contrôle, un graphe de modélisation de « process », un graphe de dépendance. Nous exposons ensuite une méthodologie pour la génération de vecteurs de test à partir des chemins générés depuis ces graphes : application de l'algorithme de Poole sur la base de la complexité cyclomatique, analyse et modification éventuelle des chemins, génération et résolution des contraintes, extraction des vecteurs de test. L'approche est finalement illustrée par la réalisation du prototype logiciel GENESI qui nous a permis d'obtenir des résultats sur les « benchmarks ITC'99 ».
|
Page generated in 0.059 seconds