Spelling suggestions: "subject:"modèles dde base"" "subject:"modèles dee base""
1 |
Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France / Complex systems and the digitalization of sciences. History and sociology of complexity institutes in the United States and in FranceLi Vigni, Guido Fabrizio 26 November 2018 (has links)
Comment penser la relation entre les cultures scientifiques contemporaines et l’usage grandissant de l’ordinateur dans la production des savoirs ? Cette thèse se propose de donner une réponse à telle question à partir de l’analyse historique et sociologique d’un domaine scientifique fondé par le Santa Fe Institute (SFI) dans les années 1980 aux États-Unis : les « sciences des systèmes complexes » (SSC). Rendues célèbres par des publications grand-public, les SSC se répandent au cours des années 1990 et 2000 en Europe et dans d’autres pays du monde. Ce travail propose une histoire de la fondation de ce domaine en se concentrant sur le SFI et sur le Réseau National des Systèmes Complexes français. Avec un regard sociologique ancré dans les Science & Technology Studies et dans le courant pragmatiste, elle pose ensuite des questions sur le statut socio-épistémique de ce domaine, sur les modalités de l’administration de la preuve dans des savoirs fondés sur la simulation numérique et enfin sur les engagements épistémiques tenus par les spécialistes des systèmes complexes. Le matériau empirique – composé d’environ 200 entretiens, plusieurs milliers de pages d’archives et quelques visites de laboratoire – nous amène non seulement à mieux connaître ce champ de recherche – dont le langage est très répandu aujourd’hui, mais peu étudié par les historiens et les sociologues ; il nous porte aussi à questionner trois opinions courantes dans la littérature humaniste à propos des sciences numériques. À savoir : 1) l’ordinateur produit des connaissances de plus en plus interdisciplinaires, 2) il donne vie à des savoirs de type nouveau qui nécessitent une toute autre épistémologie pour être pensés et 3) il fait inévitablement advenir des visions du monde néolibérales. Or, cette thèse déconstruit ces trois formes de déterminisme technologique concernant les effets de l’ordinateur sur les pratiques scientifiques, en montrant d’abord que, dans les sciences computationnelles, les rapports interdisciplinaires ne se font pas sans effort ni pacifiquement ou sur pied d’égalité ; ensuite que les chercheurs et les chercheuses des SSC mobilisent des formes d’administration de la preuve déjà mises au point dans d’autres disciplines ; et enfin que les engagements épistémiques des scientifiques peuvent prendre une forme proche de la vision (néo)libérale, mais aussi des formes qui s’en éloignent ou qui s’y opposent. / How to think the relationship between contemporary scientific cultures and the rising usage of computer in the production of knowledge ? This thesis offers to give an answer to such a question, by analyzing historically and sociologically a scientific domain founded by the Santa Fe Institute (SFI) in the 1980s in the United States : the « complex systems sciences » (CSS). Become well-known thanks to popular books and articles, CSS have spread in Europe and in other countries of the world in the course of the 1990s and the 2000s. This work proposes a history of the foundation of this domain, by focussing on the SFI and on the French Complex Systems National Network. With a sociological take rooted into Science & Technology Studies and into pragmatism, it then asks some questions about the socio-epistemic status of such a domain, about the modalities of production of evidence as they are employed in the context of digital simulation and, finally, about the epistemic engagements hold by complexity specialists. Empirical material – composed by circa 200 interviews, several thousands archival pages and a small number of laboratory visits – allows us not only to improve knowledge about this field – whose language is very common today, but little studied by historians and sociologists ; it also brings us to question three current opinions in the human and social sciences literature regarding digital sciences. That is : 1) that the computer produces more and more interdisciplinary knowledge, 2) that it gives birth to a new type of knowledge which needs an entirely new epistemology to be well understood and 3) that it inevitably brings about neoliberal visions of the world. Now, this thesis deconstructs these three forms of technological determinism concerning the effects of computer on scientific practices, by showing firstly that, in digital sciences, the interdisciplinary collaborations are not made without any effort and in a symetrical and pacific way ; secondly, that CSS’ researchers mobilize a kind of evidence production techniques which are well known in other disciplines ; and, thirdly, that scientists’ epistemic engagements can take (neo)liberal forms, but also other forms that depart from neoliberalism or that stand against it.
|
2 |
The role of continual learning and adaptive computation in improving computational efficiency of deep learningGupta, Kshitij 01 1900 (has links)
Au cours de la dernière décennie, des progrès significatifs ont été réalisés dans le domaine de l’IA, principalement grâce aux progrès de l’apprentissage automatique, de l’apprentissage profond et de l’utilisation de modèles à grande échelle. Cependant, à mesure que ces modèles évoluent, ils présentent de nouveaux défis en termes de gestion de grands ensembles de données et d’efficacité informatique. Cette thèse propose des approches pour réduire les coûts de calcul de la formation et de l’inférence dans les systèmes d’intelligence artificielle (IA).
Plus précisément, ce travail étudie les techniques d’apprentissage continu et de calcul adaptatif, démontrant des stratégies possibles pour préserver les niveaux de performance de ces systèmes tout en réduisant considérablement les coûts de formation et d’inférence. Les résultats du premier article montrent que les modèles de base peuvent être continuellement pré-entraînés grâce à une méthode d’échauffement et de relecture, ce qui réduit considérable- ment les coûts de calcul de l’entraînement tout en préservant les performances par rapport à un entraînement à partir de zéro.
Par la suite, la thèse étudie comment les stratégies de calcul adaptatif, lorsqu’elles sont combinées avec la mémoire, peuvent être utilisées pour créer des agents d’IA plus efficaces au moment de l’inférence pour des tâches de raisonnement complexes, telles que le jeu stratégique de Sokoban. Nos résultats montrent que les modèles peuvent offrir des per- formances similaires ou améliorées tout en utilisant beaucoup moins de ressources de calcul. Les résultats de cette étude ont de vastes implications pour l’amélioration de l’efficacité in- formatique des systèmes d’IA, soutenant à terme le développement de technologies d’IA plus abordables, accessibles et efficaces. / Over the past decade, significant progress has been made by the field of AI, primarily due to advances in machine learning, deep learning, and the usage of large scale models. However, as these models scale, they present new challenges with respect to handling large datasets and being computationally efficient. This thesis proposes approaches to reducing computational costs of training and inference in artificial intelligence (AI) systems.
Specifically, this work investigates how Continual Learning and Adaptive Computation techniques can be used to reducing training and inference costs while preserving the perfor- mance levels of these systems . The findings of the first article show that foundation models can be continually pre-trained through a method of warm-up and replay, which significantly decreases training computational costs while preserving performance compared to training from scratch.
Subsequently, the thesis investigates how adaptive computation strategies, when com- bined with memory, can be utilized to create more computationally efficient AI agents at inference time for complex reasoning tasks, such as the strategic game of Sokoban. Our results exhibit that models can deliver similar or improved performances while using signifi- cantly fewer computational resources. Findings from this study have broad implications for improving the computational efficiency of AI systems, ultimately supporting the development of more affordable, accessible, and efficient AI technologies.
|
3 |
Contributions à la modélisation multi-échelles de la réponse immunitaire T-CD8 : construction, analyse, simulation et calibration de modèles / Contribution of the understanding of Friction Stir Welding of dissimilar aluminum alloys by an experimental and numerical approach : design, analysis, simulation and calibration of mathematical modelsBarbarroux, Loïc 03 July 2017 (has links)
Lors de l’infection par un pathogène intracellulaire, l’organisme déclenche une réponse immunitaire spécifique dont les acteurs principaux sont les lymphocytes T-CD8. Ces cellules sont responsables de l’éradication de ce type d’infections et de la constitution du répertoire immunitaire de l’individu. Les processus qui composent la réponse immunitaire se répartissent sur plusieurs échelles physiques inter-connectées (échelle intracellulaire, échelle d’une cellule, échelle de la population de cellules). La réponse immunitaire est donc un processus complexe, pour lequel il est difficile d’observer ou de mesurer les liens entre les différents phénomènes mis en jeu. Nous proposons trois modèles mathématiques multi-échelles de la réponse immunitaire, construits avec des formalismes différents mais liés par une même idée : faire dépendre le comportement des cellules TCD8 de leur contenu intracellulaire. Pour chaque modèle, nous présentons, si possible, sa construction à partir des hypothèses biologiques sélectionnées, son étude mathématique et la capacité du modèle à reproduire la réponse immunitaire au travers de simulations numériques. Les modèles que nous proposons reproduisent qualitativement et quantitativement la réponse immunitaire T-CD8 et constituent ainsi de bons outils préliminaires pour la compréhension de ce phénomène biologique. / Upon infection by an intracellular pathogen, the organism triggers a specific immune response,mainly driven by the CD8 T cells. These cells are responsible for the eradication of this type of infections and the constitution of the immune repertoire of the individual. The immune response is constituted by many processes which act over several interconnected physical scales (intracellular scale, single cell scale, cell population scale). This biological phenomenon is therefore a complex process, for which it is difficult to observe or measure the links between the different processes involved. We propose three multiscale mathematical models of the CD8 immune response, built with different formalisms but related by the same idea : to make the behavior of the CD8 T cells depend on their intracellular content. For each model, we present, if possible, its construction process based on selected biological hypothesis, its mathematical study and its ability to reproduce the immune response using numerical simulations. The models we propose succesfully reproduce qualitatively and quantitatively the CD8 immune response and thus constitute useful tools to further investigate this biological phenomenon.
|
Page generated in 0.0447 seconds