• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2517
  • 773
  • 213
  • 12
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3572
  • 1408
  • 880
  • 627
  • 571
  • 560
  • 412
  • 364
  • 338
  • 338
  • 324
  • 322
  • 318
  • 315
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Modélisation discrète de la microstructure des agglomérats de particules fines en suspension / Discrete modeling of microstructure of fine particules agglomerates in suspension

Kimbonguila Manounou, Adolphe 29 November 2013 (has links)
L'agglomération des fines entraîne une augmentation importante de la demande en eau des mélanges cimentaires et constitue un frein à la valorisation des sous-produits contenant des proportions élevées de fines. Une modélisation discrète de la microstructure des agglomérats de fines particules est développée. Le modèle intègre les forces de contact avec prise en compte du frottement et du roulement, les forces physico-chimiques et les forces hydrodynamiques calculées avec l'approximation de drainage libre. Le processus d'agglomération, de fragmentation et de restructuration sous cisaillement d'agglomérats fractals de fines particules minérales est étudié en vue de quantifier l'eau immobilisée dans les flocs. Un agglomérat initial isolé et lâche est soumis à un taux de cisaillement constant. Lorsque les forces hydrodynamiques sont prépondérantes par rapport aux forces de cohésion, l'agglomérat mère se fragmente en agglomérats secondaires jusqu'à atteindre un état stationnaire, où le nombre, la taille et la structure des flocs peuvent être considérés comme constants. L'influence du gradient de vitesse, du contexte physico-chimique, de la taille et de la polydispersité des particules sur les caractéristiques microstructurales des flocs à l'équilibre est étudiée. Il est montré que le comportement d'une suspension diluée monodisperse peut être décrit par un unique nombre adimensionnel faisant intervenir la force de cohésion maximale, la taille des particules et le gradient de vitesse. / The agglomeration of fines leads to a significant increase in water demand of cement mixtures and hinders the valorization of by-products containing high fines proportions. A discrete modeling of the microstructure of fine particles agglomerates is developed. The model takes into account contact forces, physico-chemical, and hydrodynamic forces computed with the free draining approximation. The agglomeration, fragmentation and restructuring process of fractal agglomerates of fine mineral particles under shear is studied to quantify the entrapped water in the flocs. A loose initial agglomerate isolated is submitted to a constant shear rate. When the hydrodynamic forces predominate over the adhesive forces, the parent agglomerate is broken up into secondary agglomerates until reaching a steady state, where the number, size and structure of flocs can be considered constant. The influence of the velocity gradient, the physico-chemical context, particles size and their polydispersity on the microstructural characteristics of flocs at steady state is studied. It is shown that the behavior of a monodisperse dilute suspensions can be described by a dimensionless single number involving maximum cohesion force, particle size and velocity gradient.
82

Etude numérique et expérimentale du comportement d'hydroliennes / Numerical and experimental study of the behaviour of marine current turbines

Mycek, Paul 03 December 2013 (has links)
$aCe manuscrit traite de la caractérisation numérique et expérimentale du comportement d’hydroliennes. D’un point de vue expérimental, des essais ont été réalisés au bassin à houle et courant de l’IFREMER de Boulogne-Sur-Mer, sur des maquettes d’hydroliennes tri-pales à axe horizontal. Des configurations comprenant une seule hydrolienne, d’une part, et deux hydroliennes alignées avec l’écoulement, d’autre part, ont été considérées pour une large gamme de TSR et, le cas échéant, de distances interhydroliennes. Le comportement des hydroliennes est analysé à la fois en termes de performances (coefficients de puissance et de traînée) et de développement du sillage. Les effets du taux de turbulence ambiante sont également examinés. Par ailleurs, des simulations numériques, obtenues à l’aide d’un code tridimensionnel instationnaire, fondé sur la méthode Vortex particulaire et développé au LOMC (UMR 6294, CNRS –Université du Havre) en partenariat avec l’IFREMER, sont présentées. Le code de calcul permet également d’étudier les performances et le sillage d’une hydrolienne. Ce dernier a été complètement réécrit dans le cadre de cette thèse et le support théorique et technique des différents aspects du code est fourni dans ce manuscrit, où la méthode Vortex telle qu’elle est utilisée dans le code est exposée en détail. / This manuscript deals with the numerical and experimental characterisation of the behaviour of marine current turbines. In the experimental part, trials were run at IFREMER’s wave and current flume tank in Boulogne-Sur-Mer, on prototypes of three-bladed horizontal axis turbines. Configurations with one single turbine on the one hand, and two turbines aligned with the incoming flow on the other hand, were considered for a large range of TSRs and, when relevant, of inter-device distances. The behaviour of the turbines is analysed in terms of performances (power and thrust coefficients) and development of the wake. The effects of the ambient turbulence intensity rate are also considered. Besides, numerical computations, obtained from a tridimensional unsteady software, based on the Vortex particle method and developed at the LOMC (UMR 6294, CNRS – University of Le Havre) in partnership with IFREMER, are presented. The numerical tool also enables to study the performances and the wake of a turbine. It was rewritten during this PhD and its technical and theoretical support is available in the manuscript, where the Vortex method, as it is used in the software, is described in details.
83

Névrose, psychosomatique et fonctionnement limité : approche clinique projective : du destin des pulsions agressives / Neurosis, psychosomatic and borderline state : clinic projective method : the destiny aggressive drives

Xardel-Haddab, Hamida 18 September 2009 (has links)
L’auteur propose de réfléchir au destin des pulsions agressives dans trois types de fonctionnement : le fonctionnement limite, le fonctionnement psychosomatique et le fonctionnement normalo-névrotique à partir d’une démarche psychodynamique s’appuyant sur le rorschach, l’analyse d’un entretien clinique de recherche et le questionnaire 16PF5. Cette étude se fonde sur une méthodologie du cas unique. Elle porte sur l’orientation de l’agir dans les deux premiers fonctionnements en lien avec l’organisation défensive et la nature de l’angoisse. De là, découle une hypothèse centrale : plus le fonctionnement psychique est marqué par une organisation défensive à dominante projective, plus les pulsions agressives sont externalisées par un agir comportemental associée à une angoisse bruyante et massive. Et a contrario, plus le fonctionnement défensif est marqué par une dominante répressive et inhibitrice, plus les pulsions agressives risquent de subir un destin les conduisant à l’agir somatique, associé à une angoisse non manifeste. / The author proposes to think about the aggressive drives final destinies into three types of intrapsychic functioning : the border-line state, the psychosomatic organization and the normalo-neurotic structure using a psychodynamique orientation centered on the Rorschach, and a clinical research interview associated with the 16PF5 questionary. This study was based on the “single case” methodology. Acting in or acting out are for us linked to the defensive orientation and the nature of anguish. Our main hypothesis is that a psychic functioning more projective is relation to externalization of agressive drives on acting out behaviours related to anguish expression. On the other hand, the more defensive style is affected by a repressive and a primary tendancy, the more the agressive drives are able to lead a somatic expression associated with a repressed anguish.
84

Modélisation numérique du procédé de planage des bandes minces / Numerical modelling of leveling process for thin strips

Mathieu, Norman 05 December 2011 (has links)
Le planage est un procédé de mise en forme utilisé dans l’industrie de l’aluminium dans le but de corriger les défauts de planéité et de réduire les contraintes résiduelles dans les bandes minces par des flexions sous traction. Après avoir étudié les possibilités pour modéliser analytiquement le passage d’une tôle dans une planeuse multi-rouleaux et établi les limites de cette approche, on propose dans ce travail de thèse un modèle éléments finis en trois dimensions pour simuler le fonctionnement d’une planeuse sous traction pure. Les distributions de déformations plastiques et de contraintes résiduelles, dans la largeur et dans l’épaisseur, sont calculées. Des défauts initiaux de planéité sont introduits dans la bande en entrée de la machine et on vérifie que ceux-ci sont bien corrigés à la sortie.Ensuite, pour limiter la taille du modèle et diminuer le temps nécessaire à la simulation, une seconde approche avec un chaînage de configurations élémentaires et un transfert de données est comparée au modèle complet d’étireuse. Une application de ce modèle alternatif est effectuée en étudiant l’influence du profil des rouleaux. Enfin, la déformée de la bande, après retour élastique et flambement éventuel, est prédite / Leveling is a forming process used in the aluminum industry in order to correct flatness defects and minimize residual stresses in thin metallic strips thanks to bending under tension. After testing an analytical model of multiroll leveling and raising the limits of this approach, this thesis manuscript introduces a three-dimensionnal Finite Element model to simulate the sheet conveying in an industrial configuration of stretcher. It can compute plastic strains and residual stresses through width and thickness. Initial flatness defetcs are taken into account in the entering strip and we verify how they are corrected at the exit. Then, to reduce model size and computation time, a second approach with two elementary configurations coupling and data transfer is compared to whole model of stretcher. This alternative model is applied to study the profiled rolls effect. Finally, it predicts the deformed strip after springback and potential buckling phenomena
85

Codage réseau pour des applications multimédias avancées / Network coding for advanced video applications

Nemoianu, Irina-Delia 20 June 2013 (has links)
Le codage réseau est un paradigme qui permet une utilisation efficace du réseau. Il maximise le débit dans un réseau multi-saut en multicast et réduit le retard. Dans cette thèse, nous concentrons notre attention sur l’intégration du codage réseau aux applications multimédias, et en particulier aux systèmes avancès qui fournissent un service vidéo amélioré pour les utilisateurs. Nos contributions concernent plusieurs scénarios : un cadre de fonctions efficace pour la transmission de flux en directe qui utilise à la fois le codage réseau et le codage par description multiple, une nouvelle stratégie de transmission pour les réseaux sans fil avec perte qui garantit un compromis entre la résilience vis-à-vis des perte et la reduction du retard sur la base d’une optimisation débit-distorsion de l'ordonnancement des images vidéo, que nous avons également étendu au cas du streaming multi-vue interactive, un système replication sociale distribuée qui, en utilisant le réseau codage en relation et la connaissance des préférences des utilisateurs en termes de vue, est en mesure de sélectionner un schéma de réplication capable de fournir une vidéo de haute qualité en accédant seulement aux autres membres du groupe social, sans encourir le coût d’accès associé à une connexion à un serveur central et sans échanger des larges tables de métadonnées pour tenir trace des éléments répliqués, et, finalement, une étude sur l’utilisation de techniques de séparation aveugle de source -pour réduire l’overhead encouru par les schémas de codage réseau- basé sur des techniques de détection d’erreur telles que le codage de parité et la génération de message digest. / Network coding is a paradigm that allows an efficient use of the capacity of communication networks. It maximizes the throughput in a multi-hop multicast communication and reduces the delay. In this thesis, we focus our attention to the integration of the network coding framework to multimedia applications, and in particular to advanced systems that provide enhanced video services to the users. Our contributions concern several instances of advanced multimedia communications: an efficient framework for transmission of a live stream making joint use of network coding and multiple description coding; a novel transmission strategy for lossy wireless networks that guarantees a trade-off between loss resilience and short delay based on a rate-distortion optimized scheduling of the video frames, that we also extended to the case of interactive multi-view streaming; a distributed social caching system that, using network coding in conjunction with the knowledge of the users' preferences in terms of views, is able to select a replication scheme such that to provide a high video quality by accessing only other members of the social group without incurring the access cost associated with a connection to a central server and without exchanging large tables of metadata to keep track of the replicated parts; and, finally, a study on using blind source separation techniques to reduce the overhead incurred by network coding schemes based on error-detecting techniques such as parity coding and message digest generation. All our contributions are aimed at using network coding to enhance the quality of video transmission in terms of distortion and delay perceived
86

Optimisation de réseaux de capteurs pour la caractérisation de source de rejets atmosphériques / Sensors networks optimization for the characterization of atmospheric releases source

Kouichi, Hamza 18 July 2017 (has links)
L’objectif principal de cette étude est de définir les méthodes nécessaires pour optimiser un réseau de surveillance conçu pour la caractérisation de source de rejets atmosphériques. L’optimisation consiste ici à déterminer le nombre et les positions optimales de capteurs à déployer afin de répondre à ce type de besoin. Dans ce contexte, l’optimisation est réalisée pour la première fois par un couplage entre la technique d’inversion de données dite de « renormalisation » et des algorithmes d’optimisation métaheuristique. La méthode d’inversion a été en premier lieu évaluée pour la caractérisation de source ponctuelle, et a permis ensuite, de définir des critères d’optimalité pour la conception des réseaux. Dans cette étude, le processus d’optimisation a été évalué dans le cadre d’expériences réalisées en terrain plat sans obstacles (DYCE) et en milieu urbain idéalisé (MUST). Trois problématiques ont été définies et testées sur ces expériences. Elles concernent (i) la détermination de la taille optimale d’un réseau permettant de caractériser une source de pollution, où une fonction coût (erreurs normalisées), traduisant l’écart entre les observations et les données modélisées, a été minimisée ; (ii) la conception optimale d’un réseau permettant de caractériser une source ponctuelle inconnue, pour une condition météorologique particulière. Dans ce contexte, une fonction coût entropique a été maximisée afin d’augmenter la quantité d’information fournie par le réseau ; (iii) la détermination d’un réseau optimal permettant de caractériser une source ponctuelle inconnue pour des configurations météorologiques multiples. Pour ce faire, une fonction coût entropique généralisée, que nous avons définie, a été maximisée. Pour ces trois problématiques, l’optimisation est assurée dans le cadre d’une approche d’optimisation combinatoire. La détermination de la taille optimale d’un réseau (problématique 1) s’est révélée particulièrement sensible aux différentes conditions expérimentales (hauteur et débit de la source, conditions de stabilité, vitesse et direction du vent, etc.). Nous avons noté pour ces expériences, que les performances des réseaux sont meilleures dans le cadre d’une dispersion sur terrain plat comparativement aux milieux urbains. Nous avons également montré que différentes architectures de réseaux pouvaient converger vers le même optimum (approché ou global). Pour la caractérisation de sources inconnues (problématiques 2 et 3), les fonctions coûts entropiques se sont avérées robustes et ont permis d’obtenir des réseaux optimaux performants (de tailles raisonnables) capables de caractériser différentes sources pour une ou plusieurs conditions météorologiques. / The main objective of this study is to define the methods required to optimize a monitoring network designed for atmospheric source characterization. The optimization consists in determining the optimal number and locations of sensors to be deployed in order to respond to such needs. In this context, the optimization is performed for the first time by a coupling between the data inversion technique named "renormalization" and the metaheuristic optimization algorithms. At first, the inversion method was evaluated for a point source, and then have allowed to define optimality criteria for networks design. In this study, the optimization process was evaluated in experiments carried out in flat terrain without obstacles (DYCE) and in an idealized urban environment (MUST). Three problems were defined and tested based on these experiments. These problems concern (i) the determination of the optimal network size for source characterization, for which a cost function (standard errors) estimating the gap between observations and modeled data, has been minimized; (ii) the optimal design of a network to retrieve an unknown point source for a particular meteorological condition. In this context, an entropy cost function has been maximized in order to increase the information’s amount provided by the network; (iii) the determination of an optimal network to reconstruct an unknown point source for multiple meteorological configurations. For this purpose, a generalized entropic cost function that we have defined, has been maximized. For these all problems, optimization is ensured within the framework of a combinatorial optimization approach. The determination of the optimal network size (problem 1) was highly sensitive to experimental conditions (source height and intensity, stability conditions, wind speed and direction, etc.). We have noted that the networks performance is better for a dispersion on flat terrain compared to the urban environments. We have also shown that different networks architectures can converge towards the same optimum (approximate or global). For unknown sources reconstruction (problems 2 and 3), the entropic cost functions have proven to be robust and allowed to obtain optimal networks (for reasonable sizes) capable of characterizing different sources for one or multiple meteorological conditions.
87

Une sociologie de l'action : évolution d'un concept et présentation d'un paradigme

Robitaille, Christian 02 September 2021 (has links)
Cette thèse propose un questionnement sur les objets et les méthodes des sciences sociales ainsi que sur les types de connaissance qu’elles peuvent nous permettre d’obtenir. L’idée centrale soutenue par cette thèse est que l’action constitue le cœur de l’explication sociale. Ainsi, ce travail se construit en deux temps. D’abord, on procède à une analyse de l’évolution du concept d’action en sciences sociales à partir de la philosophie de l’action de David Hume jusqu’à ses spécifications théoriques en économie et en sociologie classiques. Cette évolution conceptuelle permet de situer deux courants théoriques complémentaires dans l’étude de l’action représentés par l’économiste Ludwig von Mises et le sociologue Raymond Boudon. Ensuite, cette thèse utilise les paradigmes de l’action de Mises et de Boudon afin de présenter l’esquisse d’un paradigme unifié permettant aux chercheurs de situer méthodologiquement et épistémologiquement leurs investigations sociales.
88

Modélisation à l'échelle mésoscopique de la cellule élémentaire d'un renfort composite 3D interlock à partir de tomographies à rayon X

Georgiou, Aubin 01 October 2021 (has links)
Ce mémoire présente les travaux de mise en œuvre d'un modèle numérique par éléments finis de la cellule unitaire représentative d'un composite interlock 3D, à partir de tomographies. Ce matériau se compose de torons tissés dans les directions chaine et trame, ainsi qu'à travers l'épaisseur. Ce type d'interlock 3X a été largement étudié ces dix dernières années, sans pour autant que des modèles numériques performants soient réalisés, ce qui rend nécessaire une modélisation numérique de sa cellule unitaire. Il présente pourtant des avantages vis-à-vis des autres types de composites, notamment grâce à l'absence du phénomène de délamination, cause principale de dégradation des composites. Ce travail présente la démarche et les moyens mis en œuvre pour obtenir la cellule unitaire numérique du matériau. Des tomographies de différents états du tissu sec, non compacté et compacté, ont été réalisées afin de générer un modèle éléments finis à partir du logiciel de traitement d'image AVIZO ainsi que du logiciel de génération de textile TEXGEN. Un modèle simplifié d'une tranche de cellule unitaire a été choisi afin de simuler et valider le procédé de compaction numérique avec le logiciel élément finis Abaqus. Les résultats du modèle de compaction ont été comparés aux tomographies du tissu sec compacté. Les résultats de cette simulation simplifiée sont prometteurs. La déformation et les déplacements des torons obtenus sur la cellule unitaire du tissu sec simulé sont très proches de ceux observés sur les tomographies du tissu compacté de la sorte. / This thesis presents the work conducted toward the development of a finite element model of the representative unit cell of a 3D interlock composite, based on tomographies. This material is composed of yarns woven in the warp and weft directions, as well as through the thickness. This kind of 3X interlock has been very little studied to date, which makes numerical modelling of its unit cell necessary. However, it present advantages over other types of composites, in particular the absence of delamination phenomenon, the main cause of composite degradation. This work presents the approach and the means employed to obtain the numerical unit cell of the material. Tomographies of different states of the dry, uncompacted and compacted fabric were carried out in order to generate a finite element model from the image processing software AVIZO and the textile generation software TEXGEN. A simplified model of a unit cell slice was chosen in order to simulate and validate the numerical compaction process with the Abaqus finite element software. The results of the compaction model were compared with tomographies of dry texile. The results of this simplified simulation are promising. The deformation and displacements of the yarns obtained on the unit cell of the simulated dry textile are very close to those observed on tomographies of the compacted textile.
89

Solveur GCR pour les méthodes de type mortier

Pouliot, Benoît 24 April 2018 (has links)
Les méthodes de type mortier, introduites en 1987 par Bernardi, Maday et Patera, font partie de la grande famille des méthodes par décomposition de domaine. Combinées à la méthode des éléments finis, elles consistent à construire une discrétisation non conforme des espaces fonctionnels du ou des problèmes étudiés. Les trente dernières années de recherche portant sur ces méthodes ont permis d'acquérir des connaissances solides tant au point de vue théorique que pratique. Aujourd'hui, elles sont naturellement utilisées pour résoudre des problèmes d'une grande complexité. Comme applications, nous pouvons simplement penser à des problèmes de contact entre divers solides, à des problèmes d'interaction fluide-structure ou à des problèmes impliquant des mécanismes en mouvement tel des engrenages ou des alternateurs. Cette thèse de doctorat a pour objectif d'expliquer en détail la construction des méthodes de type mortier et de développer des algorithmes adaptés à la résolution des systèmes ainsi créés. Nous avons décidé d'employer l'algorithme du GCR (Generalized Conjugate Residual method) comme solveur de base pour nos calculs. Nous appliquons d'abord une factorisation du système linéaire global grâce à son écriture naturelle en sous-blocs. Cette factorisation génère un système utilisant un complément de Schur qu'il faut résoudre. C'est sur ce sous-système que nous employons l'algorithme du GCR. Le complément de Schur est préconditionné par une matrice masse redimensionnée, mais il est nécessaire de modifier l'algorithme du GCR pour obtenir des résultats théoriques intéressants. Nous montrons que la convergence de ce solveur modifié est indépendante du nombre de sous-domaines impliqués ainsi que de ses diverses composantes physiques. Nous montrons de plus que le solveur ne dépend que légèrement de la taille des éléments d'interface. Nous proposons une solution élégante dans le cas de sous-domaines dits flottants. Cette solution ne requiert pas la modification du solveur décrit plus haut. Des tests numériques ont été effectués pour montrer l'efficacité de la méthode du GCR modifiée dans divers cas. Par exemple, nous étudions des problèmes possédant plusieurs échelles au niveau de la discrétisation et des paramètres physiques. Nous montrons aussi que ce solveur a une accélération importante lorsqu'il est employé en parallèle. / The mortar methods, introduced in 1987 by Bernadi, Maday and Patera, are part of the large family of domain decomposition methods. Combined to the finite element method, they consist in constructing a nonconforming discretization of the functional space of the problem under consideration. The last thirty years of research about these methods has provided a solid knowledge from a theoretical and practical point of view. Today, they are naturally used to solve problems of great complexity such as contact problems between deformable solids, fluid-structure interaction problems or moving mechanisms problems like gears and alternators. The aim of this thesis is to explain in details the principles of mortar methods and to develop adapted algorithms to solve the generated linear systems. We use the GCR algorithm (Generalized Conjugate Residual method) as our basic solver in our computations. We first apply a factorization of the global linear system using the natural sub-block structure of the matrix. This factorization generates a system using a Schur complement. It is on this sub-system that we use the GCR algorithm. The Schur complement is preconditioned by a rescaled mass matrix, but it is necessary to slightly modify the GCR algorithm to obtain theorical results. We show that the convergence of this modified solver is independent of the number of subdomains involved and of the diverse physical parameters. We also show that the solver slightly depends on the size of the interface mesh. We present a strategy to take care of the so called floating subdomains. The proposed solution does not require any modification to the solver. Numerical tests have been performed to show the efficiency of the modified GCR method in various cases. We consider problems with several discretization and physical parameter scales. We finally show that the solver presents an important speedup in parallel implementation.
90

Mise en place d'approches bioinformatiques innovantes pour l'intégration de données multi-omiques longitudinales

Bodein, Antoine 28 July 2021 (has links)
Les nouvelles technologies «omiques» à haut débit, incluant la génomique, l'épigénomique, la transcriptomique, la protéomique, la métabolomique ou encore la métagénomique, ont connues ces dernières années un développement considérable. Indépendamment, chaque technologie omique est une source d'information incontournable pour l'étude du génome humain, de l'épigénome, du transcriptome, du protéome, du métabolome, et également de son microbiote permettant ainsi d'identifier des biomarqueurs responsables de maladies, de déterminer des cibles thérapeutiques, d'établir des diagnostics préventifs et d'accroître les connaissances du vivant. La réduction des coûts et la facilité d'acquisition des données multi-omiques à permis de proposer de nouveaux plans expérimentaux de type série temporelle où le même échantillon biologique est séquencé, mesuré et quantifié à plusieurs temps de mesures. Grâce à l'étude combinée des technologies omiques et des séries temporelles, il est possible de capturer les changements d'expressions qui s'opèrent dans un système dynamique pour chaque molécule et avoir une vision globale des interactions multi-omiques, inaccessibles par une approche simple standard. Cependant le traitement de cette somme de connaissances multi-omiques fait face à de nouveaux défis : l'évolution constante des technologies, le volume des données produites, leur hétérogénéité, la variété des données omiques et l'interprétabilité des résultats d'intégration nécessitent de nouvelles méthodes d'analyses et des outils innovants, capables d'identifier les éléments utiles à travers cette multitude d'informations. Dans cette perspective, nous proposons plusieurs outils et méthodes pour faire face aux challenges liés à l'intégration et l'interprétation de ces données multi-omiques particulières. Enfin, l'intégration de données multi-omiques longitudinales offre des perspectives dans des domaines tels que la médecine de précision ou pour des applications environnementales et industrielles. La démocratisation des analyses multi-omiques et la mise en place de méthodes d'intégration et d'interprétation innovantes permettront assurément d'obtenir une meilleure compréhension des écosystèmes biologiques. / New high-throughput «omics» technologies, including genomics, epigenomics, transcriptomics, proteomics, metabolomics and metagenomics, have expanded considerably in recent years. Independently, each omics technology is an essential source of knowledge for the study of the human genome, epigenome, transcriptome, proteome, metabolome, and also its microbiota, thus making it possible to identify biomarkers leading to diseases, to identify therapeutic targets, to establish preventive diagnoses and to increase knowledge of living organisms. Cost reduction and ease of multi-omics data acquisition resulted in new experimental designs based on time series in which the same biological sample is sequenced, measured and quantified at several measurement times. Thanks to the combined study of omics technologies and time series, it is possible to capture the changes in expression that take place in a dynamic system for each molecule and get a comprehensive view of the multi-omics interactions, which was inaccessible with a simple standard omics approach. However, dealing with this amount of multi-omics data faces new challenges: continuous technological evolution, large volumes of produced data, heterogeneity, variety of omics data and interpretation of integration results require new analysis methods and innovative tools, capable of identifying useful elements through this multitude of information. In this perspective, we propose several tools and methods to face the challenges related to the integration and interpretation of these particular multi-omics data. Finally, integration of longidinal multi-omics data offers prospects in fields such as precision medicine or for environmental and industrial applications. Democratisation of multi-omics analyses and the implementation of innovative integration and interpretation methods will definitely lead to a deeper understanding of eco-systems biology.

Page generated in 0.0825 seconds