21 |
Extensions parallèles pour le langage NitPoirier, Sylvain 06 1900 (has links) (PDF)
Grâce à la miniaturisation et à l'arrivée des processeurs multicœurs dans les ordinateurs personnels, la programmation parallèle ne semble plus être réservée aux groupes restreints d'utilisateurs ayant accès à des superordinateurs ou à des grappes de calculs. De plus, avec la tendance actuelle d'augmenter constamment le nombre de cœurs des processeurs, le besoin de développer des applications pouvant s'exécuter correctement sur l'ensemble des unités de traitement disponibles est un enjeu déterminant. Sous de telles conditions, tout langage de programmation récent devrait être doté de mécanismes permettant la génération et l'exploitation de calculs parallèles. Dans le présent mémoire, nous explorons la possibilité d'intégrer des extensions parallèles à un langage orienté objet récent qui, au départ, ne possédait aucun support pour la programmation parallèle. Le langage utilisé est Nit, un langage développé conjointement à l'UQAM et au LIRMM (Montpellier, France). Nit est un langage moderne orienté objet dont la mise en œuvre utilise de nouvelles techniques de compilation, à la fine pointe de la recherche sur les langages orientés objet. À ce langage de base séquentiel, nous avons ajouté un module, appelé NitSpace, qui permet d'échanger de l'information entre des processus qui s'exécutent en parallèle. Ce module est fondé sur le modèle Linda proposé par Carriero et Gelernter (2). Le modèle Linda propose de partager, entre les processus, un espace de tuples par l'intermédiaire duquel les divers processus échangent de l'information, et ce à l'aide de quatre opérations principales : out, in, rd et eval. À ces quatre opérations s'ajoutent aussi deux variantes non bloquantes des opérations de lecture : inp et rdp. Ces diverses opérations permettent l'ajout, l'extraction et la lecture dans un espace partagé de tuples. Un avantage du modèle Linda est sa simplicité, mais en permettant malgré tout la définition des structures de données plus complexes telles que sémaphores, barrières de synchronisation, sacs de tâches, tableaux distribués, flux de données, etc. Le modèle Linda, défini au départ dans le contexte du langage C, a par la suite été intégré à d'autres langages, qui ont introduit des variantes au modèle original. Quelques-unes de ces variantes seront présentées, en présentant les implémentations qui ont été réalisées dans les langages Ruby, Python, Scala et Java. Nous avons choisi de présenter ces langages car, tout comme Nit, il s'agit de langages orientés objets. Les caractéristiques de ces différentes mises en œuvre du modèle Linda ont aussi influencé le choix de conception et de réalisation de notre module NitSpace. L'implémentation de ce module fut réalisée en trois couches que l'on présentera en détail. La majeure partie représentant la couche de bas niveau fut réalisée en C. À celle-ci s'ajoute une couche médiane qui permet de relier la couche C à la couche Nit. Finalement, la couche supérieure, écrite entièrement en Nit, représente l'API qui permet à un programme Nit de générer des calculs parallèles.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Nit, NitSpace, programmation parallèle, Linda, espace de tuples.
|
22 |
Analyse comparative de la couverture et de l’acceptabilité des solutions d’un dictionnaire bilingue spécialisé, d’une banque de données terminologiques et d’un concordancier en ligne : application au domaine de la traduction médicaleSimard, Tanya 21 August 2013 (has links)
La présente étude rend compte de l’utilité de trois ressources pour le traducteur médical, soit le Dictionnaire anglais-français des sciences médicales et paramédicales de Gladstone, la banque de données terminologiques et linguistiques du gouvernement du Canada TERMIUM Plus® et le concordancier en ligne WeBiText, sur la base d’une analyse comparative de leur taux de couverture et du niveau d’acceptabilité des solutions qu’elles proposent. Contrairement à d’autres études, cette recherche mise sur une approche double qui combine un volet quantitatif et qualitatif. À partir d’un ensemble de problèmes de traduction tiré d’un corpus d’étude constitué de huit résumés d’articles scientifiques de revues médicales canadiennes, nous démontrons que le taux de couverture du corpus « Santé » de WeBiText est de 62 %, alors que celui de TERMIUM Plus® est de 37 % et celui du Gladstone de 30 %. Nous montrons par ailleurs que le concordancier fournit environ deux fois plus de solutions que les deux autres ressources. En outre, des données rassemblées dans le cadre d’un questionnaire en ligne auprès de 88 langagiers révèlent que les solutions proposées par WeBiText sont tout aussi acceptables que celles offertes par TERMIUM Plus®, tandis que celles qui figurent dans le Gladstone sont souvent considérées comme inacceptables. Nous en concluons que les corpus parallèles tirés du Web ont une meilleure couverture que les ressources traditionnelles et qu’ils présentent une gamme plus variée de solutions uniques et convenables, notamment pour la traduction de textes médicaux hautement spécialisés.
ENGLISH
This study reports on the usefulness of three resources for the medical translator, namely Gladstone's English-French dictionary of medical and paramedical sciences, TERMIUM Plus®, the Government of Canada's terminology and linguistic data bank, and WeBiText, an online concordancer, on the basis of a comparative analysis of their coverage and the level of acceptability of the solutions they offer. Unlike other studies, this research adopts a two-fold approach combining quantitative and qualitative perspectives. From a set of translation problems drawn from a corpus of eight scientific paper abstracts from Canadian medical journals, we demonstrate that WeBiText's "Health" corpus has a 62% coverage rate, while that of TERMIUM Plus® is 37% and Gladstone's is 30%. We also show that the concordancer provides roughly twice as many solutions as the other two resources. In addition, data collected through an online survey of 88 language professionals indicates that the solutions found in WeBiText are equally acceptable as those provided by TERMIUM Plus®, while Gladstone's are often considered unacceptable. We conclude that Web parallel corpora have a better coverage than traditional resources and that they offer a broader range of unique and suitable solutions, particularly for the translation of highly specialized medical texts.
|
23 |
Artificial intelligence models for large scale buildings energy consumption analysis / Modèles d'intelligence artificielle pour analyse énergétique des bâtiments de la consommationZhao, Haixiang 28 September 2011 (has links)
La performance énergétique dans les bâtiments est influencée par de nombreux facteurs, tels que les conditions météorologiques ambiantes, la structure du bâtiment et les caractéristiques, l'occupation et leurs comportements, l'opération de sous-composants de niveau comme le chauffage, de ventilation et de climatisation (CVC). Cette propriété rend complexe la prévision, l'analyse, ou faute de détection / diagnostic de la consommation énergétique du bâtiment est très difficile d'effectuer rapidement et avec précision. Cette thèse se concentre principalement sur la mise à jour des modèles d'intelligence artificielle avec des applications pour résoudre ces problèmes. Tout d'abord, nous passons en revue les modèles récemment développés pour résoudre ces problèmes, y compris des méthodes d'ingénierie détaillée et simplifiée, les méthodes statistiques et les méthodes d'intelligence artificielle. Puis nous simulons des profils de consommation d'énergie pour les bâtiments simples et multiples, et basé sur ces ensembles de données, des modèles de soutien vecteur de la machine sont formés et testés pour faire la prédiction. Les résultats des expériences montrent vaste précision de la prédiction haute et la robustesse de ces modèles. Deuxièmement, déterministe récursif Perceptron (RDP) modèle de réseau neuronal est utilisé pour détecter et diagnostiquer défectueuse consommation d'énergie du bâtiment. La consommation anormale est simulé par l'introduction manuelle d'une dégradation des performances des appareils électriques. Dans l'expérience, le modèle montre la capacité de détection RDP très élevé. Une nouvelle approche est proposée pour diagnostiquer des défauts. Il est basé sur l'évaluation des modèles RDP, dont chacun est capable de détecter une panne de matériel. Troisièmement, nous examinons comment la sélection des sous-ensembles caractéristiques de l'influence la performance du modèle. Les caractéristiques optimales sont choisis en fonction de la faisabilité de l'obtention eux et sur les scores qu'ils fournissent dans l'évaluation de deux méthodes de filtrage. Les résultats expérimentaux confirmer la validité de l'ensemble sélectionné et montrent que la proposé la méthode de sélection fonction peut garantir l'exactitude du modèle et réduit le temps de calcul. Un défi de la consommation énergétique du bâtiment est d'accélérer la prédiction de formation du modèle lorsque les données sont très importantes. Cette thèse propose une mise en œuvre efficace parallèle de Support Vector Machines basée sur la méthode de décomposition pour résoudre de tels problèmes. La parallélisation est réalisée sur le travail le plus fastidieux de formation, c'est à dire de mettre à jour le vecteur gradient de f. Les problèmes intérieurs sont traitées par solveur d'optimisation séquentielle minimale. Le parallélisme sous-jacente est réalisée par la version de mémoire partagée de Map-Reduce paradigme, qui rend le système particulièrement adapté pour être appliqué à des systèmes multi-core et multi-processeurs. Les résultats expérimentaux montrent que notre implémentation offre une augmentation de la vitesse élevée par rapport à libsvm, et il est supérieur à l'état de l'art Pisvm application MPI à la fois la rapidité et l'exigence de stockage. / The energy performance in buildings is influenced by many factors, such as ambient weather conditions, building structure and characteristics, occupancy and their behaviors, the operation of sub-level components like Heating, Ventilation and Air-Conditioning (HVAC) system. This complex property makes the prediction, analysis, or fault detection/diagnosis of building energy consumption very difficult to accurately and quickly perform. This thesis mainly focuses on up-to-date artificial intelligence models with the applications to solve these problems. First, we review recently developed models for solving these problems, including detailed and simplified engineering methods, statistical methods and artificial intelligence methods. Then we simulate energy consumption profiles for single and multiple buildings, and based on these datasets, support vector machine models are trained and tested to do the prediction. The results from extensive experiments demonstrate high prediction accuracy and robustness of these models. Second, Recursive Deterministic Perceptron (RDP) neural network model is used to detect and diagnose faulty building energy consumption. The abnormal consumption is simulated by manually introducing performance degradation to electric devices. In the experiment, RDP model shows very high detection ability. A new approach is proposed to diagnose faults. It is based on the evaluation of RDP models, each of which is able to detect an equipment fault.Third, we investigate how the selection of subsets of features influences the model performance. The optimal features are selected based on the feasibility of obtaining them and on the scores they provide under the evaluation of two filter methods. Experimental results confirm the validity of the selected subset and show that the proposed feature selection method can guarantee the model accuracy and reduces the computational time.One challenge of predicting building energy consumption is to accelerate model training when the dataset is very large. This thesis proposes an efficient parallel implementation of support vector machines based on decomposition method for solving such problems. The parallelization is performed on the most time-consuming work of training, i.e., to update the gradient vector f. The inner problems are dealt by sequential minimal optimization solver. The underlying parallelism is conducted by the shared memory version of Map-Reduce paradigm, making the system particularly suitable to be applied to multi-core and multiprocessor systems. Experimental results show that our implementation offers a high speed increase compared to Libsvm, and it is superior to the state-of-the-art MPI implementation Pisvm in both speed and storage requirement.
|
24 |
Analyse comparative de la couverture et de l’acceptabilité des solutions d’un dictionnaire bilingue spécialisé, d’une banque de données terminologiques et d’un concordancier en ligne : application au domaine de la traduction médicaleSimard, Tanya January 2013 (has links)
La présente étude rend compte de l’utilité de trois ressources pour le traducteur médical, soit le Dictionnaire anglais-français des sciences médicales et paramédicales de Gladstone, la banque de données terminologiques et linguistiques du gouvernement du Canada TERMIUM Plus® et le concordancier en ligne WeBiText, sur la base d’une analyse comparative de leur taux de couverture et du niveau d’acceptabilité des solutions qu’elles proposent. Contrairement à d’autres études, cette recherche mise sur une approche double qui combine un volet quantitatif et qualitatif. À partir d’un ensemble de problèmes de traduction tiré d’un corpus d’étude constitué de huit résumés d’articles scientifiques de revues médicales canadiennes, nous démontrons que le taux de couverture du corpus « Santé » de WeBiText est de 62 %, alors que celui de TERMIUM Plus® est de 37 % et celui du Gladstone de 30 %. Nous montrons par ailleurs que le concordancier fournit environ deux fois plus de solutions que les deux autres ressources. En outre, des données rassemblées dans le cadre d’un questionnaire en ligne auprès de 88 langagiers révèlent que les solutions proposées par WeBiText sont tout aussi acceptables que celles offertes par TERMIUM Plus®, tandis que celles qui figurent dans le Gladstone sont souvent considérées comme inacceptables. Nous en concluons que les corpus parallèles tirés du Web ont une meilleure couverture que les ressources traditionnelles et qu’ils présentent une gamme plus variée de solutions uniques et convenables, notamment pour la traduction de textes médicaux hautement spécialisés.
ENGLISH
This study reports on the usefulness of three resources for the medical translator, namely Gladstone's English-French dictionary of medical and paramedical sciences, TERMIUM Plus®, the Government of Canada's terminology and linguistic data bank, and WeBiText, an online concordancer, on the basis of a comparative analysis of their coverage and the level of acceptability of the solutions they offer. Unlike other studies, this research adopts a two-fold approach combining quantitative and qualitative perspectives. From a set of translation problems drawn from a corpus of eight scientific paper abstracts from Canadian medical journals, we demonstrate that WeBiText's "Health" corpus has a 62% coverage rate, while that of TERMIUM Plus® is 37% and Gladstone's is 30%. We also show that the concordancer provides roughly twice as many solutions as the other two resources. In addition, data collected through an online survey of 88 language professionals indicates that the solutions found in WeBiText are equally acceptable as those provided by TERMIUM Plus®, while Gladstone's are often considered unacceptable. We conclude that Web parallel corpora have a better coverage than traditional resources and that they offer a broader range of unique and suitable solutions, particularly for the translation of highly specialized medical texts.
|
25 |
Calcul à l'echelle méso avec interface non locale des composites stratifiés / Meso scale with non local interface simulation of stratified compositeBordeu Weldt, Felipe Eduardo 06 January 2012 (has links)
L'industrie utilise de plus en plus les matériaux composites stratifiés à matrice organique (CMO) pour remplacer les alliages métalliques légers. Avec un rapport résistance/masse supérieur aux alliages métalliques, ces matériaux constituent une véritable alternative pour diminuer le poids des structures. Cependant, la certification des structures en composite est une procédure lourde et complexe. Le Virtual Testing consiste à remplacer une grande partie des essais réels par des simulations numériques en vue de diminuer la quantité d'essais physiques nécessaires pour la certification. Toutefois, les modèles ainsi que les méthodes de calcul utilisés pour les simulations doivent avoir la confiance des autorités de contrôle. On ce concentre ici sur le Méso-modèle Amélioré d'Endommagement des Composites Stratifiés qui, depuis un vingtaine d'années, a démontré être un modèle capable de prendre en compte la plupart de mécanismes de dégradation d'une structure composite. Ce modèle, non linéaire, non local et d'évolution, est défini à l'échelle du pli. La taille des problèmes résultants de la simulation de ce type de modèle est considérable. Dans ces travaux, un grand intérêt a été porté au traitement numérique du modèle. Dans un premier temps, l'intégration du modèle dans un code de calcul a permis d'y apporter des améliorations. En ce qui concerne la méthode de résolution, une méthode de décomposition de domaine permet l'utilisation du modèle pour la simulation de structures de taille moyenne. L'approche proposée permet de surmonter les difficultés liées à l'utilisation d'un modèle non local et non linéaire au sein d'une méthode de décomposition de domaine. / The industry uses more and more organic matrix composite materials to replace the light metallic alloys. With a strenght/mass ratio superior to the metallic alloys, these materials constitute a real alternative to decrease the weight of the structures. However, the certification of composite structures is a heavy and complex procedure. Virtual Testing consists in replacing a big part of the real essays by numeric simulations to decrease the quantity of physical essays necessary for the certification. However, the models as well as the numerical methods used for the simulations have to be trusted by the certification authorities. Here we focus on the Enhanced Damage Mesomodel which, for twenty years, has demonstrated to be a model capable of taking into account most of the degradation mechanisms of a composite structure. This non linear and non local model is defined at the composite layer scale. The size of the problems generated by a simulation with this type of model is considerable. In this work, special emphasis was put on the numerical treatment of the model. At first, the integration of the model in a simulation code allowed us to improve it. With regards to the resolution method, a domain decomposition method allows the use of the model for the simulation of intermediate-sized structures. The proposed approach allows to surmount the difficulties linked to the use of a not local and not linear model within a method of decomposition of domain.
|
26 |
Satisfiabilité propositionnelle et raisonnement par contraintes : modèles et algorithmes / Propositional satisfiability and constraints satisfaction problems : models and algorithmsLagniez, Jean-Marie 06 December 2011 (has links)
La thèse porte sur la résolution des problèmes de satisfiabilité propositionnelle (SAT) et des problèmesde satisfaction de contraintes (CSP). Ces deux modèles déclaratifs sont largement utilisés pour résoudredes problèmes combinatoires de première importance comme la vérification formelle de matérielset de logiciels, la bioinformatique, la cryptographie, la planification et l’ordonnancement de tâches.Plusieurs contributions sont apportées dans cette thèse. Elles vont de la proposition de schémas d’hybridationdes méthodes complètes et incomplètes, répondant ainsi à un challenge ouvert depuis 1998, àla résolution parallèle sur architecture multi-coeurs, en passant par l’amélioration des stratégies de résolution.Cette dernière contribution a été primée à la dernière conférence internationale du domaine (prixdu meilleur papier). Ce travail de thèse a donné lieu à plusieurs outils (open sources) de résolution desproblèmes SAT et CSP, compétitifs au niveau international. / This thesis deals with propositional satisfiability (SAT) and constraint satisfaction problems(CSP). These two declarative models are widely used for solving several combinatorial problems (e.g.formal verification of hardware and software, bioinformatics, cryptography, planning, scheduling, etc.).The first contribution of this thesis concerns the proposition of hybridization schemes of complete andincomplete methods, giving rise to an original answer to a well-known challenge open since 1998. Secondly,a new and efficient multi-core parallel approach is proposed. In the third contribution, a novelapproach for improving clause learning management database is designed. This contribution allows spatialcomplexity reduction of the resolution-based component of SAT solvers while maintaining relevantconstraints. This contribution was awarded at the last international SAT conference (best paper award).This work has led to several open sources solving tools for both propositional satisfiability and constraintssatisfaction problems.
|
27 |
Numerical methods and mesh adaptation for reliable rans simulations / Méthodes numériques et adaptation de maillage pour des simulations rans fiablesMenier, Victorien 23 November 2015 (has links)
Cette thèse porte sur la prédiction haute-fidélité de phénomènes visqueux turbulents modélisés par les équations Reynolds-Averaged Navier-Stokes (RANS). Si l’adaptation de maillage a été appliquée avec succès aux simulations non-visqueuses comme la prédiction du bang sonique ou la propagation d’explosion, prouver que ces méthodes s’étendent et s’appliquent également aux simulations RANS avec le même succès reste un problème ouvert. Dans ce contexte, cette thèse traite des problématiques relatives aux méthodes numériques (solveur de mécanique des fluides) et aux stratégies d’adaptation de maillage. Pour les méthodes numériques, nous avons implémenté un modèle de turbulence dans notre solveur et nous avons conduit une étude de vérification et validation en deux et trois dimensions avec comparaisons à l’expérience. Des bons résultats ont été obtenus sur un ensemble de cas tests, notamment sur le calcul de la traînée pour des géométries complexes. Nous avons également amélioré la robustesse et la rapidité de convergence du solveur, grâce à une intégration en temps implicite, et grâce à une procédure d’accélération multigrille. En ce qui concerne les stratégies d’adaptation de maillage, nous avons couplé les méthodes multigrilles à la boucle d’adaptation dans le but de bénéficier des propriétés de convergence du multigrille, et ainsi, améliorer la robustesse du processus et le temps CPU des simulations. Nous avons également développé un algorithme de génération de maillage en parallèle. Celui-ci permet de générer des maillages anisotropes adaptés d’un milliard d’éléments en moins de 20 minutes sur 120 coeurs de calcul. Enfin, nous avons proposé une procédure pour générer automatiquement des maillages anisotropes adaptés quasi-structurés pour les couches limites. / This thesis deals with the high-fidelity prediction of viscous turbulent flows modelized by the Reynolds-Averaged Navier-Stokes (RANS) equations. If mesh adaptation has been successfully applied to inviscid simulations like the sonic boom prediction or the blast propagation, demonstrating that these methods are also well-suited for 3D RANS simulations remains a challenge. This thesis addresses research issues that arise in this context, which are related to both numerical methods (flow solver) and mesh adaptation strategies. For the numerical methods, we have implemented a turbulence model in our in-house flow solver and carried out its verification & validation study. Accurate results were obtained for a representative set of test cases, including the drag prediction workshop. Additional developments have been done to improve the robustness and the convergence speed of the flow solver. They include the implementation of an implicit time integration and of a multigrid acceleration procedure. As regards mesh adaptation, we have coupled the adaptive process to multigrid in order to benefit from its convergence properties and thus improve the robustness while preventing losses of computational effort. We also have devised a parallel mesh generation algorithm. We are able to generate anisotropic adapted meshes containing around one billion elements in less than 20min on 120 cores. Finally, we introduced a procedure to automatically generate anisotropic adapted quasi-structured meshes in boundary layer regions.
|
28 |
Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes / Large-scale network simulation over heterogeneous computing architectureBen Romdhanne, Bilel 16 December 2013 (has links)
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs. / The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
|
29 |
Programmation distribuée et migration de processusLavoie, Gabriel 17 April 2018 (has links)
Ce mémoire propose un modèle de programmation distribuée basé sur la migration de processus pouvant communiquer à l’aide de canaux de communication. Ce travail cadre bien avec le contexte actuel où l’augmentation de la puissance de traitement passe par les processeurs multicoeurs et les systèmes distribués, qui permettent l’exécution de plusieurs processus en parallèle. L’étude de différentes algèbres de processus et langages de programmation permettant le parallélisme a tout d’abord permis de comparer leurs différentes caractéristiques. Suite à cette étude, nous présentons différents concepts nécessaires à la mise en place de notre modèle distribué par migration de processus, dans le cadre des langages objets qui imposent certaines contraintes. Finalement, l’implé- mentation de notre modèle à l’aide des fonctionnalités de Stackless Python permet de voir comment chacun des concepts a été mis en place. Cette implémentation se présente sous la forme d’une extension qui permet la transformation de programmes existants en programmes distribués.
|
30 |
Assessment of supervised classification methods for the analysis of RNA-seq data / Développement, évaluation et application de méthodes statistiques pour l'analyse de données multidimensionnelles de comptage produites par les technologies de séquençage à haut débit ("Next Generation Sequencing")Abuelqumsan, Mustafa 20 December 2018 (has links)
Les technologies « Next Generation Sequencing» (NGS), qui permettent de caractériser les séquences génomiques à un rythme sans précédent, sont utilisées pour caractériser la diversité génétique humaine et le transcriptome (partie du génome transcrite en acides ribonucléiques). Les variations du niveau d’expression des gènes selon les organes et circonstances, sous-tendent la différentiation cellulaire et la réponse aux changements d’environnement. Comme les maladies affectent souvent l’expression génique, les profils transcriptomiques peuvent servir des fins médicales (diagnostic, pronostic). Différentes méthodes d’apprentissage artificiel ont été proposées pour classer des individus sur base de données multidimensionnelles (par exemple, niveau d’expression de tous les gènes dans des d’échantillons). Pendant ma thèse, j’ai évalué des méthodes de « machine learning » afin d’optimiser la précision de la classification d’échantillons sur base de profils transcriptomiques de type RNA-seq. / Since a decade, “Next Generation Sequencing” (NGS) technologies enabled to characterize genomic sequences at an unprecedented pace. Many studies focused of human genetic diversity and on transcriptome (the part of genome transcribed into ribonucleic acid). Indeed, different tissues of our body express different genes at different moments, enabling cell differentiation and functional response to environmental changes. Since many diseases affect gene expression, transcriptome profiles can be used for medical purposes (diagnostic and prognostic). A wide variety of advanced statistical and machine learning methods have been proposed to address the general problem of classifying individuals according to multiple variables (e.g. transcription level of thousands of genes in hundreds of samples). During my thesis, I led a comparative assessment of machine learning methods and their parameters, to optimize the accuracy of sample classification based on RNA-seq transcriptome profiles.
|
Page generated in 0.0436 seconds