• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 315
  • 190
  • 73
  • 2
  • 1
  • Tagged with
  • 580
  • 312
  • 262
  • 217
  • 213
  • 170
  • 127
  • 124
  • 109
  • 106
  • 105
  • 100
  • 100
  • 91
  • 90
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Analyse comparative de la couverture et de l’acceptabilité des solutions d’un dictionnaire bilingue spécialisé, d’une banque de données terminologiques et d’un concordancier en ligne : application au domaine de la traduction médicale

Simard, Tanya 21 August 2013 (has links)
La présente étude rend compte de l’utilité de trois ressources pour le traducteur médical, soit le Dictionnaire anglais-français des sciences médicales et paramédicales de Gladstone, la banque de données terminologiques et linguistiques du gouvernement du Canada TERMIUM Plus® et le concordancier en ligne WeBiText, sur la base d’une analyse comparative de leur taux de couverture et du niveau d’acceptabilité des solutions qu’elles proposent. Contrairement à d’autres études, cette recherche mise sur une approche double qui combine un volet quantitatif et qualitatif. À partir d’un ensemble de problèmes de traduction tiré d’un corpus d’étude constitué de huit résumés d’articles scientifiques de revues médicales canadiennes, nous démontrons que le taux de couverture du corpus « Santé » de WeBiText est de 62 %, alors que celui de TERMIUM Plus® est de 37 % et celui du Gladstone de 30 %. Nous montrons par ailleurs que le concordancier fournit environ deux fois plus de solutions que les deux autres ressources. En outre, des données rassemblées dans le cadre d’un questionnaire en ligne auprès de 88 langagiers révèlent que les solutions proposées par WeBiText sont tout aussi acceptables que celles offertes par TERMIUM Plus®, tandis que celles qui figurent dans le Gladstone sont souvent considérées comme inacceptables. Nous en concluons que les corpus parallèles tirés du Web ont une meilleure couverture que les ressources traditionnelles et qu’ils présentent une gamme plus variée de solutions uniques et convenables, notamment pour la traduction de textes médicaux hautement spécialisés. ENGLISH This study reports on the usefulness of three resources for the medical translator, namely Gladstone's English-French dictionary of medical and paramedical sciences, TERMIUM Plus®, the Government of Canada's terminology and linguistic data bank, and WeBiText, an online concordancer, on the basis of a comparative analysis of their coverage and the level of acceptability of the solutions they offer. Unlike other studies, this research adopts a two-fold approach combining quantitative and qualitative perspectives. From a set of translation problems drawn from a corpus of eight scientific paper abstracts from Canadian medical journals, we demonstrate that WeBiText's "Health" corpus has a 62% coverage rate, while that of TERMIUM Plus® is 37% and Gladstone's is 30%. We also show that the concordancer provides roughly twice as many solutions as the other two resources. In addition, data collected through an online survey of 88 language professionals indicates that the solutions found in WeBiText are equally acceptable as those provided by TERMIUM Plus®, while Gladstone's are often considered unacceptable. We conclude that Web parallel corpora have a better coverage than traditional resources and that they offer a broader range of unique and suitable solutions, particularly for the translation of highly specialized medical texts.
22

Artificial intelligence models for large scale buildings energy consumption analysis / Modèles d'intelligence artificielle pour analyse énergétique des bâtiments de la consommation

Zhao, Haixiang 28 September 2011 (has links)
La performance énergétique dans les bâtiments est influencée par de nombreux facteurs, tels que les conditions météorologiques ambiantes, la structure du bâtiment et les caractéristiques, l'occupation et leurs comportements, l'opération de sous-composants de niveau comme le chauffage, de ventilation et de climatisation (CVC). Cette propriété rend complexe la prévision, l'analyse, ou faute de détection / diagnostic de la consommation énergétique du bâtiment est très difficile d'effectuer rapidement et avec précision. Cette thèse se concentre principalement sur la mise à jour des modèles d'intelligence artificielle avec des applications pour résoudre ces problèmes. Tout d'abord, nous passons en revue les modèles récemment développés pour résoudre ces problèmes, y compris des méthodes d'ingénierie détaillée et simplifiée, les méthodes statistiques et les méthodes d'intelligence artificielle. Puis nous simulons des profils de consommation d'énergie pour les bâtiments simples et multiples, et basé sur ces ensembles de données, des modèles de soutien vecteur de la machine sont formés et testés pour faire la prédiction. Les résultats des expériences montrent vaste précision de la prédiction haute et la robustesse de ces modèles. Deuxièmement, déterministe récursif Perceptron (RDP) modèle de réseau neuronal est utilisé pour détecter et diagnostiquer défectueuse consommation d'énergie du bâtiment. La consommation anormale est simulé par l'introduction manuelle d'une dégradation des performances des appareils électriques. Dans l'expérience, le modèle montre la capacité de détection RDP très élevé. Une nouvelle approche est proposée pour diagnostiquer des défauts. Il est basé sur l'évaluation des modèles RDP, dont chacun est capable de détecter une panne de matériel. Troisièmement, nous examinons comment la sélection des sous-ensembles caractéristiques de l'influence la performance du modèle. Les caractéristiques optimales sont choisis en fonction de la faisabilité de l'obtention eux et sur les scores qu'ils fournissent dans l'évaluation de deux méthodes de filtrage. Les résultats expérimentaux confirmer la validité de l'ensemble sélectionné et montrent que la proposé la méthode de sélection fonction peut garantir l'exactitude du modèle et réduit le temps de calcul. Un défi de la consommation énergétique du bâtiment est d'accélérer la prédiction de formation du modèle lorsque les données sont très importantes. Cette thèse propose une mise en œuvre efficace parallèle de Support Vector Machines basée sur la méthode de décomposition pour résoudre de tels problèmes. La parallélisation est réalisée sur le travail le plus fastidieux de formation, c'est à dire de mettre à jour le vecteur gradient de f. Les problèmes intérieurs sont traitées par solveur d'optimisation séquentielle minimale. Le parallélisme sous-jacente est réalisée par la version de mémoire partagée de Map-Reduce paradigme, qui rend le système particulièrement adapté pour être appliqué à des systèmes multi-core et multi-processeurs. Les résultats expérimentaux montrent que notre implémentation offre une augmentation de la vitesse élevée par rapport à libsvm, et il est supérieur à l'état de l'art Pisvm application MPI à la fois la rapidité et l'exigence de stockage. / The energy performance in buildings is influenced by many factors, such as ambient weather conditions, building structure and characteristics, occupancy and their behaviors, the operation of sub-level components like Heating, Ventilation and Air-Conditioning (HVAC) system. This complex property makes the prediction, analysis, or fault detection/diagnosis of building energy consumption very difficult to accurately and quickly perform. This thesis mainly focuses on up-to-date artificial intelligence models with the applications to solve these problems. First, we review recently developed models for solving these problems, including detailed and simplified engineering methods, statistical methods and artificial intelligence methods. Then we simulate energy consumption profiles for single and multiple buildings, and based on these datasets, support vector machine models are trained and tested to do the prediction. The results from extensive experiments demonstrate high prediction accuracy and robustness of these models. Second, Recursive Deterministic Perceptron (RDP) neural network model is used to detect and diagnose faulty building energy consumption. The abnormal consumption is simulated by manually introducing performance degradation to electric devices. In the experiment, RDP model shows very high detection ability. A new approach is proposed to diagnose faults. It is based on the evaluation of RDP models, each of which is able to detect an equipment fault.Third, we investigate how the selection of subsets of features influences the model performance. The optimal features are selected based on the feasibility of obtaining them and on the scores they provide under the evaluation of two filter methods. Experimental results confirm the validity of the selected subset and show that the proposed feature selection method can guarantee the model accuracy and reduces the computational time.One challenge of predicting building energy consumption is to accelerate model training when the dataset is very large. This thesis proposes an efficient parallel implementation of support vector machines based on decomposition method for solving such problems. The parallelization is performed on the most time-consuming work of training, i.e., to update the gradient vector f. The inner problems are dealt by sequential minimal optimization solver. The underlying parallelism is conducted by the shared memory version of Map-Reduce paradigm, making the system particularly suitable to be applied to multi-core and multiprocessor systems. Experimental results show that our implementation offers a high speed increase compared to Libsvm, and it is superior to the state-of-the-art MPI implementation Pisvm in both speed and storage requirement.
23

Analyse comparative de la couverture et de l’acceptabilité des solutions d’un dictionnaire bilingue spécialisé, d’une banque de données terminologiques et d’un concordancier en ligne : application au domaine de la traduction médicale

Simard, Tanya January 2013 (has links)
La présente étude rend compte de l’utilité de trois ressources pour le traducteur médical, soit le Dictionnaire anglais-français des sciences médicales et paramédicales de Gladstone, la banque de données terminologiques et linguistiques du gouvernement du Canada TERMIUM Plus® et le concordancier en ligne WeBiText, sur la base d’une analyse comparative de leur taux de couverture et du niveau d’acceptabilité des solutions qu’elles proposent. Contrairement à d’autres études, cette recherche mise sur une approche double qui combine un volet quantitatif et qualitatif. À partir d’un ensemble de problèmes de traduction tiré d’un corpus d’étude constitué de huit résumés d’articles scientifiques de revues médicales canadiennes, nous démontrons que le taux de couverture du corpus « Santé » de WeBiText est de 62 %, alors que celui de TERMIUM Plus® est de 37 % et celui du Gladstone de 30 %. Nous montrons par ailleurs que le concordancier fournit environ deux fois plus de solutions que les deux autres ressources. En outre, des données rassemblées dans le cadre d’un questionnaire en ligne auprès de 88 langagiers révèlent que les solutions proposées par WeBiText sont tout aussi acceptables que celles offertes par TERMIUM Plus®, tandis que celles qui figurent dans le Gladstone sont souvent considérées comme inacceptables. Nous en concluons que les corpus parallèles tirés du Web ont une meilleure couverture que les ressources traditionnelles et qu’ils présentent une gamme plus variée de solutions uniques et convenables, notamment pour la traduction de textes médicaux hautement spécialisés. ENGLISH This study reports on the usefulness of three resources for the medical translator, namely Gladstone's English-French dictionary of medical and paramedical sciences, TERMIUM Plus®, the Government of Canada's terminology and linguistic data bank, and WeBiText, an online concordancer, on the basis of a comparative analysis of their coverage and the level of acceptability of the solutions they offer. Unlike other studies, this research adopts a two-fold approach combining quantitative and qualitative perspectives. From a set of translation problems drawn from a corpus of eight scientific paper abstracts from Canadian medical journals, we demonstrate that WeBiText's "Health" corpus has a 62% coverage rate, while that of TERMIUM Plus® is 37% and Gladstone's is 30%. We also show that the concordancer provides roughly twice as many solutions as the other two resources. In addition, data collected through an online survey of 88 language professionals indicates that the solutions found in WeBiText are equally acceptable as those provided by TERMIUM Plus®, while Gladstone's are often considered unacceptable. We conclude that Web parallel corpora have a better coverage than traditional resources and that they offer a broader range of unique and suitable solutions, particularly for the translation of highly specialized medical texts.
24

Calcul à l'echelle méso avec interface non locale des composites stratifiés / Meso scale with non local interface simulation of stratified composite

Bordeu Weldt, Felipe Eduardo 06 January 2012 (has links)
L'industrie utilise de plus en plus les matériaux composites stratifiés à matrice organique (CMO) pour remplacer les alliages métalliques légers. Avec un rapport résistance/masse supérieur aux alliages métalliques, ces matériaux constituent une véritable alternative pour diminuer le poids des structures. Cependant, la certification des structures en composite est une procédure lourde et complexe. Le Virtual Testing consiste à remplacer une grande partie des essais réels par des simulations numériques en vue de diminuer la quantité d'essais physiques nécessaires pour la certification. Toutefois, les modèles ainsi que les méthodes de calcul utilisés pour les simulations doivent avoir la confiance des autorités de contrôle. On ce concentre ici sur le Méso-modèle Amélioré d'Endommagement des Composites Stratifiés qui, depuis un vingtaine d'années, a démontré être un modèle capable de prendre en compte la plupart de mécanismes de dégradation d'une structure composite. Ce modèle, non linéaire, non local et d'évolution, est défini à l'échelle du pli. La taille des problèmes résultants de la simulation de ce type de modèle est considérable. Dans ces travaux, un grand intérêt a été porté au traitement numérique du modèle. Dans un premier temps, l'intégration du modèle dans un code de calcul a permis d'y apporter des améliorations. En ce qui concerne la méthode de résolution, une méthode de décomposition de domaine permet l'utilisation du modèle pour la simulation de structures de taille moyenne. L'approche proposée permet de surmonter les difficultés liées à l'utilisation d'un modèle non local et non linéaire au sein d'une méthode de décomposition de domaine. / The industry uses more and more organic matrix composite materials to replace the light metallic alloys. With a strenght/mass ratio superior to the metallic alloys, these materials constitute a real alternative to decrease the weight of the structures. However, the certification of composite structures is a heavy and complex procedure. Virtual Testing consists in replacing a big part of the real essays by numeric simulations to decrease the quantity of physical essays necessary for the certification. However, the models as well as the numerical methods used for the simulations have to be trusted by the certification authorities. Here we focus on the Enhanced Damage Mesomodel which, for twenty years, has demonstrated to be a model capable of taking into account most of the degradation mechanisms of a composite structure. This non linear and non local model is defined at the composite layer scale. The size of the problems generated by a simulation with this type of model is considerable. In this work, special emphasis was put on the numerical treatment of the model. At first, the integration of the model in a simulation code allowed us to improve it. With regards to the resolution method, a domain decomposition method allows the use of the model for the simulation of intermediate-sized structures. The proposed approach allows to surmount the difficulties linked to the use of a not local and not linear model within a method of decomposition of domain.
25

Satisfiabilité propositionnelle et raisonnement par contraintes : modèles et algorithmes / Propositional satisfiability and constraints satisfaction problems : models and algorithms

Lagniez, Jean-Marie 06 December 2011 (has links)
La thèse porte sur la résolution des problèmes de satisfiabilité propositionnelle (SAT) et des problèmesde satisfaction de contraintes (CSP). Ces deux modèles déclaratifs sont largement utilisés pour résoudredes problèmes combinatoires de première importance comme la vérification formelle de matérielset de logiciels, la bioinformatique, la cryptographie, la planification et l’ordonnancement de tâches.Plusieurs contributions sont apportées dans cette thèse. Elles vont de la proposition de schémas d’hybridationdes méthodes complètes et incomplètes, répondant ainsi à un challenge ouvert depuis 1998, àla résolution parallèle sur architecture multi-coeurs, en passant par l’amélioration des stratégies de résolution.Cette dernière contribution a été primée à la dernière conférence internationale du domaine (prixdu meilleur papier). Ce travail de thèse a donné lieu à plusieurs outils (open sources) de résolution desproblèmes SAT et CSP, compétitifs au niveau international. / This thesis deals with propositional satisfiability (SAT) and constraint satisfaction problems(CSP). These two declarative models are widely used for solving several combinatorial problems (e.g.formal verification of hardware and software, bioinformatics, cryptography, planning, scheduling, etc.).The first contribution of this thesis concerns the proposition of hybridization schemes of complete andincomplete methods, giving rise to an original answer to a well-known challenge open since 1998. Secondly,a new and efficient multi-core parallel approach is proposed. In the third contribution, a novelapproach for improving clause learning management database is designed. This contribution allows spatialcomplexity reduction of the resolution-based component of SAT solvers while maintaining relevantconstraints. This contribution was awarded at the last international SAT conference (best paper award).This work has led to several open sources solving tools for both propositional satisfiability and constraintssatisfaction problems.
26

Numerical methods and mesh adaptation for reliable rans simulations / Méthodes numériques et adaptation de maillage pour des simulations rans fiables

Menier, Victorien 23 November 2015 (has links)
Cette thèse porte sur la prédiction haute-fidélité de phénomènes visqueux turbulents modélisés par les équations Reynolds-Averaged Navier-Stokes (RANS). Si l’adaptation de maillage a été appliquée avec succès aux simulations non-visqueuses comme la prédiction du bang sonique ou la propagation d’explosion, prouver que ces méthodes s’étendent et s’appliquent également aux simulations RANS avec le même succès reste un problème ouvert. Dans ce contexte, cette thèse traite des problématiques relatives aux méthodes numériques (solveur de mécanique des fluides) et aux stratégies d’adaptation de maillage. Pour les méthodes numériques, nous avons implémenté un modèle de turbulence dans notre solveur et nous avons conduit une étude de vérification et validation en deux et trois dimensions avec comparaisons à l’expérience. Des bons résultats ont été obtenus sur un ensemble de cas tests, notamment sur le calcul de la traînée pour des géométries complexes. Nous avons également amélioré la robustesse et la rapidité de convergence du solveur, grâce à une intégration en temps implicite, et grâce à une procédure d’accélération multigrille. En ce qui concerne les stratégies d’adaptation de maillage, nous avons couplé les méthodes multigrilles à la boucle d’adaptation dans le but de bénéficier des propriétés de convergence du multigrille, et ainsi, améliorer la robustesse du processus et le temps CPU des simulations. Nous avons également développé un algorithme de génération de maillage en parallèle. Celui-ci permet de générer des maillages anisotropes adaptés d’un milliard d’éléments en moins de 20 minutes sur 120 coeurs de calcul. Enfin, nous avons proposé une procédure pour générer automatiquement des maillages anisotropes adaptés quasi-structurés pour les couches limites. / This thesis deals with the high-fidelity prediction of viscous turbulent flows modelized by the Reynolds-Averaged Navier-Stokes (RANS) equations. If mesh adaptation has been successfully applied to inviscid simulations like the sonic boom prediction or the blast propagation, demonstrating that these methods are also well-suited for 3D RANS simulations remains a challenge. This thesis addresses research issues that arise in this context, which are related to both numerical methods (flow solver) and mesh adaptation strategies. For the numerical methods, we have implemented a turbulence model in our in-house flow solver and carried out its verification & validation study. Accurate results were obtained for a representative set of test cases, including the drag prediction workshop. Additional developments have been done to improve the robustness and the convergence speed of the flow solver. They include the implementation of an implicit time integration and of a multigrid acceleration procedure. As regards mesh adaptation, we have coupled the adaptive process to multigrid in order to benefit from its convergence properties and thus improve the robustness while preventing losses of computational effort. We also have devised a parallel mesh generation algorithm. We are able to generate anisotropic adapted meshes containing around one billion elements in less than 20min on 120 cores. Finally, we introduced a procedure to automatically generate anisotropic adapted quasi-structured meshes in boundary layer regions.
27

Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes / Large-scale network simulation over heterogeneous computing architecture

Ben Romdhanne, Bilel 16 December 2013 (has links)
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs. / The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
28

Programmation distribuée et migration de processus

Lavoie, Gabriel 17 April 2018 (has links)
Ce mémoire propose un modèle de programmation distribuée basé sur la migration de processus pouvant communiquer à l’aide de canaux de communication. Ce travail cadre bien avec le contexte actuel où l’augmentation de la puissance de traitement passe par les processeurs multicoeurs et les systèmes distribués, qui permettent l’exécution de plusieurs processus en parallèle. L’étude de différentes algèbres de processus et langages de programmation permettant le parallélisme a tout d’abord permis de comparer leurs différentes caractéristiques. Suite à cette étude, nous présentons différents concepts nécessaires à la mise en place de notre modèle distribué par migration de processus, dans le cadre des langages objets qui imposent certaines contraintes. Finalement, l’implé- mentation de notre modèle à l’aide des fonctionnalités de Stackless Python permet de voir comment chacun des concepts a été mis en place. Cette implémentation se présente sous la forme d’une extension qui permet la transformation de programmes existants en programmes distribués.
29

Assessment of supervised classification methods for the analysis of RNA-seq data / Développement, évaluation et application de méthodes statistiques pour l'analyse de données multidimensionnelles de comptage produites par les technologies de séquençage à haut débit ("Next Generation Sequencing")

Abuelqumsan, Mustafa 20 December 2018 (has links)
Les technologies « Next Generation Sequencing» (NGS), qui permettent de caractériser les séquences génomiques à un rythme sans précédent, sont utilisées pour caractériser la diversité génétique humaine et le transcriptome (partie du génome transcrite en acides ribonucléiques). Les variations du niveau d’expression des gènes selon les organes et circonstances, sous-tendent la différentiation cellulaire et la réponse aux changements d’environnement. Comme les maladies affectent souvent l’expression génique, les profils transcriptomiques peuvent servir des fins médicales (diagnostic, pronostic). Différentes méthodes d’apprentissage artificiel ont été proposées pour classer des individus sur base de données multidimensionnelles (par exemple, niveau d’expression de tous les gènes dans des d’échantillons). Pendant ma thèse, j’ai évalué des méthodes de « machine learning » afin d’optimiser la précision de la classification d’échantillons sur base de profils transcriptomiques de type RNA-seq. / Since a decade, “Next Generation Sequencing” (NGS) technologies enabled to characterize genomic sequences at an unprecedented pace. Many studies focused of human genetic diversity and on transcriptome (the part of genome transcribed into ribonucleic acid). Indeed, different tissues of our body express different genes at different moments, enabling cell differentiation and functional response to environmental changes. Since many diseases affect gene expression, transcriptome profiles can be used for medical purposes (diagnostic and prognostic). A wide variety of advanced statistical and machine learning methods have been proposed to address the general problem of classifying individuals according to multiple variables (e.g. transcription level of thousands of genes in hundreds of samples). During my thesis, I led a comparative assessment of machine learning methods and their parameters, to optimize the accuracy of sample classification based on RNA-seq transcriptome profiles.
30

Contributions à la recherche dans des ensembles ordonnés : du séquentiel au parallèle

Galvao Ferreira, Afonso 17 January 1990 (has links) (PDF)
Le problème de la recherche d'un élément dans un ensemble donne est un des problèmes fondamentaux en informatique non numérique, lie, par exemple, aux bases de données, a la compilation, a l'optimisation combinatoire, etc... Dans cette thèse nous abordons le problème de la recherche dans des ensembles ordonnes et quelques problèmes qui lui sont lies. Une matrice est dite triée si elle possédé une relation d'ordre total sur chaque ligne et chaque colonne. Un cas particulier est l'ensemble des matrices définies par x+y, la somme cartésienne de deux vecteurs tries. Après un tour d'horizon des problèmes de la sélection, de la recherche et du tri sur des ensembles de la forme x=y, nous démontrons des bornes inférieures et introduisons des bornes supérieures pour les problèmes de la recherche et de la sélection. Nous proposons, en outre, plusieurs algorithmes parallèles pour la recherche dans x+y. Ensuite nous montrons comment appliquer ces résultats a la resolution en parallèle du problème de décision du sac-a-dos, ou, étant donnes plusieurs objets et un sac de capacité définie a remplir, on veut décider s'il existe une combinaison des objets qui remplit exactement le sac. Des algorithmes avec une accélération optimale sont introduits pour divers modèles de machines parallèles a mémoire partagée et distribuée. Pour ce problème les approches existantes se ramènent soit a la recherche dans x+y, soit a la traversée d'un espace combinatoire a l'aide de la technique du Branch & Bound. Cette dernière technique est aussi discutée dans ce travail, ou nous présentons un algorithme de Branch & Bound en vue de la resolution de problèmes d'optimisation combinatoire sur la connexion machine. Enfin, toujours dans le domaine de l'optimisation combinatoire, nous étudions le comportement de l'algorithme de recuit simule. Nous prouvons que, malgré la confiance qu'il inspire et sa grande utilisation pour des application

Page generated in 0.0407 seconds