• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Contribution à la modélisation numérique de la propagation des ondes sismiques sur architectures multicoeurs et hiérarchiques

Dupros, Fabrice 13 December 2010 (has links) (PDF)
En termes de prévention du risque associé aux séismes, la prédiction quantitative des phénomènes de propagation et d'amplification des ondes sismiques dans des structures géologiques complexes devient essentielle. Dans ce domaine, la simulation numérique est prépondérante et l'exploitation efficace des techniques de calcul haute performance permet d'envisager les modélisations à grande échelle nécessaires dans le domaine du risque sismique. Plusieurs évolutions récentes au niveau de l'architecture des machines parallèles nécessitent l'adaptation des algorithmes classiques utilisées pour la modélisation sismique. En effet, l'augmentation de la puissance des processeurs se traduit maintenant principalement par un nombre croissant de coeurs de calcul et les puces multicoeurs sont maintenant à la base de la majorité des architectures multiprocesseurs. Ce changement correspond également à une plus grande complexité au niveau de l'organisation physique de la mémoire qui s'articule généralement autour d'une architecture NUMA (Non Uniform Memory Access pour accès mémoire non uniforme)~de profondeur importante. Les contributions de cette thèse se situent à la fois au niveau algorithmique et numérique mais abordent également l'articulation avec les supports d'exécution optimisés pour les architectures multicoeurs. Les solutions retenues sont validées à grande échelle en considérant deux exemples de modélisation sismique. Le premier cas se situe dans la préfecture de Niigata-Chuetsu au Japon (événement du 16 juillet 2007) et repose sur la méthode des différences finies. Le deuxième exemple met en oeuvre la méthode des éléments finis. Un séisme hypothétique dans la région de Nice est modélisé en tenant compte du comportement non linéaire du sol.
532

Etude sur le typage de l'égalité dans les systèmes de types

Siles, Vincent 25 November 2010 (has links) (PDF)
Le travail présenté dans cette thèse concerne l'étude de la notion de conversion inhérente à tous système de types dépendants. Plusieurs présentations de ces systèmes ont été étudiées pour des usages variés: typage, recherche de preuve, cohérence de logique... Chacune de ces représentation est accompagnée d'une notion d'égalité différente, suivant les besoins du moment. Mais il n'est pas certains que toutes ces représentations parlent en fin de compte d'une seule et même logique. Nous nous intéressons ici à une famille assez conséquente de systèmes de types, appelés Systèmes de Types Purs, et nous allons prouver que pour ces systèmes, toutes les représentations habituellement utilisées sont en fait équivalentes, c'est à dire qu'il existe des traductions constructives entre chacune de ces présentations. Ces traductions reposent toutes sur la manière de porter une égalité d'un système à l'autre. Ce travail se concentre donc sur les mécanismes de ces égalités, et prouve qu'il est possible de typer n'importe quelle égalité syntaxique en égalité sémantique, et ainsi qu'il est donc possible de passer d'un système à l'autre. L'intégralité de cette thèse a en outre été vérifiée et certifiée correcte à l'aide de l'assistant à la preuve Coq, qui a activement été utilisé tout au long de l'élaboration des preuves. ~
533

Algorithmique semi-numérique rapide des séries de Tchebychev

Benoit, Alexandre 18 July 2012 (has links) (PDF)
Une série de Tchebychev est un développement dans la base des polynômes de Tchebychev. Ces séries sont importantes en théorie de l'approximation. Contrairement aux séries de Taylor, l'algorithmique en calcul formel autour d'elles n'est pas très développée. Cette thèse propose de nouveaux algorithmes pour ces séries. Une première partie présente des algorithmes rapides pour convertir une série de Tchebychev tronquée en une série de Taylor tronquée et réciproquement, et pour multiplier ou diviser deux séries de Tchebychev tronquées. Le reste de la thèse porte sur les séries de Tchebychev solutions d'une équation différentielle linéaire à coefficients polynomiaux. Dans cette classe, les coefficients des séries sont solutions d'une récurrence linéaire. Cette thèse montre comment calculer cette récurrence efficacement, puis comment l'utiliser pour obtenir un calcul approché efficace des coefficients malgré des instabilités numériques. Ces algorithmes mènent au calcul efficace d'une approximation sur un segment par un polynôme de degré fixé d'une fonction solution d'une équation différentielle linéaire. Enfin, le calcul des récurrences pour les coefficients de séries est généralisé au cas des séries de Fourier généralisées. L'ensemble est illustré d'exemples à partir de programmes développés durant cette thèse.
534

UNE NOUVELLE APPROCHE POUR LA CONCEPTION SOUS CONTRAINTES DE MACHINES ELECTRIQUES

Wurtz, Frédéric 28 May 1996 (has links) (PDF)
L'objectif de ce travail de thèse est de définir et de présenter une nouvelle approche de la conception sous contraintes de machines électriques. Celle-ci permet aux électrotechniciens d'utiliser l'ordinateur non pas seulement comme un outil d'analyse mais aussi comme un outil ayant de réelles facultés de dimensionnement automatique. Cette approche offre de grands avantages comme: -la gestion des contraintes d'un cahier des charges, -la gestion de l'interdépendance des phénomènes physiques intervenant dans une machine, -ou encore l'optimisation des solutions trouvées. Cependant sa grande originalité est qu'elle assure automatiquement la génération du logiciel de conception. Pour cela elle utilise comme connaissance de base, un modèle analytique de la machine à laquelle on s'intéresse, et comme moyen, des techniques de calcul symbolique et de programmation automatique. Afin de guider le processus de conception, elle emploie des algorithmes génériques d'optimisation numérique sous contraintes. Cette approche est notamment appliquée, dans ce mémoire, au dimensionnement de machines asynchrones.
535

Terminaison des systèmes de réécriture d'ordre supérieur basée sur la notion de clôture de calculabilité

Blanqui, Frédéric 13 July 2012 (has links) (PDF)
Dans ce document, nous montrons comment la notion de calculabilité introduite par W. W. Tait et étendue par Girard aux types polymorphes peut être utilisée et facilement étendue pour montrer la terminaison de différents types de relations de réécriture, y compris avec filtrage sur des symboles définis, filtrage d'ordre supérieur ou réécriture de classe modulo certaines théories équationnelles. Nous montrons également que la notion de clôture de calculabilité donne lieu a une relation bien fondée incluant l'extension à l'ordre supérieur par J.-P. Jouannaud et A. Rubio de l'ordre récursif sur les chemins de N. Dershowitz.
536

Contributions algorithmiques à la conception de sondes pour biopuces à ADN en environnements parallèles

Missaoui, Mohieddine 09 December 2009 (has links) (PDF)
Les microorganismes constituent la plus grande diversité du monde vivant et restent encore largement méconnus. La compréhension du fonctionnement des écosystèmes et les rôles joués par les microorganismes reste un enjeu majeur de l'écologie microbienne. Le développement de nouvelles approches de génomique permet d'appréhender la complexité de ces systèmes. Dans ce contexte, les puces à ADN représentent des outils à haut débit de choix capables de suivre l'expression ou la présence de plusieurs milliers de gènes en une seule expérience. Cependant, l'une des étapes les plus difficiles, de part sa complexité et la quantité de données à traiter, est la sélection de sondes qui doivent être à la fois sensibles et spécifiques. Pour répondre à ces besoins en termes de performance et de qualité, d'une part, nous avons développé un algorithme de conception de sondes pour biopuces phylogénétiques que nous avons entièrement déployé sur la grille de calcul européenne EGEE, et d'autre part, nous avons proposé un deuxième algorithme pour biopuces fonctionnelles que nous avons déployé sur un cluster. Les deux algorithmes ont nécessité une phase importante d'ingénierie logicielle. Nous avons donc proposé une démarche d'ingénierie dirigée par les modèles (IDM) et notamment de transformation de modèle pour résoudre le problème de traduction inverse d'oligopeptide. Les deux algorithmes sont destinés à une utilisation massive et permettent de concevoir tout type de sondes
537

Canevas de programmation pour gérer l'héterogénéité et la consommation d'énergie des mobiles dans un environnement ubiquitaire

Guan, Hongyu 01 June 2012 (has links) (PDF)
L'hétérogénéité des objets communicants et la consommation d'énergie sont deux considérations fondamentales pour les environnements informatiques ubiquitaires. Dans cette thèse, nous présentons notre approche pour gérer l'hétérogénéité et pour économiser l'énergie via des canevas de programmation dédiés. Pour gérer l'hétérogénéité, nous proposons une méthodologie et un support de programmation qui visent à faire communiquer les différents objets communicants de l'environnement ubiquitaire, et ce, en utilisant le protocole SIP considéré alors comme un bus de communication universel. Nous avons intégré ce bus SIP dans les canevas de programmation générés à partir des descriptions d'applications d'informatique ubiquitaire, écrites dans le langage DiaSpec. Concernant la consommation d'énergie, nous proposons une méthodologie qui utilise les techniques d'offloading et de compression de données pour minimiser la consommation d'énergie des applications mobiles. Nous avons ainsi construit une stratégie d'aide à la conception au travers d'un outil qui permet de déterminer le meilleur mode d'exécution pour une tâche donnée. Nous proposons l'intégration de cette stratégie dans le langage de description DiaSpec.
538

MODÉLISATION AVEC LA MÉTHODE X-FEM DE LA PROPAGATION DYNAMIQUE ET DE L'ARRÊT DE FISSURE DE CLIVAGE DANS UN ACIER DE CUVE REP

Prabel, Benoit 28 September 2007 (has links) (PDF)
Ce mémoire de thèse présente l'étude de la propagation et de l'arrêt d'une fissure de clivage dans un acier de cuve REP. Une bonne compréhension des phénomènes en jeu nécessite de solides données expérimentales, ainsi qu'un outil de modélisation performant. La méthode X-FEM est implantée dans Cast3m, permettant de simuler efficacement la propagation de fissure par éléments finis. Deux techniques concernant l'actualisation des fonctions de niveau, ainsi qu'une intégration non conforme sont proposées. La campagne d'essais de propagation de fissure concerne trois géométries : des éprouvettes CT, et des anneaux comprimés en mode I et mixte. On relève les vitesses de propagation. Des fractographies désignent le clivage comme responsable de la ruine. Un modèle de propagation basé sur la contrainte principale en pointe de fissure est identifié. La contrainte critique de clivage dépend de la vitesse de sollicitation. Ce modèle permet de prédire précisément par la simulation numérique, le comportement de la fissure observé expérimentalement.
539

ETUDE DES PRATIQUES D'ENSEIGNEMENT DES MATHEMATIQUES AU NIVEAU DE L'ECOLE MOYENNE (11-15) DANS LE CAS DE L'ALGEBRE EN FRANCE ET AU LIBAN

El Mouhayar, Rabih 05 December 2007 (has links) (PDF)
Notre recherche porte sur les pratiques professionnelles des professeurs de mathématiques dans les phases de correction en calcul littéral en classes de 4ème en France et de 5ème au Liban. <br />Nous avons cherché à déterminer comment les professeurs organisent les phases de correction à la fois du point de vue du savoir mathématique et des interactions avec les élèves et s'il existe des régularités chez un même professeur dans sa pratique.<br />Pour cela nous avons fait une étude des programmes et des manuels de mathématiques du collège, nous avons produit et analysé un questionnaire pour les élèves sur les termes utilisés en calcul littéral et sur leur procédures de validation et un questionnaire pour les professeurs sur les termes utilisés et sur l'analyse des erreurs des élèves. Enfin nous fait des enregistrements vidéo dans deux classes dans chaque pays durant toute la séquence portant sur le chapitre "Calcul littéral".<br />Nous avons notamment utilisé le cadre de la théorie anthropologique du didactique (Chevallard, 1999). Nous avons analysé les types de tâches « développer, réduire une expression littérale» en lien avec les techniques habituellement associées en France et au Liban ainsi que les éléments technologico-théoriques. Nous avons montré que les professeurs mettent peu en avant des éléments théoriques qui justifient les techniques. Cela ne permet pas aux élèves d'avoir des procédures de validation suffisantes.<br />Enfin nous avons mis en évidence des régularités pour chacun des quatre professeurs à la fois dans leur organisation mathématique pour la séquence d'enseignement et dans la gestion de la validation des réponses et des interactions avec les élèves.
540

Vers une maîtrise des incertitudes en calculs des structures composites

Rollet, Yannis 26 September 2007 (has links) (PDF)
Les exigences de sécurité dans le domaine aéronautique imposent de tenir compte des diverses incertitudes affectant les structures, notamment la variabilité matériau. Malgré son essor la simulation numérique considère actuellement cette problématique de façon simplifiée, par exemple en usant d'abattements sur les valeurs de propriétés utilisées dans les calculs. Mais l'emploi accru des matériaux composites, par nature plus sensibles aux incertitudes, demande l'introduction de méthodes plus précises afin d'assurer une meilleure robustesse du dimensionnement. Pour cela, il a été développé une nouvelle démarche dite d'Analyse de Variabilité respectant certaines contraintes de la simulation numérique telle l'indépendance vis-à-vis du code de calcul (non-intrusivité) et la parcimonie des calculs. Face à la grande diversité des techniques de transport d'incertitudes, le choix a été fait de construire une démarche en s'appuyant sur les techniques de surfaces de réponses. Afin d'exploiter au mieux les diverses formes retenues (polynômes en les paramètres incertains, chaos polynomial, krigeage) pour construire l'approximation, la démarche a été rendue progressive. Des méthodes de validation croisée (leave-k-out, bootstrap) ont été utilisées pour évaluer la qualité de l'approximation. Ainsi, il est possible d'afficher une estimation des effets des incertitudes (par exemple sous la forme de barres d'erreur) mais également de quantifier la confiance dans cette estimation. La validation de la démarche s'est tout d'abord appuyée sur des exemples mathématiques, puis sur des situations mécaniques simples et analytiques. Les résultats obtenus montrent notamment une bonne cohérence vis-à-vis des simulations de Monte-Carlo pour un coût de calcul nettement inférieur. Les incertitudes considérées portent aussi bien sur des paramètres géométriques que matériau, avec notamment des caractéristiques propres aux composites (angles d'empilement, épaisseur des plis). L'application de la démarche à divers exemples (plaque multiperforée, assemblage boulonné,...) de calcul de structures par la méthode des éléments finis a souligné son applicabilité pour un surcoût de calcul raisonnable. Pour finir, le problème de la réduction des effets des incertitudes a été abordé sous des angles classiques comme la réduction des incertitudes d'entrée ou l'amélioration de la qualité des modèles utilisés. Enfin, une méthode plus originale, dite de consolidation de bases de données, utilisant les corrélations entre paramètres mesurés aux diverses échelles des composites a été proposée.

Page generated in 0.0276 seconds