Spelling suggestions: "subject:"numérique"" "subject:"dunumérique""
221 |
Tenue à la fatigue des culasses : modélisation du traitement thermique et développement de nouvelles méthodes numériques.Comte, François 24 January 2006 (has links) (PDF)
AFIN D'OBTENIR LES PROPRIETES METALLURGIQUES OPTIMALES DU MATERIAU, LES CULASSES AUTOMOBILES EN ALLIAGE D'ALUMINIUM SUBISSENT UN TRAITEMENT THERMIQUE (TREMPE-REVENU) GENERANT D'IMPORTANTES CONTRAINTES RESIDUELLES. LEUR MODELISATION EST NECESSAIRE POUR POUVOIR PREDIRE LA TENUE EN FATIGUE POLYCYCLIQUE. LES CONTRAINTES RESIDUELLES ETANT PILOTEES PAR LA THERMIQUE DE TREMPE, IDENTIFIER L'HISTOIRE THERMIQUE DU REFROIDISSEMENT EST PRIMORDIAL. LES COEFFICIENTS D'ECHANGE H(T), MODELISANT LES TRANSFERTS THERMIQUES AVEC L'EXTERIEUR, DETERMINENT LE REFROIDISSEMENT. LEUR EVOLUTION EST DEFINIE PAR UNE FONCTION ANALYTIQUE SIMPLE DONT LES PARAMETRES SONT RECALES PAR OPTIMISATION A PARTIR DE DONNEES EXPERIMENTALES. UNE FOIS L'HISTOIRE THERMIQUE SIMULEE CORRECTEMENT, LES CONTRAINTES RESIDUELLES SONT OBTENUES SUITE A UN CALCUL MECANIQUE METTANT EN EVIDENCE, DANS LES REGIONS A RISQUE, DES ZONES DE TRACTION DEFAVORABLES A LA TENUE EN SERVICE. LA PRISE EN COMPTE DE CET ETAT INITIAL PERMET ALORS DE CARACTERISER LES ZONES CRITIQUES EXPERIMENTALEMENT OBSERVEES. PAR AILLEURS, AFIN DE RENDRE L'OUTIL OPERATIONNEL EN BE, IL EST NECESSAIRE DE PROPOSER UNE METHODE NUMERIQUE PERMETTANT DE DIMINUER LES DUREES DE SIMULATION POUR LA RESOLUTION D'UN PROBLEME D'EVOLUTION ET POUR LA RECHERCHE DIRECTE DE LA REPONSE STABILISEE D'UNE STRUCTURE SOUMISE A UN CHARGEMENT CYCLIQUE. L'APPROCHE DEVELOPPEE REPOSE SUR LA METHODE A GRAND INCREMENT DE TEMPS ET LA METHODE CYCLIQUE DIRECTE : L'EQUILIBRE GLOBAL, ECRIT SOUS SA FORME RESIDUELLE, EST RESOLU SUR UNE BASE D'ONDELETTES REDUITE. DES GAINS SIGNIFICATIFS EN TEMPS CPU SONT OBTENUS POUR LA RECHERCHE DU CYCLE STABILISE.
|
222 |
Modélisation et simulation numérique des transitions de phase liquide vapeur.Caro, Florian 24 November 2004 (has links) (PDF)
Ce travail de thèse est consacré à la modélisation et à la simulation numérique des transitions de phase liquide-vapeur. L'étude effectuée se découpe en deux randes parties: une première où on étudie les phénomènes de transition de phase avec une loi d'état de type Van Der Waals (perte de monotonie de la loi d'état) et une deuxième partie où on choisit une approche alternative avec deux loi d'états. La première partie consiste à étudier les critères visqueux classiques de sélection des solutions du système d'équations utilisé lorsque la loi d'état n'est pas monotone. Les critères classiques ne sélectionnant pas des solutions a priori physiques, un critère plus récent est introduit: le critère visco-capillaire. L'utilisation de ce critère avec un solveur de Riemann exact (sous la contrainte de trouver le zéro d'une fonction non linéaire) permet d'obtenir des résultats mais avec un coût de calcul trop élevé. Une approche alternative est alors envisagée avec deux lois d'états (une pour chaque phase). A l'aide d'un procédé de minimisation de l'action hamiltonienne, un modèle bifluide de changement de phase est proposé. Celui-ci respecte alors le second principe de la thermodynamique. Deux sous-systèmes en sont déduits à l'aide d'un procédé de retour à l'équilibre: mécanique dans un premier temp puis mécanique et thermodynamique dans un deuxième temps. Malgré la faible hyperbolicité du dernier sous-système obtenu, des schémas numériques stables basés sur une méthode de splitting sont proposés. On montre alors que le système ainsi obtenu est naturellement capable de nucléer des bulles de vapeur dans du liquide.
|
223 |
Aides informatiques à la réalisation de dessins animésMoissinac, Jean-Claude 21 December 1984 (has links) (PDF)
La circulation de l'information devient une préoccupation prioritaire des sociétés modernes. C'est pourquoi, la production audiovisuelle destinée aux télévisions et aux entreprises doit considérablement se développer dans les prochaines années. Une concurrence sévère nait dès maintenant de cette situation. Elle oppose les entreprises artisanales, qui jusqu'à ce jour occupaient le marché, et les sociétés industrielles qui se créent pour répondre à la demande prévisible. La vie et le savoir-faire d'un secteur d'activité sont menacé. Les petites entreprises, qui constituent le potentiel de production de dessin animé de notre pays, doivent s'adapter à une nouvelle situation internationale. En effet, la Grande-Bretagne, le Japon et les USA ont pris une place importante dans le domaine de la série télévisée de dessins animés. Ils ont conquis le marché en proposant leurs séries à la fois plus vite et moins cher. Contrairement à une idée répandue, ils n *utilisent pas encore systématiquement les techniques informatiques. Ils ont porté 1 *économie sur les frais de personnels et la simplicité de réalisation en mettant en oeuvre des mét~odes classiques d'industrialisation d'une fabrication: parcellisation du travail, normes de qualité souvent respectées à leur niveau minimum ... Mais la force commerciale et l'expérience acquises leur permettent désormais de proposer des productions de qualité croissante et d'intégrer progressivement des techniques modernes. dessin animé. Cette base de travail a été établie en collaboration étroite avec des professionnels du domaine. Nous l'avons complétée par une esquisse des apports actuels ou potentiels de l'informatique. Nous terminons en abordant les problèmes techniques que cé travail contribue à résoudre. Les principales références qui ont servi a établir ce chapitre sont: [BRI84], [MAR70], [BCT84]. Cette description ne concerne que le dessin animé classique le cartoon. Nous n'avons pas explicité ici les mille et une façons de faire du cinéma d'animation. Citons pour mémoire l'animation de papier découpé, de marionnettes, la pixilation. Face à la demande fortement croissante de dessins animés, destinés en particulier aux programmes de télévision, il devient nécessaire d'améliorer la productivité dans ce domaine. Outre des méthodes industrielles classiques, comme la parcellisation des tâches, des apports de nature différente peuvent être espérés de l'informatique: gestion de l'information (flux, mises à jours, cohérences entre documents), automatisation de tâches répétitives, outils interactifs de définition numérique d'images et de mouvements. Des recherches tendent à faire de l'ordinateur un outil nouveau de créa ti on d *images. animées. Not a mme nt, des études s*ont faites pour définir des objets avec des caractéristiques: élasticité, poids, ... et les manipuler en temps réel sur un écran d'ordinateur (formes du langage Logo, [LUC84]). D'autres études ont plutôt porté sur l'imitation du processus traditionnel de production de dessin animé. Des travaux ont été entrepris dans ce sens depuis plus de dix ans. Les plus grands studios: Hanna-Barbera, Walt Disn~y ont investi dans ces recherches. Aujourd'hui les systèmes informatiques d'aide à la production de dessins animés commencent seulement à sortir des laboratoires pour être utilisés en production [WAL81] [DIS84]. La fabrication des dessins animés est une activité créatrice nécessitant un grand travail manuel. Les trois points clés qui déterminent la concurrence entre les studios sont le coût, les délais et les volumes de production. Il sera intéressant de gagner sur chacun de ces points.
|
224 |
Développement d'algorithmes d'imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructifPedron, Antoine 28 May 2013 (has links) (PDF)
La problématique de cette thèse se place à l'interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l'adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu'il soit en production ou maintenance. Afin de détecter d'éventuels défauts, de les positionner et les dimensionner, des méthodes d'imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L'évolution du matériel d'acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L'évolution multicoeurs des processeurs généralistes (GPP), ainsi que l'arrivée de nouvelles architectures comme les GPU rendent maintenant possible l'accélération de ces algorithmes.Le but de cette thèse est d'évaluer les possibilités d'accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l'ordonnancement des nids de boucles sur GPP, ainsi que l'ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L'intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme.
|
225 |
Inégalités de von Neumann sous contraintes, image numérique de rang supérieur et applications à l'analyse harmoniqueGaaya, Haykel 05 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de la théorie des opérateurs. L'un des opérateurs qui m'a particulièrement intéressé est l'opérateur modèle noté S(Φ) qui désigne la compression du shift unilatéral S sur l'espace modèle H(Φ) où Φ est une fonction intérieure. L'étude du rayon numérique de S(Φ) semble être importante comme l'illustre bien un résultat dû à C. Badea et G. Cassier qui ont montré qu'il existe un lien entre le rayon numérique de tels opérateurs et l'estimation des coefficients des fractions rationnelles positives sur le tore. Nous fournissons une extension de leur résultat et nous trouvons une expression explicite du rayon numérique de S(Φ) dans le cas particulier où Φ est un produit de Blaschke fini avec un unique zéro. Dans le cas général où Φ est un produit de Blaschke fini quelconque, une estimation du rayon numérique de S(Φ) est aussi donnée. Dans la deuxième partie de cette thèse on s'est intéressé à l'image numérique de rang supérieur Λk(T) qui est l'ensemble de tous les nombres complexes λ vérifiant PTP = λP pour une certaine projection orthogonale P de rang k . Cette notion a été introduite récemment par M.-D. Choi, D. W. Kribs, et K. Zyczkowski et elle est utilisée pour certains problèmes en physique. On montre que l'image numérique de rang supérieur du shift n-dimensionnel coïncide avec un disque de rayon bien déterminé
|
226 |
Contribution à l'étude de la valorisation des rejets thermiques : étude et optimisation de moteurs StirlingBert, Juliette 26 November 2012 (has links) (PDF)
Plusieurs machines actuellement utilisées, moteurs à combustion interne en automobile ou centrales thermiques dans l'énergie, rejettent de grandes quantités de chaleur. Généralement cette chaleur est dissipée dans l'atmosphère et son énergie perdue. Nous nous sommes donc intéressés aux moteurs à apport de chaleur externe dont l'énergie primaire est de l'énergie thermique, et plus particulièrement aux moteurs Stirling. L'une de ses principales caractéristiques est d'utiliser de la chaleur produite extérieurement comme source d'énergie. Ceci lui permet d'être multi-carburant et même d'utiliser de l'énergie thermique naturelle.L'étude menée comporte deux parties. Tout d'abord un modèle numérique zéro dimension, trois zones en temps fini a été développé. Il prend en compte les échanges thermiques aux parois et les pertes de charge, mais ne préjuge ni des dimensions moteur, ni des conditions de fonctionnement. Ceci lui permet de rester flexible pour s'adapter à l'architecture spécifique du moteur à simuler. Ensuite nous avons réalisé des mesures expérimentales sur deux moteurs de taille et puissance différentes (quelques watts et 1 kW). Ces résultats ont permis de valider le modèle. Au final nous avons obtenu un modèle numérique traduisant l'influence de paramètres dimensionnels et fonctionnels sur la puissance du moteur Stirling.Un outil d'aide à la conception de moteur Stirling a été développé en ajoutant au modèle un algorithme d'optimisation. Il permet une ébauche des caractéristiques d'un moteur Stirling. En fonction de l'application souhaitée et des contraintes s'y appliquant, il agit sur les caractéristiques choisies par l'utilisateur pour maximiser les performances.
|
227 |
Pour une médiologie de la mémoireMerzeau, Louise 09 November 2011 (has links) (PDF)
Souvent confiné dans un registre commémoratif ou traumatique, le concept de mémoire est peu présent dans les travaux en sciences de l'information et de la communication. Les recherches présentées ici visent à montrer que la question mémorielle est pourtant l'un des enjeux majeurs de la société à l'ère des réseaux. La réflexion s'appuie d'abord sur une analyse de l'évolution du statut médiologique des images, dont l'entrée dans l'environnement numérique modifie l'équilibre culturel et achève d'installer la suprématie d'une logique de traces. Celle-ci est examinée dans un deuxième temps sous l'angle des processus de médiation qu'elle met en œuvre. À cause du discrédit des intercesseurs traditionnels, on a vu dans l'emprise des NTIC un phénomène de désintermédiation. Notre hypothèse est que l'immédiation relève plutôt d'une visée idéologique : sous l'effet de la personnalisation de l'information et de la " socialisation " des flux, la médiation sur laquelle se fonde le collectif n'a pas disparu, elle s'est muée en médiation identitaire. La prévalence accordée aux traces et à l'identité fait de la traçabilité le paradigme de la nouvelle écologie informationnelle, que nous appelons l'hypersphère. Instaurant une mémoire par défaut où données et individus sont archivés et calculés, la traçabilité menace aussi bien les libertés individuelles que le maintien d'un espace public. Au-delà des mesures de protection, nous proposons de réfléchir aux conditions de réappropriation des traces et de restauration de la confiance. La promotion d'une présence numérique plus consciente et la construction de projets de mémoire, ordinaires ou institutionnels, sont les voies que nous explorons.
|
228 |
Analyse d'une nouvelle architecture pipeline de convertisseur analogique numérique supraconducteurNgankio njila, Joel romeo 10 February 2012 (has links) (PDF)
L'objectif de ce travail était d'élaborer la brique de base d'un convertisseur analogique numérique supraconducteur à architecture pipeline, fonctionnant à 30GHz de fréquence d'échantillonnage. Ce convertisseur est constitué d'un bloc de N comparateurs disposés en cascade le long d'une ligne de transmission. Chaque étage de comparaison est constitué d'un SQUID rf mutuellement couplé à un tronçon de ligne de transmission. Lorsque le signal à convertir arrive à la hauteur d'un comparateur, il génère un champ magnétique qui induit un courant dans le SQUID rf. Ce courant pourra faire commuter la jonction Josephson du SQUID rf dans certains cas, en fonction des caractéristiques internes de la jonction Josephson du SQUID et de son environnement. La commutation, qui s'accompagne de l'apparition d'une impulsion de tension quantifiée SFQ, a été étudiée de manière théorique et expérimentale en fonction des différents paramètres du problème.
|
229 |
Contributions à l'étude mathématique et numérique de quelques modèles en simulation multi-échelle des matériauxLegoll, Frédéric 17 October 2011 (has links) (PDF)
La première partie du mémoire résume des travaux en simulation moléculaire. On s'intéresse à des systèmes de particules ponctuelles (représentant typiquement les noyaux des atomes d'un système moléculaire), qui interagissent via une énergie potentielle. Les degrés de liberté du système sont la position et l'impulsion de chaque particule. La complexité du problème vient du nombre de degrés de liberté en jeu, qui peut atteindre (et dépasser!) plusieurs centaines de milliers d'atomes pour les systèmes d'intérêt pratique. <br> Les questions étudiées portent sur l'échantillonnage de la mesure de Boltzmann-Gibbs (avec des résultats concernant la non-ergodicité de certains systèmes dynamiques proposés dans la littérature), et sur la construction de dynamiques effectives: supposant que le système suit une dynamique X_t régie par l'équation de Langevin amortie, et se donnant une variable scalaire macroscopique xi(X), lente en un certain sens, nous proposons une dynamique mono-dimensionnelle fermée qui approche xi(X_t), et dont la précision est estimée à l'aide de méthodes d'entropie relative. <br> Une autre partie du travail consiste à développer de nouveaux schémas numériques pour des problèmes Hamiltoniens hautement oscillants (souvent rencontrés en simulation moléculaire), en suivant une démarche d'homogénéisation en temps. Nous avons aussi proposé une adaptation au contexte Hamiltonien de l'algorithme pararéel, permettant d'obtenir la solution d'un problème d'évolution par des méthodes de calcul parallèle. <br><br> La seconde partie du mémoire présente des travaux sur la dérivation de modèles à l'échelle du continuum à partir de modèles discrets (à l'échelle atomistique), pour les solides, et sur le couplage de ces deux modèles, discret et continu. Une première approche consiste à poser le problème sous forme variationnelle (modélisation à température nulle). Nous nous sommes aussi intéressés au cas de systèmes à température finie, modélisés dans le cadre de la mécanique statistique. Dans certains cas, nous avons obtenu des modèles réduits, macroscopiques, où la température est un paramètre, en suivant des approches de type limite thermodynamique. <br><br> La troisième partie du mémoire s'intéresse à des questions d'homogénéisation stochastique, pour des équations aux dérivées partielles elliptiques linéaires. Les matériaux sont donc modélisés à l'échelle du continuum. Le constat qui motive notre travail est le fait que, même dans les cas les plus simples sur le plan théorique, les méthodes numériques à ce jour disponibles en homogénéisation stochastique conduisent à des calculs très lourds. Nous avons travaillé dans deux directions. La première consiste à réduire la variance des quantités aléatoires effectivement calculées, seules accessibles en pratique pour approcher la matrice homogénéisée. La seconde est d'étudier le cas de problèmes faiblement stochastiques, en partant du constat que les matériaux hétérogènes, rarement périodiques, ne sont pas pour autant systématiquement fortement aléatoires. Le cas d'un matériau aléatoire pour lequel cet aléa n'est qu'une petite perturbation autour d'un modèle périodique est donc intéressant, et peut se traiter avec un coût calcul beaucoup plus abordable.
|
230 |
CONTRIBUTIONS A LA MAITRISE STATISTIQUE DES PROCESSUS INDUSTRIELS MULTIVARIESTiplica, Teodor 03 October 2002 (has links) (PDF)
Les travaux présentés dans ce mémoire se situent dans le cadre de la maîtrise statistique des processus (MSP). Les principales cartes de contrôle univariées et multivariées sont présentées dans le chapitre I. Un résumé non-exhaustif des méthodes de détection de la cause d'une situation hors contrôle dans un processus multivarié est donné dans le chapitre II. Une nouvelle méthodologie de contrôle et de diagnostic de processus - FNAD (Filtrage Numérique et Analyse Discriminante) - a été proposée dans le chapitre III. Un exemple pratique d'utilisation de la méthode FNAD a été donné pour le diagnostic d'un processus de fabrication du polyéthylène de faible densité. Deux nouvelles cartes de contrôle - la carte de contrôle par filtrage numérique (CCFN) et la carte de contrôle spectrale (CCS) ont été proposées dans le chapitre IV. Le principe de construction de la carte CCFN repose sur l'utilisation des équations récurrentes définissant les filtres numériques RII (Réponse Impulsionnelle Infinie) ou ARMA (AutoRegressive Moving Average). Les limites de contrôle et l'efficacité de la carte CCFN ont été calculées à l'aide de simulations. Le principe de contrôle de la carte de contrôle spectrale (CCS) est basé sur l'analogie temps-fréquence: une fenêtre glissante est déplacée dans le domaine temporel et le contenu spectral de la fenêtre est analysé afin de détecter les changements de la moyenne. La formule analytique de la limite de contrôle a été donnée. Les performances de la carte dans la détection des différents déréglages ont été calculées à partir des simulations et comparées avec celles de la carte EWMA.
|
Page generated in 0.0307 seconds