• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Filtration de dispersions agrégées de silice colloïdale : structure, consolidation et perméabilité de dépôts.

Madeline, J.B. 06 September 2005 (has links) (PDF)
Dans les procédés de coagulation/filtration, la récupération des agrégats dans la phase liquide est une étape cruciale pour l'efficacité de la séparation. Une problématique liée à la filtration est qu'en réponse à la contrainte appliquée, le dépôt formé en surface du filtre peut s'effondrer, impliquant une diminution de sa porosité et perméabilité. L'objet de ce travail a été d'étudier les mécanismes de restructuration de dépôts à travers une approche expérimentale multi-échelle afin d'améliorer la maîtrise de leurs propriétés de filtration. Les propriétés mécaniques et structurales de dépôts obtenus à partir de dispersions colloïdales de silice (Ludox et Klebosol) agrégées par un polycation Al137+ ou un cation divalent Ca2+ ont été analysées par DPAN et MET. Ces investigations ont permis de décrire l'effondrement d'un dépôt suivant un mécanisme de restructuration général contrôlé par la force des liaisons. L'étude menée sur l'impact de la restructuration sur les propriétés de filtration des dépôts a montré que la compressibilité et la perméabilité d'un dépôt dépendent principalement de la résistance à la rupture des liaisons interparticulaires plutôt que des propriétés fractales initiales des agrégats.
112

L'approche multi-échelles en mécanique des matériaux<br />ou l'importance d'un dialogue transdisciplinaire

Crepin, Jerome 18 June 2008 (has links) (PDF)
L'utilisation des moyens de calcul de type éléments finis couplés aux progrès techniques en matière de mesures de champs expérimentaux, tant microstructuraux que mécaniques, ouvrent la voie à une richesse de dialogue expérience/calcul qui ne se limite plus à la seule réponse macroscopique obtenue sur un volume élémentaire représentatif. <br />L'objectif de ce travail concerne l'exposé de la méthodologie adoptée et des outils développés pour l'identification de paramètres pertinents de lois de comportement de matériaux hétérogènes à partir de la définition de leur microstructure et des mécanismes responsables, au sein du volume élémentaire représentatif, de leur comportement élasto-plastique voire de leur endommagement. Nous nous intéresserons tout particulièrement à préciser la notion d'hétérogénéités, qui est fortement dépendante de la base de mesure choisie, que se soit pour l'expérimentation ou pour les simulations numériques. Nous aborderons d'autre part, les questions relatives à la pertinence de mesures de surface pour décrire le comportement d'un volume de matière puis nous nous focaliserons sur l'intérêt d'utiliser des mesures cinématiques, obtenues en cours d'essais mécaniques in situ comme conditions aux limites des simulations numériques. <br />Nous discuterons de la mise en place de cette méthodologie à partir de résultats obtenus à partir d'alliages métalliques et de matériaux virtuels.
113

Conception et modélisation d'un système de contrôle d'applications de télécommunication avec une architecture de réseau sur puce (NoC)

Lemaire, R. 11 October 2006 (has links) (PDF)
L'évolution des technologies d'intégration sur silicium permet de réaliser des systèmes sur puce (SoC) implémentant un nombre croissant d'unités de traitement. Les structures de communication sur puce deviennent un lélément essentiel pour la conception d'un SoC. dans ce contexte, le LETI propose une plateforme implémentant les fonctionnalités de la couche physique pour des systèmes de télécommunication sans-fil haut-débit en utilisant une architecture de réseaux sur puces (NoC). Les contributions de cette thèse portent d'abord sur la modélisation des NoC. L'environnement de modélisation proposé est basé sur l'outil de simulation NS-2. Ensuite, les travaux abordent les problèmatiques de la gestion des communications et du contrôle des traitements avec un système distribué sur un NoC. La solution présentée utilise une architecture d'interface réseau reconfigurable associée à chaque unité de traitement. L'ensemble de cette approche a été modélisé et simulé dans un environnement mixte VHDL et SystemC.
114

Aide à la conception de systèmes sur puce hétérogènes par l'exploration paramétrable des solutions au niveau système

Le Moullec, Yannick 10 April 2003 (has links) (PDF)
Les travaux présentés dans ce document concernent la conception conjointe matériel/logiciel (Hardware/Software Co-design) d'applications orientées multimédia (essentiellement de type "enfouies" ou embedded) à un niveau d'abstraction dit système. Ces travaux sont menés au sein du L.E.S.T.E.R dans le groupe de recherche Adéquation Architecture Systèmes (AAS).<br />Les systèmes enfouis sont de plus en plus présents dans la vie quotidienne, que ce soit pour un usage professionnel ou personnel. On peut citer par exemple les téléphones mobiles, les assistants personnels (PDA), les consoles de jeux vidéos portables, les lecteurs multimédias portables (MP3 et consorts). On trouve aussi de plus en plus de systèmes enfouis dans les automobiles, les appareils domestiques "intelligents" etc. Les fonctions qui peuvent être intégrées dans ce type de système peuvent être, par exemple, de type traitement de signal numérique (filtrage, compression/décompression audio-vidéo,...), de type télécommunication (protocole réseau,...) ou bien encore contrôle/commande (domotique...).<br />La complexité grandissante des applications fait qu'il est nécessaire de pouvoir aborder leurs conceptions à des niveaux d'abstractions élevés. En effet, il est très intéressant de travailler à ces niveaux (par exemple au niveau système) car les gains (en surface/temps/consomation/coût) qu'il est possible d'obtenir par diverses transformations (tant algorithmiques qu'architecturales) sont proportionnels au niveau d'abstraction auquel on se situe. De plus, les décisions prises au niveau système peuvent avoir un impact très important en terme de développement industriel.<br />En effet, une mauvaise adéquation application/architecture (architecture sur/sous-dimensionnée ou mal adaptée aux caractéristiques de l'application) peut imposer, soit de mettre sur le marché un produit trop cher ou peu performant, soit de relancer un cycle de conception entraînant des délais pouvant être rédhibitoires. L'ensemble de ces décisions à prendre peut être vu comme un espace de solutions potentielles à parcourir. Celui-ci étant très vaste pour une application (ensemble des couples algorithmes / architectures), il est nécessaire de l'explorer et d'effectuer des choix afin de le réduire. On conçoit aisément que cette exploration, lorsqu'elle est effectuée au niveau système, doit présenter un bon compromis vitesse (espace des solutions très vaste) Vs. précision (les choix faits sont lourds en conséquence pour la suite du flot de conception).<br />Les outils de conception actuels, pour de tels systèmes, sont connus sous le nom d'outils de codesign et se situent à des niveaux d'abstractions relativement faibles.<br />En outre, la plupart de ces outils partent d'une architecture cible figée (matériel et logiciel, par exemple un processeur et un ASIC) pour laquelle est choisie l'implantation soit matérielle (sur ASIC ou FPGA), soit logicielle de telle ou telle fonction pré-caractérisée. Ces outils ne permettent donc pas d'explorer les architectures propres aux différentes fonctions (estimation statique Vs. estimation dynamique). Il y a donc un nouveau pas à franchir, celui de l'exploration système comme moyen de choisir l'architecture cible ou bien encore de fixer les paramètres pour une architecture cible figée mais générique.<br />La méthode proposée dans cette thèse vise à réduire progressivement l'espace des solutions en permettant au concepteur d'effectuer des compromis entre plusieurs solutions, et ce à chaque niveau d'abstraction en s'appuyant sur un découpage fonctionnel et hiérarchique de l'application qui spécifie progressivement les aspects contrôles, traitements et transferts de données. La méthode est composée des éléments suivant : i) spécification de l'application dans un langage de haut niveau ; ii) caractérisation de l'application par un ensemble de métriques définissant l'orientation transfert mémoire, traitement ou contrôle ainsi que le parallélisme potentiel de ses sous-fonctions ; iii) estimation système dynamique des performances par l'exploration et l'exploitation du parallélisme ; iv) sélection des solutions prometteuses en vue de phases de projections architecturale et logicielle.
115

Gestion des unités de mémorisation pour la synthèse d'architecture

Corre, Gwenolé 20 June 2005 (has links) (PDF)
L'évolution des techniques et des capacités d'intégration entraîne une forte augmentation du volume d'information à manipuler, spécialement dans le domaine du traitement du signal et de l'image. La mémorisation des données doit donc faire l'objet d'une attention particulière lors de la conception de systèmes. La gestion des données en mémoire peut être traitée un haut niveau d'abstraction car il offre des opportunités d'optimisation plus importantes.Dans cette thèse, nous proposons une méthodologie de gestion des unités de mémorisation par la synthèse de haut niveau. Une analyse des données manipulées dans les applications TDSI a permis de définir un nouveau mécanisme de placement des données et de génération d'adresses et de mettre en œuvre une gestion d'anticipation des accès mémoire basée sur des modèles utilisés en gestion de production. Le travail réalisé a été intégré dans l'outil de synthèse d'architecture GAUT.
116

Méthode de validation globale pour les systèmes monopuces

Husinger, F. 06 March 2006 (has links) (PDF)
Les technologies actuelles permettent l'intégration de nombreux composants sur une seule puce. Ces systèmes appelés systèmes monopuce (SoC) sont un assemblage hétérogène de composants logiciels et matériels. La pression pour la qualité et les délais de mise sur le marché font de la validation de ces systèmes un point clé (70% du temps de conception). La vérification de l'intégration des SoCs, réalisée par simulation, consiste à valider les fonctionnalités des composants et leurs interconnexions dans le système. Elle est couramment effectuée par l'exécution de programmes logiciels sur les processeurs embarqués. Ces programmes sont généralement conçus à bas niveau (assembleur, C) ce qui rend difficile la réalisation de scénarii de test complexes nécessitant des mécanismes de synchronisation sophistiqués. De plus, leur utilisation n'est pas suffisante pour effectuer la validation complète d'un système. Ainsi, les contributions permettant d'accélérer la validation sont : (1) la définition d'une méthodologie de validation utilisant plusieurs techniques de vérification adressant les problèmes spécifiques aux SoCs ; (2) la définition d'une nouvelle méthode de vérification de l'intégration s'appuyant sur des programmes de test logiciel de haut niveau reposant sur un système d'exploitation. Cette méthode a été validée sur un système monopuce industriel destiné aux applications de télévision numérique haute définition.
117

Préconception de produits

Yannou, Bernard 29 June 2001 (has links) (PDF)
Nos travaux concernent la conception de produits dans les phases préliminaires, ou préconception de produits, se trouvant dans la littérature sous l'expression de conceptual design, à la croisée entre les domaines de l'Intelligence Artificielle appliquée à la conception, la conception intégrée et simultanée, les théories de la conception et les méthodologies industrielles du type Analyse de la Valeur.<br />Dans un premier temps, nous avons proposé des modèles enrichis de cahier des charges. Il s'agit de modèles fonctionnels d'objectifs et de satisfactions (ou préférences) relatifs à un produit, à ses services associés et à son projet de conception-industrialisation, en tachant de tenir compte des aspects : incertitude, contexte, multi-acteurs et évolution.<br />Dans un deuxième temps, nous avons travaillé à la façon de traduire ces objectifs de produit en concepts de solutions (ou architectures) de manière la plus automatisée qui soit : par des méthodes de synthèse, ou par des méthodes semi-automatiques qui, loin de prendre la place des concepteurs, leur permettent au contraire de disposer d'outils de conception génériques leur donnant les moyens de se consacrer à des taches de créativité. Nous avons notamment contribué à développer une méthode de synthèse de concepts en allocation spatiale (technique de programmation par contraintes) et des méthodes de synthèse de concepts de mécanisme plan (techniques de réseau de neurones, de multi-agents, de conception basée sur les cas).<br />Dans un troisième temps, lorsque des concepts ont été proposés, il faut savoir évaluer leurs performances, la difficulté résidant d'une part dans la définition grossière d'un concept et donc dans leur aptitude à représenter des classes entières de produits solutions, et d'autre part dans l'absence de conception de détail. Le raisonnement à partir de modèles incomplètement définis occupe une part importante de nos travaux. Des méthodes issues de la physique qualitative ont été développées, et la modélisation des performances a été abordée de manière probabiliste et floue ainsi que de manière approximée par des techniques de métamodélisation. <br />Enfin, nous avons abordé la mesure de l'adéquation des performances d'un concept avec le cahier des charges, pour un produit générique, de manière à développer des fonctionnalités de suivi des performances, des coûts et des risques dans la phase de préconception, ainsi que des fonctionnalités d'aide à la reconception et à l'optimisation des concepts (méthodes basées sur la physique qualitative ou sur une simulation de type Monte-Carlo).
118

Conception et réalisation d'un convertisseur électro-thermique à grande constante de temps en technologie microsystème pour un disjoncteur thermique (Electro-thermal converter with long time constant in microsystem technology for thermal breaker)

Veychard, D. 02 December 1999 (has links) (PDF)
Les microsystèmes connaissent depuis une dizaine années un développement important grâce à leur pouvoir de miniaturisation des systèmes complexes. A l'heure actuelle un grand nombre d'entreprises étudie la possibilité de faire passer leurs produits de l'échelle macroscopique à l'échelle microscopique. Cette translation d'échelle a pour but de réduire les coûts de production et d'augmenter les performances. Dans cette optique, ce travail de thèse a étudié une solution de disjoncteur thermique en technologie microsystème.<br />Le disjoncteur thermique protège les réseaux électriques contre des surcharges de courant en mesurant l'énergie qui s'écoule dans les fils<br />pendant une durée ? Au delà d'une énergie de seuil, le réseau est ouvert. Le composant microsystème réalisant cette fonction est un convertisseur électro-thermique à grande constante de temps.
119

Conception de microcapteurs pH-ISFET faible bruit et d'inductances intégrées suspendues à fort facteur de qualité Q

Palan, B. 01 March 2002 (has links) (PDF)
L'effort principal de la première partie de cette thèse est concentré sur le développement de capteurs de pH-ISFET en technologie peu coûteuse et non modifiée de 0.6um CMOS (AMS). La recherche comprend une étude de faisabilité, la conception, la fabrication, et la caractérisation complète de sensibilité pH. Un des aspects principaux de la fiabilité du capteur d'ISFET est sa mise en boîtier. Plusieurs structures d'ISFET ont été conçues, fonctionnent et donnent des résultats exploitables. La contribution de bruit d'ISFETs <br />commerciaux, aussi bien que des nouveaux capteurs de pH conçus, est étudiée et mesurée. A la fin de la première partie, deux interfaces de capteurs ISFET sont présentées. Le but de la deuxième partie de cette thèse est d'étudier des inductances planaires suspendues à fort facteur de qualité Q pour des applications analogiques RF. Nous présentons des études, les calculs et la conception d'inductances suspendues sur puce <br />développées dans une technologie CMOS 0.8um (AMS). L'architecture de conception novatrice proposée maximalise le facteur de qualité Q. Les inductances suspendues peuvent être placées verticalement <br />au-dessus du substrat, et ainsi les effets parasites de substrat sont considérablement réduits. Les inducteurs passifs conçus ont des valeurs de 1nH à 7nH. Le facteur Q plus grand que dix est estimé à partir des calculs, et il est vérifié expérimentalement par des mesures de paramètres S.
120

Modélisation, simulation et vérification de circuits numériques asynchrones dans le standard SystemC v2.0.1

Sirianni, A. 18 June 2004 (has links) (PDF)
Suivant les recommandations de l'ITRS 2003, il convient de s'intéresser aux circuits numériques asynchrones pour préparer l'avenir de la conception des circuits numériques. Sur le plan théorique, nous établissons le théorème de l'insensibilité aux délais des circuits numériques asynchrones. Pour spécifier un circuit numérique asynchrone par un programme faisant abstraction des délais, il faut et il suffit que le circuit vérifie trois propriétés fondamentales, que nous appelons propriétés d'insensibilité aux délais, i.e. persistance, sûreté et vivacité. Sur le plan pratique, nous choisissons le standard SystemC v2.0.1 de conception de systèmes numériques pour élaborer le premier modèle de circuits numériques asynchrones instrumenté pour la vérification des propriétés d'insensibilité aux délais, intégré dans un standard de conception de systèmes numériques. Nous mettons ce modèle en œuvre sur des exemples de taille réduite, mais significatifs, avant d'élargir la perspective.

Page generated in 0.1081 seconds