• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Un protocole de fiabilité basé sur un code à effacement "on-the-fly"

Tournoux, Pierre Ugo 10 November 2010 (has links) (PDF)
Le monde du protocole de transport a fortement évolué depuis la création de l'internet. On retrouve désormais une grande diversité de liens avec des caractéristiques hétérogènes en termes de débit, taux de pertes et délais. Plus récemment, le caractère ubiquitaire des périphériques sans fil a permis d'envisager un nouveau mode de transfert prenant en compte la mobilité des utilisateurs pour propager l'information dans le réseau. Ce paradigme de communication rompt définitivement avec les hypothèses de conceptions des protocoles de transport classique. Les applications qui utilisent l'internet ont également évolué. Les réseaux best effort sont maintenant utilisés pour transporter des flux à contrainte de délai tels que la voix sur IP et la vidéo conférence. Cependant, malgré ces changements importants, le principe de fiabilité utilisé n'a guère évolué et se base toujours sur des retransmissions. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une brique de fiabilité novatrice pour le support de tout type d'application sur les réseaux best effort et les challenged neworks qui font de plus en plus partie du paysage de l'internet. A cette fin, nous proposons un mécanisme de codage dénommé Tetrys. Ce code est sans rendement et ses symboles de redondance sont générés à la volée. Il permet à la fois une fiabilité totale et un délai de reconstruction quasi-optimal. Après une étude détaillée de ses propriétés, nous illustrons la généricité de ce mécanisme. Nous verrons que ses caractéristiques mènent à des contributions aussi bien sur le transport de flux de vidéo-conférence que sur le support du streaming dans les DTN ou encore la fiabilisation des handovers. De manière plus prospective, cette thèse reconsidère les hypothèses initiales du contrôle de congestion. Tetrys est utilisé comme code optimal dans le cas de réseaux dit "anarchiques" (i.e. caractérisés par une absence totale de contrôle de congestion). Nous montrons que le concept de réseau anarchi que est une alternative viable au contrôle de congestion et qu'il le remplace mÆeme avantageusement.
212

Une approche fonctionnelle pour la conception et l'exploration architecturale de systèmes numériques

Toczek, Tomasz 15 June 2011 (has links) (PDF)
Ce manuscrit présente une méthode de conception au niveau système reposant sur la programmation fonctionnelle typée et visant à atténuer certains des problèmes complexifiant le développement des systèmes numériques modernes, tels que leurs tailles importantes ou la grande variété des blocs les constituant. Nous proposons un ensemble de mécanismes permettant de mélanger au sein d'un même design plusieurs formalismes de description distincts ("modèles de calcul") se situant potentiellement à des niveaux d'abstraction différents. De plus, nous offrons au concepteur la possibilité d'expliciter directement les paramètres explorables de chaque sous-partie du design, puis d'en déterminer des valeurs acceptables via une étape d'exploration partiellement ou totalement automatisée réalisée à l'échelle du système. Les gains qu'apportent ces stratégies nouvelles sont illustrés sur plusieurs exemples.
213

Vers une modélisation statistique multi-niveau du langage, application aux langues peu dotées

Seng, Sopheap 01 March 2010 (has links) (PDF)
Ce travail de thèse porte sur la reconnaissance automatique de la parole des langues peu dotées et ayant un système d'écriture sans séparation explicite entre les mots. La spécificité des langues traitées dans notre contexte d'étude nécessite la segmentation automatique en mots pour rendre la modélisation du langage n-gramme applicable. Alors que le manque de données textuelles a un impact sur la performance des modèles de langage, les erreurs introduites par la segmentation automatique peuvent rendre ces données encore moins exploitables. Pour tenter de pallier les problèmes, nos recherches sont axées principalement sur la modélisation du langage, et en particulier sur le choix des unités lexicales et sous-lexicales, utilisées par les systèmes de reconnaissance. Nous expérimentons l'utilisation des multiples unités au niveau des modèles du langage et au niveau des sorties de systèmes de reconnaissance. Nous validons ces approches de modélisation à base des multiples unités sur les systèmes de reconnaissance pour un groupe de langues peu dotées : le khmer, le vietnamien, le thaï et le laotien.
214

Les foraminifères benthiques de la marge portugaise : Impact des apports organiques sur la densité, la biodiversité et la composition des faunes

Phipps Mark, Daniel 28 August 2012 (has links) (PDF)
Les faunes de foraminifères vivants (colorés au Rose Bengale) ont été analyses à 8 stations le long d'un transect bathymétrique (282-4987 m) sur la marge portugaise. Du plateau externe vers la plaine abyssale, une succession d'assemblages est trouvée en relation avec la diminuation du niveau trophique. La densité des faunes, la richesse spécifique et la diversité diminuent plus rapidement avec la profondeur pour les foraminifères carbonatés que pour les foraminifères agglutinés. Aux sites mésotrophes et oligotrophes les espèces carbonatées sont généralement limitées au centimètre supérieur. Les espèces agglutinées sont peu diversifies à la station la moins profonde, à cause d'une competition avec les espèces carbonatées et la pénétration d'oxygène très faible. Aux stations plus profondes, leurs diversité et ALD10 augmentent en réponse à la penetration d'oxygène et la bioturbation plus importantes. Aux stations les plus profondes, les foraminifères agglutinés montrent une faible diversité, et sont de nouveau limités à la surface du sediment. Un transect latitudinal regroupe 7 autres stations, de pente ouverte et de canyon ouvert, à une profondeur d'environ 1000 m. Dans les canyons sousmarins, les densités des faunes, dominées par des espèces endopéliques intermédiares et profondes, sont largement supérieures, en accord avec des teneurs en CPE plus élévées. Dans le canyon de Nazaré, des faibles teneurs en oxygène causent une diversité minimale. La variabilité temporelle apparait ètre beaucoup plus importante dans les canyons sous-marins, où des perturbations sédimentaires et les apports organiques sont maximaux.
215

An innovative model for developing critical thinking skills through mathematical education

Aizikovitsh, Einav, Amit, Miriam 11 April 2012 (has links) (PDF)
In a challenging and constantly changing world, students are required to develop advanced thinking skills such as critical systematic thinking, decision making and problem solving. This challenge requires developing critical thinking abilities which are essential in unfamiliar situations. A central component in current reforms in mathematics and science studies worldwide is the transition from the traditional dominant instruction which focuses on algorithmic cognitive skills towards higher order cognitive skills. The transition includes, a component of scientific inquiry, learning science from the student's personal, environmental and social contexts and the integration of critical thinking. The planning and implementation of learning strategies that encourage first order thinking among students is not a simple task. In an attempt to put the importance of this transition in mathematical education to a test, we propose a new method for mathematical instruction based on the infusion approach put forward by Swartz in 1992. In fact, the model is derived from two additional theories., that of Ennis (1989) and of Libermann and Tversky (2001). Union of the two latter is suggested by the infusion theory. The model consists of a learning unit (30h hours) that focuses primarily on statistics every day life situations, and implemented in an interactive and supportive environment. It was applied to mathematically gifted youth of the Kidumatica project at Ben Gurion University. Among the instructed subjects were bidimensional charts, Bayes law and conditional probability; Critical thinking skills such as raising questions, seeking for alternatives and doubting were evaluated. We used Cornell tests (Ennis 1985) to confirm that our students developed critical thinking skills.
216

Reconstitution de l'évolution du niveau marin relatif holocène dans le Finistère (Bretagne, France) : dynamiques régionales, réponses locales / Holocene Relative Sea-Level reconstruction in the Finistère region (Brittany, France) : regional dynamics, local responses

Goslin, Jérôme 14 February 2014 (has links)
Depuis la fin de la dernière période glaciaire, chaque région du globe a connu une évolution du niveau marin relatif - ou niveau marin « ressenti » - qui lui est propre, principalement conditionnée par la conjonction de la remontée globale « eustatique » du niveau marin et des dynamiques isostatiques, responsables des mouvements verticaux de la surface terrestre. Ces derniers, encore en cours aujourd’hui, jouent un rôle majeur dans l’augmentation actuelle du niveau marin. Malgré d’importants travaux menés au Royaume-Uni au cours des dernières décennies, la connaissance de l’évolution du niveau marin relatif holocène et des dynamiques isostatiques sur la façade Atlantique ouest-européenne demeure largement imparfaite, notamment en ce qui concerne les côtes françaises. De par sa position géographique, le Finistère se pose comme un jalon idéal afin de renforcer les connaissances dans ce domaine. A ce titre, cette thèse a eu pour principaux objectifs d’obtenir une courbe fiable de remontée du niveau marin relatif holocène pour le Finistère et d’évaluer l’apport de nouvelles connaissances à ce sujet pour la compréhension des dynamiques isostatiques régionales. Dans un premier temps, un important travail de terrain a été réalisé sur différents sites répartis tout autour de la péninsule Finistérienne. Une nouvelle méthode multi-proxies, développée à partir de l’utilisation novatrice d’indicateurs géochimiques et microstratigraphiques, a permis de reconstituer l’évolution du niveau marin au cours des 8000 dernières années à partir des séquences sédimentaires prélevées. Nos résultats démontrent que le Finistère a connu une remontée continue du niveau marin relatif à des rythmes décroissants durant l’Holocène. Cette évolution a provoqué de profonds bouleversements dans l’organisation et le fonctionnement des systèmes sédimentaires côtiers dont les implications sont discutées. En particulier, de nouvelles hypothèses sont proposées quant à l’origine de la baisse pluri-métrique du niveau marin jusqu’alors invoquée autour de 3000 B.P. Dans un second temps, nos résultats ont été confrontés aux reconstitutions du niveau marin obtenues dans le sud-ouest de l’Angleterre ou dans le sud du golfe de Gascogne, ainsi qu’aux résultats produits par des modèles géophysiques de réajustement isostatique. Ces comparaisons ouvrent de nouvelles perspectives quant à la compréhension de l’amplitude et de la chronologie des dynamiques isostatiques holocène à l’échelle du nord-ouest de l’Europe. / Since the Last Glacial Maximum, the different regions of the world underwent specific relative sea-level evolutions, principally under the joint influences of the worldwide “eustatic” sea-level rise and regional isostatic dynamics. The latter, still going on today, appear to play a major role in the contemporaneous sea-level rise. Despite of the several studies made on the subject in the UK within the last decades, only little knowledge appears available on the relative sea-level evolution and on the isostatic dynamics at the scale of the Western Europe Atlantic façade, and particularly on the French Atlantic coasts. Due to its geographical position, the Finistère region stands out as a potentially ideal region for providing new material on the subject.This PhD work aimed to produce a new and reliable Holocene relative sea-level curve for the Finistère region. At first, sedimentary sequences were retrieved from several sites located all around the Finistère peninsula. In order to reconstruct RSL from these sequences, an innovative multi-proxy method was developed, conjointly using geochemical and microstratigraphic indicators. Our results bear out that, in the Finistère region, the Holocene RSL followed a continuous rise at progressively decreasing rates during the last 8000 yrs B.P. This evolution led to massive disruptions in the organization and functioning of the coastal sedimentary systems which are discussed. In particular, new hypotheses are proposed to explain the pluri-metric drop in RSL that was formerly invoked ca. 3000 B.P. The results we obtained were then compared to the RSL data available in the south-western UK or the south of the Bay of Biscay, along with glacio-isostatic adjustment geophysical models. These comparisons provide new enlightments on both the amplitude and the chronology of isostatic dynamics at the scale of the north-western Europe during the Holocene.
217

Modélisation du niveau instantané de la mer en conditions paroxysmales : Caractérisation des contributions à différentes échelles de temps et d’espace / Realistic simulation of instantaneous nearshore water levels during extreme conditions : Characterization of contributions at different scales of time and space

Rétif, Fabien 17 November 2015 (has links)
Les tempêtes tropicales sont l'un des principaux moteurs des niveaux d'eau extrêmes notamment à cause des forts vents, des pluies torrentielles et des fortes houles qui les accompagnent. L'océan Pacifique nord-ouest est l'endroit où ces tempêtes tropicales (appelées typhons dans cette zone) sont les plus violentes au monde dépassant souvent les 95 nœuds de vent (175 km/h). L'île de Taïwan subit chaque année 3 à 4 typhons qui la frappent directement et une vingtaine qui passent à proximité de l'île. La quantification des variations du niveau instantanée de l'eau reste encore aujourd'hui un sujet de recherches actif. En effet, l'identification des processus physiques qui peuvent devenir dominants sur le niveau en conditions paroxysmales est cruciale pour la gestion et la protection des zones côtières. Ce travail de thèse basé sur une approche numérique, permet de discuter les mécanismes hydrodynamiques régionaux fondamentaux à l’origine de l’élévation du niveau d’eau le long de la barrière sableuse de Wan-Tzu-Liao au sud-ouest de Taïwan. L'utilisation du modèle de circulation 3D SYMPHONIE et du modèle de vagues WAVEWATCH III permet d'étudier la saison de mousson 2011 et la saison des typhons 2012 sur une zone s’étendant à environ 600 km autour de l’île de Taïwan. Ces simulations intègrent convenablement la totalité des forçages météo-marins ayant un rôle sur la circulation et le niveau d’eau à la côte : vent, flux atmosphériques, circulation grande échelle, marée, pression atmosphérique, rivières et vagues. Le couplage entre les vagues et les courants est complet en 3D et les deux modèles partagent la même grille de calcul. Par ailleurs, dans le cadre du projet franco-taïwanais KUNSHEN, un ensemble d'appareils a été déployé entre octobre 2011 et novembre 2012 le long d’un profil cross-shore de la barrière sableuse. La simulation complète de niveau d’eau rend compte des surcotes générées par les typhons avec une erreur de l'ordre de 0.1 m. Pour étudier les mécanismes hydrodynamiques, un ensemble de simulations a été réalisé afin d'isoler les contributions. Leur analyse montre que le forçage dominant est celui de la marée astronomique (~1 m), suivi par la circulation régionale (0.5-0.7m) puis des conditions météorologiques (0.2-0.3 m). Dans cette zone à forte dissipation énergétique, la contribution des vagues est négligeable avec moins de 0.1 m d'élévation. La contribution des rivières est, elle aussi, faible (< 0.1 m). / Tropical storms are the main engine of extreme water levels due to strong winds, abundant rainfalls and strong waves attached to these events. The western North Pacific ocean is one of places where these tropical storms (called typhoon in this area) are the most violent in the world exceeding 95 knots of wind speed (175 km/h). The island of Taiwan is located on the most of typhoons tracks which come from the western North Pacific. Every year, three or four typhoons strike Taiwan directly and around twenty pass near it. The quantification of instantaneous water levels variations is still studied by active researches. The identification of physical processes that can become dominant on water level during extreme conditions is crucial for the management and the protection of coastal areas.These PhD works, based on a numerical approach, allow to discuss the fondamental regional hydrodynamic mechanisms which control the sea surface elevation along the sandy barrier of Wan-Tzu-Liao located south-western Taiwan.We used the 3D circulation model SYMPHONIE and the wave model WAVEWATCH III to study the mousson season 2011 and the typhoon season 2012 on an area extending 600 km off Taiwan island. These simulations deal with most of the oceanographical forcings playing a role in the sea surface elevation at the coast : winds, air/sea fluxes, astronomical tides, regional circulation, rivers and waves. The coupling between waves and currents is fully in 3D and the two models share the same computational grid. Moreover, in the framework of the KUNSHEN project, a raft of devices were set in front of the Wan-Tzu Liao barrier from october 2011 to november 2012 along a cross-shore section. The full simulation of water level describes the storm surges generated by typhoons with errors of 0.1 m. With the aim to analyse hydrodynamic mechanisms, we performed a set of mono-forcing simulation that isolate each meteo-marine parameter. Their analysis show that astronomical tide is the dominant forcing (~1 m) followed by the regional circulation (0.5-0.7m) and the meteorological conditions (0.2-0.3 m). This zone displays a very strong dissipative feature that conducts to a very low waves contribution on the sea surface elevation (< 0.1 m). They display also a low contribution of rivers around Taiwan (< 0.1 m).
218

A formal approach to automate the evolution management in component-based software development processes / Une approche formelle pour automatiser la gestion de l'évolutiondans les processus de développement à base de composants

Mokni, Abderrahman 14 December 2015 (has links)
Gérer l'évolution des logiciels est une tâche complexe mais nécessaire. Tout au long de son cycle de vie, un logiciel doit subir des changements, pour corriger des erreurs, améliorer ses performances et sa qualité, étendre ses fonctionnalités ou s’adapter à son environnement. A défaut d’évoluer, un logiciel se dégrade, devient obsolète ou inadapté et est remplacé. Cependant, sans évaluation de leurs impacts et contrôle de leur réalisation, les changements peuvent être sources d’incohérences et de dysfonctionnements, donc générateurs de dégradations du logiciel. Cette thèse propose une approche améliorant la gestion de l'évolution des logiciels dans les processus de développement orientés composants. Adoptant une démarche d’ingénierie dirigée par les modèles (IDM), cette approche s’appuie sur Dedal, un langage de description d’architecture (ADL) séparant explicitement trois niveaux d’abstraction dans la définition des architectures logicielles. Ces trois niveaux (spécification, configuration et assemblage) correspondent aux trois étapes principales du développement d’une architecture (conception, implémentation, déploiement) et gardent la trace des décisions architecturales prises au fil du développement. Ces informations sont un support efficace à la gestion de l’évolution : elles permettent de déterminer le niveau d’un changement, d’analyser son impact et de planifier sa réalisation afin d’éviter la survenue d’incohérences dans la définition de l’architecture (érosion, dérive, etc.). Une gestion rigoureuse de l’évolution nécessite la formalisation, d’une part, des relations intra-niveau liant les composants au sein des modèles correspondant aux différents niveaux de définition d’une architecture et, d’autre part, des relations inter-niveaux liant les modèles décrivant une même architecture aux différents niveaux d’abstraction. Ces relations permettent la définition des propriétés de consistance et de cohérence servant à vérifier la correction d’une architecture. Le processus d’évolution est ainsi décomposé en trois phases : initier le changement de la définition de l’architecture à un niveau d’abstraction donné ; vérifier et rétablir la consistance de cette définition en induisant des changements complémentaires ; vérifier et rétablir la cohérence globale de la définition de l’architecture en propageant éventuellement les changements aux autres niveaux d’abstraction.Ces relations et propriétés sont décrites en B, un langage de modélisation formel basé sur la théorie des ensembles et la logique du premier ordre. Elles s’appliquent à des architectures définies avec un adl formel écrit en B dont le méta-modèle, aligné avec celui de Dedal, permet d’outiller la transformation de modèles entre les deux langages. Cette intégration permet de proposer un environnement de développement conjuguant les avantages des approches IDM et formelle : la conception d’architectures avec l’outillage de Dedal (modeleur graphique); la vérification des architectures et la gestion de l’évolution avec l’outillage de B (animateur, model-checker, solver). Nous proposons en particulier d’utiliser un solver B pour calculer automatiquement des plans d’évolution conformes à notre proposition et avons ainsi défini l’ensemble des règles d’évolution décrivant les opérations de modification applicables à la définition d’une architecture. Le solver recherche alors automatiquement une séquence de modifications permettant la réalisation d’un changement cible tout en préservant les propriétés de consistance et de cohérence de l’architecture. Nous avons validé la faisabilité de cette gestion de l’évolution par une implémentation mêlant optimisation et génie logiciel (search-based software engineering), intégrant notre propre solver pourvu d’heuristiques spécifiques qui améliorent significativement les temps de calcul, pour expérimenter trois scénarios d’évolution permettant de tester la réalisation d’un changement à chacun des trois niveaux d’abstraction. / Managing software evolution is a complex task. Indeed, throughout their whole lifecycle, software systems are subject to changes to extend their functionalities, correct bugs, improve performance and quality, or adapt to their environment. If not evolved, software systems degrade, become obsolete or inadequate and are replaced. While unavoidable, software changes may engender several inconsistencies and system dysfunction if not analyzed and handled carefully hence leading to software degradation and phase-out.This thesis proposes an approach to improve the evolution management activity in component-based software development processes. The solution adopts a Model-Driven Engineering (MDE) approach. It is based on Dedal, an Architecture Description Language (ADL) that explicitly separates software architecture descriptions into three abstraction levels: specification, configuration and assembly. These abstraction levels respectively correspond to the three major steps of component-based development (design, implementation and deployment) and trace architectural decisions all along development. Dedal hence efficiently supports evolution management: It enables to determine the level of change, analyze its impact and plan its execution in order to prevent architecture inconsistencies (erosion, drift, etc.). Rigorous evolution management requires the formalization, on the one hand, of intra-level relations linking components within models corresponding to different architecture abstraction levels and on the other hand, of the formalization of inter-level relations linking models describing the same architecture at different abstraction levels. These relations enable the definition of the consistency and coherence properties that prove necessary for architecture correctness analysis. The evolution process therefore consists of three steps: First, change is initiated on an architecture description at a given abstraction level; then, the consistency of the impacted description is checked out and restored by triggering additional changes; finally, the global coherence of the architecture definitions is verified and restored by propagating changes to other abstraction levels.Relations and properties are expressed in B, a set-theoretic and first-order logic language. They are applied on B formal ADL, the meta-model of which is mapped to Dedal's and helps automatic model transformations. This integration enables to implement a development environment that combines the benefits of both MDE and formal approaches: Software architecture design using Dedal tools (graphical modeler) and architecture analysis and evolution management using B tools (animator, model-checker, solver).In particular, we propose to use a B solver to automatically calculate evolution plans according to our approach. The solver explores a set of defined evolution rules that describe the change operations that can apply on architecture definitions. It automatically searches for a sequence of operations that both changes the architecture as requested and preserves architecture consistency and coherence properties. The feasibility of the evolution management approach is demonstrated through the experimentation of three evolution scenarios, each addressing a change at different abstraction level. The experimentation relies on an implementation of a search-based software engineering approach mixing software engineering and optimization and integrates our own solver with specific heuristics that significantly improve calculation time.
219

Optimisation de forme de matériaux et structures architecturés par la méthode des lignes de niveaux avec prise en compte des interfaces graduées / Design and optimization of structures and microstructures of multi-phase materials with interface effects using a level set method

Faure, Alexis 09 October 2017 (has links)
Les méthodes d'optimisation de forme s’industrialisent progressivement, elles permettent la conception automatisée de structures aux propriétés optimales. Elles constituent aussi un outil d'exploration majeur pour la conception de nouveaux matériaux.Dans une première partie nous utilisons ces méthodes afin de générer des matériaux architecturés aux propriétés thermoélastiques effectives cibles et extrêmes. En plus de proposer différentes solutions, nous répertorions les différents mécanismes œuvrant au contrôle des ces propriétés. Dans ce contexte nous proposons aussi de prendre en compte l'influence des interfaces comportant un gradient de propriétés sur les architectures obtenues.Nous étudions ensuite les procédés de fabrication pouvant être utilisés afin de réaliser ces matériaux. Les méthodes de fabrication additive, considérées comme le vecteur d'une prochaine révolution industrielle, constituent une piste que nous considérerons tout particulièrement. Nous proposons plusieurs solutions pour prendre en compte les limitations et les effets collatéraux de ces procédés de fabrication au sein de processus d'optimisation de forme. Nous traitons le problème de la prise en compte des propriétés induites par la méthode de fabrication Fiber Deposition Molding (FDM), à savoir des propriétés anisotropes orientées. Nous proposons ensuite une approche pour traiter le problème des dépôts en porte-à-faux à l'aide d'un critère mécanique.Enfin, nous abordons la prise en compte des non-linéarités géométriques au sein de calculs d'optimisation de forme et discutons de leurs apports ainsi que de leurs limitations. Nous présentons plusieurs applications pour la conception automatisée d'actuateurs non linéaires. / Shape optimization methods are promising methods and are gradually becoming industrialized. They provide the ability to automatically design structures with optimal behavior. They are outstanding tools for exploration and design of new materials.We use these methods to generate architectured multi-phased materials with prescribed thermoelastic properties. We first propose several solutions and we classify them by the mechanisms they rely on in order to control the effective properties. We also propose to evaluate the influence of an interface with a gradient of properties on the obtained architectures.Eventually we focus on the plausible manufacturing solution to produce our architectured materials. In this context, additive manufacturing methods (often considered as the support of an incoming industrial revolution) is our main option. We introduce several strategies to circumvent some limitations and side effects of these manufacturing methods during optimization process. We particularly focus on Fiber Deposition Molding, which induce an important mechanical anisotropy in processed parts. Then we consider the problem of overhangings features in design and propose a way to handle them prior to additive manufacturing using a mechanical criteria.Finally we take into account geometrical non linearities in optimization process. We highlight the pros and cons of this new modeling by presenting several applications of non linear actuators design.
220

Simulation Parallèle en SystemC/TLM de Composants Matériels décrits pour la Synthèse de Haut-Niveau / Parallel SystemC/TLM Simulation of Hardware Components described for High-Level Synthesis

Becker, Denis 11 December 2017 (has links)
Les systèmes sur puce sont constitués d'une partie matérielle (un circuit intégré) et d'une partie logicielle (un programme) qui utilise les ressources matérielles de la puce. La conséquence de cela est que le logiciel d'un système sur puce est intrinsèquement lié à sa partie matérielle. Les composants matériels d'accélération sont des facteurs clés de différenciation d'un produit à l'autre.Il est nécessaire de pouvoir simuler ces systèmes très tôt lors de leur conception; bien avant que la puce ne soit physiquement disponible, et même avant que la puce ne soit complètement spécifiée. Pour cela, un modèle du système sur puce est réalisé à l'aide du langage SystemC, au niveau d'abstraction TLM (Transaction Level Modeling). La partie matérielle d'un système sur puce est constituée de composants, qui s'exécutent en parallèle. Pour autant, la simulation avec le simulateur SystemC de référence est séquentielle. Ceci permet de garantir les bonnes propriétés des simulations SystemC, en particulier la reproductibilité et le confort d'écriture des modèles.Les travaux de cette thèse portent sur la simulation parallèle de modèles SystemC/TLM. L'objectif de l'exécution parallèle est d'accélérer les simulations dans un mode d'utilisation correspondant à la phase de développement, où il est primordial de disposer de simulations qui donnent rapidement un résultat. Afin de cerner le problème de performance remarqué sur des modèles complexes à STMicroelectronics, le premier travail de cette thèse a été d'analyser le profil d'exécution d'une étude de cas représentative de la complexité actuelle des platformes SystemC/TLM. Pour cette étude, nous avons développé un outil de collecte de traces et de visualisation. Les résultats de cette analyse ont indiqué que la lenteur d'exécution en simulation était due à la complexité des composants matériels d'accélération. L'étude de l'état de l'art en simulation parallèle de modèles SystemC nous a conduit à chercher d'autres pistes que celles actuellement existantes.Pour réaliser les composants matériels plus rapidement, et permettre d'augmenter la réutilisabilité de composants d'un projet à l'autre, le flot de conception HLS (High Level Synthesis) est utilisé, notamment à STMicroelectronics. Ce flot de conception permet, à partir de la description d'une fonction en C/C++, de générer un plan de composant matériel qui va réaliser la même fonction. La description des composants est découpée en sous-fonctions, individuellement plus simples. Afin d'obtenir de bonnes performances, les sous-fonctions sont assemblées en chaîne, à travers laquelle circulent les données à traiter. Il est indispensable de pouvoir réutiliser le code écrit pour la HLS dans les simulations SystemC/TLM@: cette situation deviendra de plus en plus fréquente, et il n'a pas assez de temps pour réécrire ces modèles dans ces projets courts.Nous avons développé une infrastructure de simulation parallèle permettant d'intégrer et de simuler efficacement des composants de traitement de données écrits pour la HLS. L'application de cette infrastructure à un exemple a permis d'accélérer l'exécution de la simulation d'un facteur 1.6 avec 4 processeurs. Au-delà de ce résultat, les conclusions principales de cette thèse sont que la simulation parallèle de modèles à haut niveau d'abstraction, en SystemC/TLM, passe par la combinaison de plusieurs techniques de parallélisation. Il est également important d'identifier les parties parallélisables dans des simulations industrielles, notamment pour les nouveaux défis que sont les simulations multi-physiques et l'internet des objets. / Systems on chip consists in a hardware part (an integrated circuit) and a software part (a program) that uses the hardware resources of the chip. Consequently, the embedded software is intrinsically connected to the chip hardware. Hardware acceleration components are key differentiation factors from one product to another.It is necessary to simulate systems on chip very early in the design flow; before the chip is physically available and even before its full specification. For such simulations, developers write a model of the system on chip in SystemC, at the TLM (Transaction Level Modeling) abstraction level. The hardware part of a chip consists in components that behave in parallel with each other. However, the reference SystemC simulator execute simulations sequentially. The sequential execution enables to keep good properties of SystemC simulations, namely reproducibility and ease of model writing.This thesis work address the parallel execution of SystemC/TLM simulations. The goal of parallel simulation is to speed up simulations, in the context of the model development, where it is important to quickly get results. In order to identify the performance problem of complex models at STMicroelectronics, the first step of this thesis was to analyse the execution profile of a case study, representative of the complexity of current platforms. For this study, we developed a trace recording and visualization tool. The results of this study indicated that the performance critical parts of the simulation are hardware acceleration components. Studying existing parallel simulation approaches led us to look for other parallel simulation techniques.To speed up the development of hardware acceleration components, and increase the reusability from one project to another, the HLS (High Level Synthesis) design flow is used, notably at STMicroelectronics. This design flow enables to generate a logically synthesizable model of a component, from a high level behavioral description in C/C++. This design flow also constraints the development: it is split in sub-functions, assembled in a pipeline. The code written for HLS must be re-used in SystemC/TLM models: this situation will become more and more frequent and there is no time to rewrite the models of such components within short delays.We developed a parallel simulation infrastructure enabling the integration and efficient simulation of hardware components written for HLS.We applied this infrastructure to an example platform, which resulted in speeding up the simulation. Beyond this result, one of the main conclusion of this thesis is that parallel simulation of abstract SystemC/TLM models will require to combine multiple parallelization techniques. Future research work can identify other types of potential parallelism in industrial models. This will become critical with the new challenges of simulation, as multi-physical simulations and internet of things.

Page generated in 0.0329 seconds