• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 65
  • 20
  • 1
  • Tagged with
  • 205
  • 93
  • 62
  • 61
  • 54
  • 52
  • 42
  • 39
  • 33
  • 28
  • 27
  • 26
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Evaluation de performances sur le standard IEEE802.16e WiMAX / IEEE802.16e standart - Mobile WiMAX -Performances Evaluations

Peyre, Thierry 09 December 2008 (has links)
Les dernières décennies ont connu l’apogée des transmissions hertziennes, et celles à venir connaîtront incontestablement le développement et le déploiement intense de systèmes de communications sans-fil. Dès à présent, il est possible de communiquer par onde sur petite et très petite distance (LAN et PAN). Les populations se sont familiariséesavec les interfaces bluetooth (IEEE802.15) présentes dans la majorité des objetscommuniquant (ordinateur portable, téléphone, PDA, etc...). Les foyers s’équipentmaintenant facilement et à bas prix d’interfaceWi-Fi (IEEE802.11), afin de profiter d’uneutilisation nomade de leur accès internet. Ainsi, la forte croissance dumarché des offresinternet combinée avec celle du marché des téléphones mobiles ont habitués un large spectre d’utilisateurs à communiquer sans fil. Ce contexte sociologique et financier encourage donc l’arrivée de solutions nouvelles répondant à des besoins latents. Parmi ceux-là, le marché met en évidence le manque de système de communication sur moyenne distance (MAN). Les réseaux ad-hoc peuvent répondre à ce genre de besoin. Mais àce jour, les performances sont trop faibles pour les besoins des utilisateurs et elles dépendenttrop fortement de la densité desmachines nomades. Aussi, le consortiumIEEEcherche au travers de sa norme IEEE802.16 à fournir un système complet de communicationsans-fil sur moyenne distance (MAN). Appelé aussiWiMAX, ce système se basesur une architecture composée d’une station de base (BS) et de nombreux mobiles utilisateurs(SS). Le standard IEEE802.16 définit les caractéristiques de la couche physiqueet de la couche MAC. Il décrit l’ensemble des interactions et événements pouvant avoirlieu entre la station de base et les stations mobiles. Enfin, le standard fournit différents paramètres et variables servant aux mécanismes de communication. Comme tout nouveau standard émergeant, la norme IEEE802.16 ne profite pas d’un état de l’art aussi développé que celui du IEEE802.11 par exemple. Aussi, de nombreuses études et idées sont à développer.En premier lieu, nous effectuons un large rappel de la norme WiMAX et en particulier le IEEE802.16e. Associé à cela, nous dressons un état de l’art des travaux traitant des aspects et perspectives liés au sujet de notre étude.Par la suite, nous proposons un modèle novateur de performance des communicationsIEEE802.16e. Au travers de ce modèle, nous développons une étude générale et exhaustive des principaux paramètres de communication. L’étude explicite l’impact deces paramètres ainsi que l’influence de leur évolutions possibles. De cela, nous critiquonsla pertinence de chacun d’eux en proposant des alternatives de configurations.5En sus, nous proposons un mécanisme novateur favorisant le respect de qualité de service(QoS) sur couche AC.Nous développons un principe original d’établissement de connexion favorisant l’accès aux communications sensibles aux délais de transmission.Dans une dernière partie, nous déterminons la capacité d’un système IEEE802.16 à gérer les arrivées et départs des utilisateurs. Tout en y associant une étude de performance d’un nouvel algorithme de contrôle d’admission. Cet algorithme d’admission vise à remplir des objectifs multiples : empêcher les famines de ressources sur les trafics les moins prioritaires, favoriser l’admission des utilisateurs en maintenant une gestion optimale de la ressource radio. Notre étude aboutit à une modélisation et une critique des variations de paramètre associés à ce nouvel algorithme. Nous y intégrons par la suite le principe de mobilité où les utilisateurs ont la capacité de se mouvoir au sein d’une cellule. Cette intégration se fait en y associant des mécanismes originaux afin d’assurer la pérennité du service aux utilisateurs mobiles. / The last decade witnessed the peak of the hertzian communications. The following ones will undoubtedly testify the intensive deployment and the development of all wireless ways of transmission. Due to cheaper equipments, the people are now used with all sorts of connected objects : laptop, smartphone, pad, and more recently, Connected Video display and audio diffusers. All these stuffs allow to keep an access to internet, even in a nomad use. This economical and sociological context promotes the emerging of new solutions metting latent needs by offering better performances. Consumer studies highlight particularly the lack of transmissions solution for Metropolitan Area Networks (MAN). Ad-hoc wireless solutions lead to satisfy the MAN needs, but the throughput is too importantly related to the ad-hoc customer capacity and density over the MAN coverage.The IEEE consortium seeks, through its IEEE802.16e standart, to provide a wireless transmission technology specifically design for the middle range network. Knowed as WiMAX, this system are based on a point to multipoint architecture. WiMAX standart gathers Base Station (BS) and Subscriber Stations (SS), and defines for both the Physical and MAC layer in the OSI Model. In addition, the standart proposes a set of default parameters for the two first OSI Layers.As any emerging standart, the IEEE802.16e suffers form a lack of litterature (works, studies and enhancement proposals). More studies are explicitly needed to craft and tune the IEEE802.16e standart in order to better answer to the specific issues met in the actual context of transmission.In a first step, we present in a large scale the IEEE802.16e standart specifications. In addition we highlight the main state of art linked to this subject.Second, we propose an original performance model, the first one that takes in account all the MAC layer parameters of the standart. Based on this model, we lead a general and exhaustive performance study of each communication parameters. This study highlights the importance of each parameters and propose some enhancements in fonction of the type of Quality of Service (QoS). In addition, we introduce an call engaging mecanism which respects the QoS on the MAC layer.In a last part, we compute the IEEE802.16e capacity to manage the incoming and leaving calls. we perform this study by introducing a new Connection Admission Control (CAC). The CAC algorithm achieves sevral objectives : prevent from the lack of ressource for the lowest priority flows as well as optimize the radio resource consumption to facilitate the access for the users. Our study is concluded by proposing an new capacity model and algorithm for the CAC. Moreover, this last proposal prevents the call drop due to user mobility.
152

Compression d'images dans les réseaux de capteurs sans fil / Image compression in Wireless Sensor Networks

Makkaoui, Leila 26 November 2012 (has links)
Les réseaux de capteurs sans fil d'images sont utilisés aujourd'hui dans de nombreuses applications qui diffèrent par leurs objectifs et leurs contraintes individuelles. Toutefois, le dénominateur commun de toutes les applications de réseaux de capteurs reste la vulnérabilité des noeuds-capteurs en raison de leurs ressources matérielles limitées dont la plus contraignante est l'énergie. En effet, les technologies sans fil disponibles dans ce type de réseaux sont généralement à faible portée, et les ressources matérielles (CPU, batterie) sont également de faible puissance. Il faut donc répondre à un double objectif : l'efficacité d'une solution tout en offrant une bonne qualité d'image à la réception. La contribution de cette thèse porte principalement sur l'étude des méthodes de traitement et de compression d'images au noeud-caméra, nous avons proposé une nouvelle méthode de compression d'images qui permet d'améliorer l'efficacité énergétique des réseaux de capteurs sans fil. Des expérimentations sur une plate-forme réelle de réseau de capteurs d'images ont été réalisées afin de démontrer la validité de nos propositions, en mesurant des aspects telles que la quantité de mémoire requise pour l'implantation logicielle de nos algorithmes, leur consommation d'énergie et leur temps d'exécution. Nous présentons aussi, les résultats de synthèse de la chaine de compression proposée sur des systèmes à puce FPGA et ASIC / The increasing development of Wireless Camera Sensor Networks today allows a wide variety of applications with different objectives and constraints. However, the common problem of all the applications of sensor networks remains the vulnerability of sensors nodes because of their limitation in material resources, the most restricting being energy. Indeed, the available wireless technologies in this type of networks are usually a low-power, short-range wireless technology and low power hardware resources (CPU, battery). So we should meet a twofold objective: an efficient solution while delivering outstanding image quality on reception. This thesis concentrates mainly on the study and evaluation of compression methods dedicated to transmission over wireless camera sensor networks. We have suggested a new image compression method which decreases the energy consumption of sensors and thus maintains a long network lifetime. We evaluate its hardware implementation using experiments on real camera sensor platforms in order to show the validity of our propositions, by measuring aspects such as the quantity of memory required for the implantation program of our algorithms, the energy consumption and the execution time. We then focus on the study of the hardware features of our proposed method of synthesis of the compression circuit when implemented on a FPGA and ASIC chip prototype
153

Conception d'un système de transmission ultra-large bande par impulsions orthogonales / Design of the ultra-wideband transceiver based on pulse orthogonal

Tabaa, Mohamed 21 November 2014 (has links)
Dans cette thèse, nous proposons une méthodologie de conception d’architectures de communication dédiées aux réseaux de capteurs basées sur la technique de radio impulsionnelle pour les transmissions ultralarge bande (ULB). La technique impulsionnelle proposée ici repose sur la modulation de forme d’impulsion. L’approche de conception architecturale présentée dans cette thèse se focalise plus particulièrement sur la forme des impulsions et leur génération, qui revêt un intérêt majeur puisqu’elle constitue le support de l’information échangée. L’étude sur le choix de la forme d’impulsion nous a conduit à proposer deux architectures différentes. Une première architecture repose sur les polynômes orthogonaux, et plus particulièrement sur les polynômes d’Hermite, pour la génération des impulsions, et sur une architecture de corrélation pour la détection et la reconnaissance des trains d’impulsions transmis. La deuxième architecture est basée sur la transformée en paquets d’ondelettes discrète et peut être exploitée selon deux modes d’utilisation différents, mono et multiutilisateurs. L’utilisation d’une architecture de synthèse à l’émission et d’analyse à la réception ouvre une nouvelle orientation pour les communications numériques, permettant à la transformée en ondelettes d’assurer à la fois la génération des impulsions à l’émission et leur reconnaissance à la réception. Un intérêt immédiat de la technique proposée permet notamment de faciliter l’accès multiutilisateurs au canal ultralarge bande, et d’autoriser des communications simultanées (Many-to-one, des nœuds vers le puits) ou du broadcast (One-to-many, du puits vers les nœuds) sans surcharger la couche MAC. L’architecture proposée s’inscrit donc à l’interface des couches PHY et MAC et permet de relâcher les contraintes de conception spécifiques à ces couches / In this thesis, we propose a design methodology for communication architectures dedicated to wireless sensor network based on impulse radio techniques for UWB communications. The impulse technique proposed in this work relies on pulse shape modulation. The architecture design approach proposed in this thesis focuses on pulses shape and their generation, which is of major interest as it constitutes the carrier of the information exchanged. The study on the choice of pulse shape led us to propose two different architectures. The first one is based on orthogonal polynomials, more especially on the Hermite polynomials, for impulse generation, and on a correlation architecture for detection and recognition of transmitted impulses. The second architecture is based on discrete wavelet packet transform and can be used according two different modes, mono and multi-users. The use of both synthesis and analysis architectures for emitter and receiver, respectively, offers a new way for digital communications and allows the wavelet transform to ensure the impulses generation on the transmitter and their recognition on the receiver. A major interest point of the proposed technique is to facilitate the multi-users access to the ultra-wideband channel and to allow simultaneous communications (many-to-one, from the sensors to the sink) or broadcast (one-to-many, from the coordinator to the nodes) but without overloading the MAC layer. Hence, the proposed architecture is part of the interface between both PHY and MAC layers, and allows to release their specific design constraints
154

Outils pour l'analyse des courbes discrètes bruitées / Tools for the analysis of noisy discrete curves

Nasser, Hayat 30 October 2018 (has links)
Dans cette thèse, nous nous intéressons à l’étude des courbes discrètes bruitées qui correspondent aux contours d’objets dans des images. Nous avons proposé plusieurs outils permettant de les analyser. Les points dominants (points dont l’estimation de la courbure est localement maximale) jouent un rôle très important dans la reconnaissance de formes et, nous avons développé une méthode non heuristique, rapide et fiable pour les détecter dans une courbe discrète. Cette méthode est une amélioration d’une méthode existante introduite par Nguyen et al. La nouvelle méthode consiste à calculer une mesure d’angle. Nous avons proposé aussi deux approches pour la simplification polygonale : une méthode automatique minimisant, et une autre fixant le nombre de sommets du polygone résultant. Ensuite, nous avons introduit un nouvel outil géométrique, nommé couverture tangentielle adaptative (ATC), reposant sur la détection des épaisseurs significatives introduites par Kerautret et al. Ces épaisseurs calculées en chaque point du contour à analyser, permettent d’estimer localement le niveau de bruit. Dans ce contexte notre algorithme de construction de la couverture tangentielle adaptative prend en considération les différents niveaux de bruits présents dans la courbe à étudier et ne nécessite pas de paramètre. Deux applications de l’ATC sont proposées en analyse d’images : d’une part la décomposition des contours d’une forme dans une image en arcs et en segments de droite et d’autre part, dans le cadre d’un projet avec une université d’Inde, autour du langage des signes et la reconnaissance des gestes de la main. Premièrement, la méthode de décomposition des courbes discrètes en arcs et en segments de droite est basée sur deux outils : la détection de points dominants en utilisant la couverture tangentielle adaptative et la représentation dans l’espace des tangentes du polygone, issue des points dominants détectés. Les expériences montrent la robustesse de la méthode w.r.t. le bruit. Deuxièmement, à partir des contours des mains extraits d’images prises par une Kinect, nous proposons différents descripteurs reposant sur des points dominants sélectionnés du contour des formes dans les images. Les descripteurs proposés, qui sont une combinaison entre descripteurs statistiques et descripteurs géométriques, sont efficaces et conviennent à la reconnaissance de gestes / In this thesis, we are interested in the study of noisy discrete curves that correspond to the contours of objects in images. We have proposed several tools to analyze them. The dominant points (points whose curvature estimation is locally maximal) play a very important role in pattern recognition and we have developed a non-heuristic, fast and reliable method to detect them in a discrete curve. This method is an improvement of an existing method introduced by Nguyen et al. The new method consists in calculating a measure of angle. We have also proposed two approaches for polygonal simplification: an automatic method minimizing, and another fixing the vertex number of the resulting polygon. Then we proposed a new geometric tool, called adaptive tangential cover ATC, based on the detection of meaningful thickness introduced by Kerautret et al. These thicknesses are calculated at each point of the contours allow to locally estimate the noise level. In this context our construction algorithm of adaptive tangential cover takes into account the different levels of noise present in the curve to be studied and does not require a parameter. Two applications of ATC in image analysis are proposed: on the one hand the decomposition of the contours of a shape in an image into arcs and right segments and on the other hand, within the framework of a project with an Indian university about the sign language and recognition of hand gestures. Firstly, the method to decompose discrete curves into arcs and straight segments is based on two tools: dominant point detection using adaptive tangential cover and tangent space representation of the polygon issued from detected dominant points. The experiments demonstrate the robustness of the method w.r.t. noise. Secondly, from the outlines of the hands extracted from images taken by a Kinect, we propose several descriptors from the selected dominant points computed from the adaptive tangential cover. The proposed descriptors, which are a combination of statistical descriptors and geometrical descriptors, are effective and suitable for gesture recognition
155

Correspondance de Jacquet-Langlands et distinction / Jacquet-Langlands correspondence and distinguishness

Coniglio-Guilloton, Charlène 11 July 2014 (has links)
Soit K/F une extension quadratique modérément ramifiée de corps locaux non archimédiens. Soit GLm (D) une forme intérieure de GLn (F) et GLμ (∆) = (Mm (D) ⊗ K)× . Alors GLμ (∆) est une forme intérieure de GLn (K), les quotients GLμ (∆)/GLm (D) et GLn (K)/GLn (F) sont des espaces symétriques. En utilisant la paramétrisation de Silberger et Zink, nous déterminons des critères de GLm (D)-distinction pour les cuspidales de niveau 0 de GLμ (∆), puis nous prouvons qu’une cuspidale de niveau 0 de GLn (K) est GLn (F)-distinguée si et seulement si son image par la correspondance de Jacquet-Langlands est GLm (D)-distinguée. Puis, dans le cas particulier où μ = 2 et m = 1, nous regardons le cas des séries discrètes de niveau 0 non cuspidales, en utilisant le système de coefficients sur l’immeuble associé à la représentation, donné par Schneider et Stuhler. / Let K/F be a tamely ramified quadratic extension of non-archimedean locally compact fields. Let GLm (D) be an inner form of GLn (F) and GLμ (∆) = (Mm (D)⊗K)× . Then GLμ (∆) is an inner form of GLn (K), the quotients GLμ (∆)/GLm (D) and GLn (K)/GLn (F) are symmetric spaces. Using the parametrization of Silberger and Zink, we determine conditions of GLm (D)-distinction for level zero cuspidal representations of GLμ (∆). We also show that a level zero cuspidal representation of GLn (K) is GLn (F)-distinguished if and only if its image by the Jacquet-Langlands correspondence is GLm (D)-distinguished. Then, we treat the case of level zero non supercuspidal representations when μ = 2 and m = 1 using the coefficient system of the Bruhat-Tits building associated to the representation by Schneider and Stuhler.
156

Contribution aux traitements des incertitudes : application à la métrologie des nanoparticules en phase aérosol. / Contribution to the treatment of uncertainties. : Application to the metrology of nanoparticles under aerosol-phase.

Coquelin, Loïc 04 October 2013 (has links)
Cette thèse a pour objectif de fournir aux utilisateurs de SMPS (Scanning Mobility Particle Sizer) une méthodologie pour calculer les incertitudes associées à l’estimation de la granulométrie en nombre des aérosols. Le résultat de mesure est le comptage des particules de l’aérosol en fonction du temps. Estimer la granulométrie en nombre de l’aérosol à partir des mesures CNC revient à considérer un problème inverse sous incertitudes.Une revue des modèles existants est présentée dans le premier chapitre. Le modèle physique retenu fait consensus dans le domaine d’application.Dans le deuxième chapitre, un critère pour l’estimation de la granulométrie en nombre qui couple les techniques de régularisation et de la décomposition sur une base d’ondelettes est décrit.La nouveauté des travaux présentés réside dans l’estimation de granulométries présentant à la fois des variations lentes et des variations rapides. L’approche multi-échelle que nous proposons pour la définition du nouveau critère de régularisation permet d’ajuster les poids de la régularisation sur chaque échelle du signal. La méthode est alors comparée avec la régularisation classique. Les résultats montrent que les estimations proposées par la nouvelle méthode sont meilleures (au sens du MSE) que les estimations classiques.Le dernier chapitre de cette thèse traite de la propagation de l’incertitude à travers le modèle d’inversiondes données. C’est une première dans le domaine d’application car aucune incertitude n’est associée actuellement au résultat de mesure. Contrairement à l’approche classique qui utilise un modèle fixe pour l’inversion en faisant porter l’incertitude sur les entrées, nous proposons d’utiliser un modèle d’inversion aléatoire (tirage Monte-Carlo) afin d’intégrer les erreurs de modèle. Une estimation moyenne de la granulométrie en nombre de l’aérosol et une incertitude associée sous forme d’une région de confiance à 95 % est finalement présentée sur quelques mesures réelles. / This thesis aims to provide SMPS (Scanning Mobility Particle Sizer) users with a methodology to compute the uncertainties associated with the estimation of aerosol size distributions. Recovering aerosol size distribution yields to consider an inverse problem under uncertainty.The first chapter of his thesis presents a review of physical models and it shows that competitive theories exist to model the physic.A new criterion that couples regularization techniques and decomposition on a wavelet basis is described in chapter 2 to perform the estimation of the size distribution.Main improvement of this work is brought when size distributions to be estimated show both broad and sharp profiles. The multi-scale approach helps to adjust the weights of the regularization on each scale of the signal. The method is then tested against common regularization and shows better estimates (in terms of the mean square error).Last chapter of this thesis deals with the propagation of the uncertainty through the data inversion process.Results from SMPS measurements are not given with any uncertainty at this time so providing end-users with an uncertainty is already a real improvement. Common approach is to consider a fixed physical model and to model the inputs (particle count) as random. We choose to consider both the physical model as well as the inputs as random to account for the model error. The result is expressed as a mean estimate of the size distribution with a 95% coverage region. The all methodology is finally tested on real measurements.
157

Estimation of Noisy Cost Functions by Conventional and Adjusted Simulated Annealing Techniques

Abodinar, Laila 03 1900 (has links)
No description available.
158

Troubles d'utilisation d'outils et de la cognition numérique après lésions vasculaires cérébrales : deux faces d'une même pièce ? / Tool use and numerical cognition disorders after cerebral vascular damage : two sides of the same coin ?

Faye, Alexandrine 12 December 2018 (has links)
L’utilisation d’outils est un trait définitoire du genre Homo. Il est donc fondamental de mieux connaître les bases cognitives et cérébrales nous permettant d’utiliser des outils. Les modèles cognitivistes actuels expliquent l’utilisation d’outils à travers l’hypothèse de l’activation d’une mémoire gestuelle (i.e., engrammes gestuels ou visuo-kinétiques, ou connaissances sensorimotrices sur la manipulation ; voir Rothi, Ochipa, & Heilman, 1991 ; Buxbaum, 2001) ? Cette hypothèse ne permet toutefois pas de comprendre l’utilisation d’outils nouveaux. Une hypothèse alternative a été établie, suggérant que toute situation d’utilisation d’outils (familiers et nouveaux) requière un raisonnement technique (e.g., Osiurak & Badets, 2016). Ce type de raisonnement, qui impliquerait le lobe pariétal inférieur gauche, nous permettrait de formuler l’action mécanique et d’évaluer les propriétés physiques des outils et des objets. Dans le cadre de cette hypothèse, l’une des finalités de cette thèse était de mieux comprendre les troubles d’utilisation d’outils chez des patients cérébro-lésés. Le présent travail s’est également porté sur l’investigation de la cognition numérique. Par ce terme, nous ne faisons pas uniquement référence au calcul mental ou à l’arithmétique. Nous englobons également ce que Dehaene et Cohen (1995) ont nommé code analogique dans leur Modèle du Triple Code. Ce code stockerait les représentations des quantités numériques au sein des lobes pariétaux. Autrement dit, il contiendrait le sens du nombre (Dehaene, 1997) permettant d’associer une étiquette symbolique (e.g., chiffre arabe) à la quantité correspondante. Au quotidien, ce serait grâce à ces représentations que nous pourrions comparer ou estimer la numérosité des ensembles d’objets. L’objectif principal de cette thèse était de rapprocher, tant au niveau cognitif que cérébral, ces deux domaines d’intérêt que sont l’utilisation d’outils et la cognition numérique. En effet, nous avons remarqué que ces deux capacités nécessitaient toutes deux un processus commun d’estimation de la magnitude (i.e., magnitude des propriétés physiques et magnitude des quantités numériques). En outre, au niveau cérébral, elles nécessitent l’activation de régions communes dans le lobe pariétal. Pour penser ce lien, nous nous sommes appuyés sur la théorie de la magnitude (ATOM) formulée par Walsh (2003). Celui-ci postule que toutes les magnitudes, c’est-à-dire toutes les dimensions qui peuvent être décrites par des relations « plus que/moins que », soient traitées au sein d’un système commun et unique dans le lobe pariétal droit (Bueti & Walsh, 2009). Nous avons supposé que la magnitude des propriétés physiques pourrait être traitée dans ce système au même titre que les magnitudes discrètes (e.g., numérosité) et continues (e.g., temps, espace). Nos résultats ont mis en évidence un trouble de l’utilisation d’outils nouveaux chez les patients LBD, sans difficultés apparentes pour estimer les propriétés physiques. Les patients RBD étaient déficitaires dans toutes les conditions évaluant la cognition numérique, contredisant les prédictions issues du TCM. Ces patients étaient également en difficulté pour estimer la longueur mais pas le poids. Comme des associations entre estimation de la longueur et du poids, et entre estimation de la longueur et cognition numérique ont été observées dans les différents groupes, nous suggérons que le système de magnitude soit divisé en sous-systèmes. Fait étonnant, nous avons trouvé une association entre utilisation d’outils et calcul approximatif chez les patients LBD supposant une tentative de compensation de l’utilisation par le calcul. Finalement, il semble que l’utilisation d’outils et la cognition numérique reposent sur des mécanismes neurocognitifs distincts, puisque les différents types de magnitudes ne paraissent pas être traités au sein d’un système commun et unique. / Tool use is a defining feature of the genus Homo. It is therefore fundamental to better understand the cognitive and cerebral bases that allow us to use tools. The current cognitivist models explain tool use through the hypothesis of an activation of gestural memories (i.e., gestural or visuo-kinetic engrams, or sensorimotor knowledge of manipulation; see Rothi, Ochipa, & Heilman, 1991; Buxbaum, 2001). This theory is unable to explain the use of novel tools. An alternative hypothesis suggests that any situation of tool use (familiar and new) requires technical reasoning (e.g., Osiurak & Badets, 2016). This reasoning, involving the left inferior parietal lobe, would enable to formulate the mechanical action and to evaluate the physical properties of tools and objects. One of the aims of this thesis was to better understand the tool use disorders in brain-damaged patients, within the framework of the technical reasoning hypothesis. This work has also focused on the investigation of numerical cognition. By this term we refer to mental arithmetic and math, but also to analogical code (see the Triple Code Model, Dehaene & Cohen, 1995). It corresponds to the representation of numerical quantities, stored in the parietal lobes. In other words, this code would contain the sense of number (Dehaene, 1997) to associate a symbolic label (e.g., Arabic digits) with the corresponding quantity. In everyday life, this representation would be critical to compare or estimate the numerosity of object sets.The main objective of this thesis was to explore, at cognitive and cerebral levels, whether links exist between both fields of interest that are tool use and numerical cognition. Indeed, we noticed that both capacities need a common process of magnitude estimation (i.e., physical properties and numerical quantity). In addition, at the cerebral level, they require the activation of common regions in the parietal lobe. We relied on the Theory Of Magnitude (ATOM) formulated by Walsh (2003). It postulates that all magnitudes, namely the dimensions described by “more than/less than” relationships (e.g., Is this stick long enough to reach a given place?), are processed within a common and unique system, in the right parietal lobe (Bueti & Walsh, 2009). We assumed that the magnitude of physical properties could be processed in this system as well as the discrete (e.g., numbers) and continuous (e.g., time, space) magnitudes. Our results highlighted a disorder of novel tool-use in LBD patients, who nevertheless had no difficulty in estimating physical properties. The RBD patients were impaired in all conditions assessing the numerical cognition, refuting the predictions derived from TCM. They were also impaired in the estimation of the length but not of the weight. As associations between estimation of length and of weight, and between estimation of length and numerical cognition have been observed in the different groups, we suggest that the magnitude system be divided into subsystems. Surprisingly, we found an association between tool use and approximate calculation in LBD patients assuming an attempt to compensate tool use by calculation. Finally, it seems that tool use and numerical cognition rely on distinct neurocognitive mechanisms since the different types of magnitudes might not be processed within a common and unique system of magnitude
159

Analyse numérique et expérimentale de la mise en forme par estampage des renforts composites pour applications aéronautiques / Analyse numérique et expérimentale de la mise en forme par estampage des renforts composites pour applications aéronautiques

Nasri, Mondher 23 November 2018 (has links)
Ces travaux de thèse s’inscrivent dans un thème de recherche portant sur l’optimisation de la phase de conception et la préparation de la fabrication par estampage de pièces de formes complexes. Le préformage des renforts tissés secs est un enjeu important pour plusieurs procédés de production de pièces en matériaux composites tel que, par exemple, le procédé RTM (Resin Transfer Molding). Au cours de cette phase, la préforme est soumise à des déformations importantes. La connaissance du comportement du tissu sec est alors un enjeu majeur en vue de l’optimisation des procédés de mise en forme. Pour mettre en œuvre les renforts tissés, il est nécessaire de tenir compte de leurs caractéristiques intrinsèques aux différentes échelles, de leurs très grandes déformations en cisaillement et du comportement fortement orienté de ces matériaux. Un point important réside dans la détermination des orientations des renforts après formage. Face à la complexité de mise au point expérimentale de la mise en forme des renforts tissés, la simulation est un outil important pour l’optimisation de conception de pièces composites. Dans ce travail, une nouvelle approche hybride discrète non linéaire, basée sur l’association d’éléments continus hypoélastiques (comportement en cisaillement non linéaire) avec des connecteurs spécifiques de comportement non linéaire a été abordée. Elle permet de prédire les contraintes au niveau des fibres et de déterminer avec plus de précision, les angles de cisaillement en se basant sur la modification de l’orientation en grande déformation. En outre, elle permet d’analyser et de prévoir le comportement global du tissu à partir de sa structure interne. Le nombre de paramètres à identifier est faible et le temps de calcul est raisonnable. Cette approche a été programmée via une routine VUMAT et implémentée dans le code de calcul élément fini ABAQUS/Explicit. L’identification et la validation du modèle ont été effectuées en utilisant des essais de caractérisation standard des tissus. Les résultats de mise en forme des renforts tissés ont été comparés à des résultats expérimentaux. / This thesis is part of a research theme dealing with the optimization of the design process and thepreparation for a manufacturing process by stamping of complex shaped parts. The preforming ofdry woven reinforcements is one of the most important steps during production of complexcomposite material parts such as RTM (Resin Transfer Molding) process. In this stage, thedeformation of preform (fabric) is quite important. Understand the woven behavior is an essentialstep in the study of shaping processes. In order to use woven reinforcements to produce industrialparts, it is compulsory to take into account their intrinsic characteristics at different scales, theirvery large shear deformations and the high oriented behavior of these materials. Further more, thedetermination of the reinforcement orientations after forming is an important task. The complexityof the experimental development of the shaping of woven reinforcements makes simulation animportant tool for optimizing the design of composite parts. This work presented a new non-lineardiscrete hybrid approach, based on the association of hypoelastic continuous elements (non-linearshear behavior) with specific non-linear behavior connectors. This approach able to predict thestresses at the level of the fiber to determine with more precision, the shear angles based on themodification of the orientation in large de formation. In addition, it allows the overall behavior of thetissue to be analyzed and predicted from its internal structure. The number of parameters to be identified is limited and the calculation time is reasonable. This approach was implemented in the Finite element code ABAQUS/Explicit via a VUMAT routine code. The identification and validationof the model was performed using standard fabric characterization tests. The woven reinforcement forming results were compared with experimental results.
160

Décomposition de Hodge-Helmholtz discrète / Discrete Helmholtz-Hodge Decomposition

Lemoine, Antoine 27 November 2014 (has links)
Nous proposons dans ce mémoire de thèse une méthodologie permettant la résolution du problème de la décomposition de Hodge-Helmholtz discrète sur maillages polyédriques. Le défi de ce travail consiste à respecter les propriétés de la décomposition au niveau discret. Pour répondre à cet objectif, nous menons une étude bibliographique nous permettant d'identifier la nécessité de la mise en oeuvre de schémas numériques mimétiques. La description ainsi que la validation de la mise en oeuvre de ces schémas sont présentées dans ce mémoire. Nous revisitons et améliorons les méthodes de décomposition que nous étudions ensuite au travers d'expériences numériques. En particulier, nous détaillons le choix d'un solveur linéaire ainsi que la convergence des quantités extraites sur un ensemble varié de maillages polyédriques et de conditions aux limites. Nous appliquons finalement la décomposition de Hodge-Helmholtz à l'étude de deux écoulements turbulents : un écoulement en canal plan et un écoulement turbulent homogène isotrope. / We propose in this thesis a methodology to compute the Helmholtz-Hodge decomposition on discrete polyhedral meshes. The challenge of this work isto preserve the properties of the decomposition at the discrete level. In our literature survey, we have identified the need of mimetic schemes to achieve our goal. The description and validation of our implementation of these schemes are presented inthis document. We revisit and improve the methods of decomposition we then study through numerical experiments. In particular, we detail our choice of linear solvers and the convergence of extracted quantities on various series of polyhedral meshes and boundary conditions. Finally, we apply the Helmholtz-Hodge decomposition to the study of two turbulent flows: a turbulent channel flow and a homogeneous isotropic turbulent flow.

Page generated in 0.0571 seconds