31 |
Approche variationnelle de la mécanique de la rupture avec plasticitéAlessi, Roberto 17 July 2013 (has links) (PDF)
Dans le cadre des systèmes rate-independent, un modèle de plasticité avec endommagement, visant à la description des processus de rupture ductile, est proposé et étudié par une formulation variationnelle. Une fissure cohésive, ou ductile, se produit lorsque le champ de déplacement subit une discontinuité, tout en étant encore associé à une contrainte de traction non nulle. Prévoir et décrire efficacement les phénomènes de rupture ductile est une tâche cruciale pour de nombreux matériaux d'ingénierie (métaux, polymères, ...), comme en témoigne le grand intérêt de la communauté scientifique sur le sujet. Modèles d'endommagement à gradient ont été fructueusement utilisé pour la description des ruptures fragiles: dans ce cas, une fois que le niveau d'endommagement atteint sa valeur maximale, une fissure est créée lorsque la traction entre les deux faces opposées tombe immédiatement à zéro. D'autre part, le modèle de plasticité parfaite pourrait décrire la formation de la glisse plastique au niveau constant de contrainte. Par conséquent, afin de décrire les effets typiques d'une rupture cohésive, l'idée principale consiste à coupler, par une approche variationnelle, le modèle de plasticité parfaite et un modèle d'endommagement à gradient. L'utilisation d'une approche variationnelle se traduit par une formulation faible et sans dérivées, fournit des moyens efficaces pour traiter les notions de bifurcation et de stabilité, est intrinsèquement discret et indique une manière naturelle et rationnelle pour définir des algorithmes numériques efficaces. L'incorporation des effets d'endommagement dans un modèle de plasticité n'est pas une idée nouvelle. Néanmoins, le modèle proposé présente de nombreux aspects originaux comme le couplage entre la plasticité et l'endommagement et la façon avec laquelle l'évolutions des variables se trouvent. L'approche variationnelle s'appuie simplement sur trois concepts: une condition d'irréversibilité, une condition de stabilité globale, locale ou différentielle et le bilan énergétique. Le modèle résultant possède une grande flexibilité dans les réponses possibles couplées, en fonction des paramètres constitutifs. Ces diverses réponses sont d'abord examinées avec un test d'une barre unidimensionnelle en traction quasi-statique en assumant une évolution homogène qui met en évidence les principales caractéristiques du modèle. La discussion sur la stabilité des solutions homogènes conduit à l'existence d'une longueur de la barre critique qui à son tour dépend de la longueur interne caractéristique du matériel. En considérant des barres plus longues par rapport à cette valeur critique, on démontre que la réponse homogène devient instable. Par conséquence une localisation doit apparaitre dans la barre. Une construction de localisation est ensuite proposée, qui prend explicitement en compte la condition d'irréversibilité sur le champ d'endommagement. Ceci permet d'étudier l'évolution non homogène et la réponse globale. Il s'avère que, en général, une fissure cohésive apparaît au centre de la zone d'endommagement avant la rupture. A ce stade, la déformation plastique se localise comme une mesure de Dirac qui devient responsable de cette fissure cohésive. On obtient la loi cohésive associée en termes de paramètres du modèle et retrouve la loi de fracture cohésive postulée par Barenblatt. Enfin, un schéma de résolution numérique est proposé, qui est basé sur un algorithme de minimisation alternée, et mis en œuvre par une librairie d'éléments finis uniquement pour le test de barre en traction. Même si l'espace d'éléments finis adoptés ne peut pas incorporer les discontinuités, les résultats numériques s'accordent parfaitement avec les solutions analytiques. Néanmoins, les développements futurs visent à étendre les simulations dans un cadre à deux / trois dimensions et de tester une méthode d'éléments finis généralisée.
|
32 |
Applications des méthodes multigrilles à l'assimilation de données en géophysiqueNeveu, Emilie 31 March 2011 (has links) (PDF)
Depuis ces trente dernières années, les systèmes d'observation de la Terre et les modèles numériques se sont perfectionnés et complexifiés pour nous fournir toujours plus de données, réelles et numériques. Ces données, de nature très diverse, forment maintenant un ensemble conséquent d'informations précises mais hétérogènes sur les structures et la dynamique des fluides géophysiques. Dans les années 1980, des méthodes d'optimisation, capables de combiner les informations entre elles, ont permis d'estimer les paramètres des modèles numériques et d'obtenir une meilleure prévision des courants marins et atmosphériques. Ces méthodes puissantes, appelées assimilation variationnelle de données, peinent à tirer profit de la toujours plus grande complexité des informations de par le manque de puissance de calcul disponible. L'approche, que nous développons, s'intéresse à l'utilisation des méthodes multigrilles, jusque là réservées à la résolution de systèmes d'équations différentielles, pour résoudre l'assimilation haute résolution de données. Les méthodes multigrilles sont des méthodes de résolution itératives, améliorées par des corrections calculées sur des grilles de plus basses résolutions. Nous commençons par étudier dans le cas d'un modèle linéaire la robustesse de l'approche multigrille et en particulier l'effet de la correction par grille grossière. Nous dérivons ensuite les algorithmes multigrilles dans le cadre non linéaire. Les deux types d'algorithmes étudiés reposent d'une part sur la méthode de Gauss Newton multigrille et d'autre part sur une méthode sans linéarisation globale : le Full Approximation Scheme (FAS). Ceux-ci sont appliqués au problème de l'assimilation variationnelle de données dans le cadre d'une équation de Burgers 1D puis d'un modèle Shallow-water 2D. Leur comportement est analysé et comparé aux méthodes plus traditionnelles de type incrémentale ou multi-incrémentale.
|
33 |
Contributions aux méthodes variationnelles pour le calcul du flot optique: prise en compte des informations spatiales et temporellesBéréziat, Dominique 24 November 2010 (has links) (PDF)
Dans ces travaux nous nous intéressons aux formulations variationnelles pour résoudre des problèmes mal posés du traitement d'images. Nous nous focalisons principalement sur le calcul du flot optique dans les séquences d'images ainsi que la reconstruction 3D à partir d'une séquence d'images 2D. Comme ces problèmes sont mal posés au sens où ils sont sous-contraints, on utilise souvent des techniques de régularisation spatiale pour obtenir l'unicité de la solution. Nous nous proposons d'introduire d'autres contraintes dans la formulation du problème pour limiter l'importance de cette régularisation, voire pour la supprimer complètement. Ces contraintes sont dérivées des informations a priori sur les conditions expérimentales. Dans un premier chapitre, nous examinons un cas d'étude tiré de l'imagerie biologique: il s'agit d'acquisitions multi-focales de vésicules géantes, nous en exploitons alors la topologie sphérique pour divers problèmes tels que le suivi, la segmentation, l'estimation du flot optique et la reconstruction 3D. Ces contraintes sont donc d'ordre spatiales. Dans un second chapitre, nous étudions la possibilité de tirer partie de l'information temporelle présente dans les séquences d'images. Cette information est alors modélisée par une équation d'évolution. La difficulté à lever est de résoudre conjointement cette équation et les contraintes qui dérivent du problème de traitement d'images. Nous utilisons alors le formalisme de l'assimilation variationnelle de données dans une formulation dite ''faible'' car nous attribuons une erreur sur l'équation d'évolution. Bien que l'équation d'évolution décrive imparfaitement la dynamique, nous montrons que l'on peut résoudre le problème mal posé de l'estimation du flot optique sans recourir à la régularisation. Nous montrons également que lorsque les informations sont manquantes, il est possible de fournir une estimation réaliste du flot optique, ceci permet de gérer les cas difficiles d'occultations. Enfin, dans un dernier chapitre, nous résumons des travaux parallèles portant sur la résolution variationnelle de problèmes non linéaires de traitement d'images, des travaux sur l'occupation des sols en imagerie satellitaire haute définition et enfin sur le suivi multi-cibles.
|
34 |
Un résultat de convergence des algorithmes parallèles asynchrones. Application aux opérateurs maximaux fortement monotonesBenahmed, Abdenasser 28 July 2005 (has links) (PDF)
Dans ce travail, nous avons considéré des algorithmes parallèles asynchrones associés à des applications non linéaires non-expansives définies sur Rn. Nous avons montré le résultat de convergence concernant ces algorithmes vers un point fixe de ces applications relativement à la norme uniforme sur Rn. Nous avons ensuite montré comment ces algorithmes sont bien adaptés au calcul de la solution d'un opérateur maximal fortement monotone défini sur Rn et au calcul des solutions d'un opérateur maximal monotone dans le cas de l'algorithme parallèle synchrone de Jacobi. Ensuite, nous avons appliqué ces résultats aux calculs du minimum de fonctionnelles, du point selle, de la solution des programmes convexes et enfin de la solution du problème de l'inégalité variationnelle.
|
35 |
La théorie variationnelle des rayons complexes version Fourier : application aux problèmes tridimensionnels de vibro-acoustiqueKovalevsky, Louis 09 June 2011 (has links) (PDF)
La Théorie Variationnelle des Rayons Complexes (TVRC) est une méthode ondulatoire adaptée à la résolution de problèmes de vibrations dans le domaine des moyennes fréquences. Elle utilise une formulation faible du problème qui permet d'utiliser n'importe quelles fonctions de forme qui vérifient l'équation d'équilibre à l'intérieur du sous domaine. Ainsi la solution peut être approximée par une répartition intégrale d'ondes planes, cette approche est particulièrement efficace en moyenne fréquence et conduit a un très bon taux de convergence de la méthode. Dans les travaux précédents, l'amplitude des ondes planes était discrétisée par une fonction constante par morceaux. Dans cette thèse, une nouvelle forme de discrétisation est proposée, basée sur les séries de Fourier. L'extension aux problèmes tridimensionnels est directe grâce à l'utilisation des harmoniques sphériques. Cette nouvelle approche permet d'améliorer l'efficacité et la robustesse de la méthode grâce notamment à un schéma d'intégration semi-analytique. Cette nouvelle version de la TVRC est alors capable de traiter des problèmes d'une complexité industrielle, et de résoudre des problèmes à des fréquences relativement élevées.
|
36 |
Formalisation et automatisation de YAO, générateur de code pour l'assimilation variationnelle de donnéesNardi, Luigi 08 March 2011 (has links) (PDF)
L'assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d'un modèle numérique direct, en minimisant une fonction de coût mesurant l'écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d'observation). Lors de la mise en œuvre de l'AD 4D-Var, il faut faire face à des problèmes d'implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d'aider au développement d'applications d'AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d'un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d'implémenter divers scénarios pour la mise en œuvre de sessions d'assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d'abord formalisé d'une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l'automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d'un parcours "optimal" de l'ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L'objectif à moyen terme, des résultats de cette thèse, est d'établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l'assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles.
|
37 |
Modélisation et simulation de l'initiation et de la propagation de l'endommagement dans les matériaux quasi-fragiles : Apports de l'approche variationnelleSicsic, Paul 11 October 2013 (has links) (PDF)
Cette thèse explore l'utilisation de modèles d'endommagement pour prédire la nucléation et la propagation de la rupture de manière cohérente. Les résultats sont basés sur la donnée d'une énergie, qui définit le matériau, et d'une loi d'évolution construite sur un principe de stabilité, de conservation d'énergie et d'irreversibilité. Dans un premier temps, on étudie l'initiation de fissures dans une structure contenant un coin. Le chargement limite se réduit à trois composantes : un facteur d'échelle, une composante géométrique fonction de l'angle, et une composante propre au modèle. Ces modèles donnent naissance à des fissures dont le profil est caractéristique et dont la largeur est de l'ordre de la longeur interne du modèle. Cette dernière étant petite devant les dimensions de la structure, dans le cadre d'une séparation d'échelles et en utilisant un principe de minimum local, on montre que le modèle d'endommagement considéré converge vers la loi de propagation de Griffith. Ce résultat fondamental étend ceux existants, basés sur la minimisation globale, mais avec une base physique plus forte. Une étude approfondie donne une meilleure compréhension de la phase d'initiation dans le cas d'un choc thermique et on établit la propriété globale qu'est l'éemergence d'une solution periodique. Ces résultats s'appuient sur le cadre variationnel, les propriétées seraient probablement perdues pour un modèle d'endommagement développé dans un autre cadre. Dans un dernier temps, les résultats numériques basés sur un algorithme de minimisation alternée capturent une initiation contrôlée par la contrainte critique, ainsi que la propagation des fissures controlée par la densité d'énergie de fissuration. Des effets d'échelle en deux et trois dimensions sont mis en évidence. Les simulations sont alors confrontées à des résultats expérimentaux.
|
38 |
Scene Flow Estimation from RGBD Images / Estimation du flot de scène à partir des images RGBDQuiroga Sepúlveda, Julián 07 November 2014 (has links)
Cette thèse aborde le problème du calcul de manière fiable d'un champ de mouvement 3D, appelé flot de scène, à partir d'une paire d'images RGBD prises à des instants différents. Nous proposons un schéma d'estimation semi-rigide pour le calcul robuste du flot de scène, en prenant compte de l'information de couleur et de profondeur, et un cadre de minimisation alternée variationnelle pour récupérer les composantes rigides et non rigides du champ de mouvement 3D. Les tentatives précédentes pour estimer le flot de scène à partir des images RGBD étaient des extensions des approches de flux optique, et n'exploitaient pas totalement les données de profondeur, ou bien elles formulaient l'estimation dans l'espace 3D sans tenir compte de la semi-rigidité des scènes réelles. Nous démontrons que le flot de scène peut ^etre calculé de manière robuste et précise dans le domaine de l'image en reconstruisant un mouvement 3D cohérent avec la couleur et la profondeur, en encourageant une combinaison réglable entre rigidité locale et par morceaux. En outre, nous montrons que le calcul du champ de mouvement 3D peut être considéré comme un cas particulier d'un problème d'estimation plus général d'un champ de mouvements rigides à 6 dimensions. L'estimation du flot de scène est donc formulée comme la recherche d'un champ optimal de mouvements rigides. Nous montrons finalement que notre méthode permet d'obtenir des résultats comparables à l'état de l'art. / This thesis addresses the problem of reliably recovering a 3D motion field, or scene flow, from a temporal pair of RGBD images. We propose a semi-rigid estimation framework for the robust computation of scene flow, taking advantage of color and depth information, and an alternating variational minimization framework for recovering rigid and non-rigid components of the 3D motion field. Previous attempts to estimate scene flow from RGBD images have extended optical flow approaches without fully exploiting depth data or have formulated the estimation in 3D space disregarding the semi-rigidity of real scenes. We demonstrate that scene flow can be robustly and accurately computed in the image domain by solving for 3D motions consistent with color and depth, encouraging an adjustable combination between local and piecewise rigidity. Additionally, we show that solving for the 3D motion field can be seen as a specific case of a more general estimation problem of a 6D field of rigid motions. Accordingly, we formulate scene flow estimation as the search of an optimal field of twist motions achieving state-of-the-art results.STAR
|
39 |
Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistryHaussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
|
40 |
Spanglish. Les variations linguistiques dans l’espagnol des États-Unis / Spanglish. Linguistic variations in United States SpanishLemus Sarmiento, Aura 16 November 2013 (has links)
Les situations de contact de populations impliquent des dynamiques sociales, culturelles et linguistiques, dont les protagonistes ne sortent pas indemnes. C’est le cas des Hispaniques aux États-Unis, dont le contact avec la culture états-unienne a favorisé l'apparition d’une culture mixte et d’un phénomène linguistique connu sous le nom de spanglish. Le spanglish évoque tour à tour des questions linguistiques, culturelles, sociales et politiques, et l’objectif de ce travail est d’élucider ses implications dans le domaine de la linguistique. Ainsi, cette étude s’intéresse aux transferts de l’anglais dans l’espagnol états-unien et à la manière dont ces variations répondent aux paramètres du système. L’analyse menée dans ce travail s’inscrit dans la suite des études linguistiques qui se sont intéressés à l’unicité du signe. Elle part ainsi du principe que les variations survenues dans l’espagnol états-unien sont signifiantes ; leur apparition dévoile des dynamiques inhérentes au système et remet en question le caractère immuable des facteurs culturels et linguistiques qui définissent la civilisation hispanique. / Situations of population contact imply social, cultural and linguistic dynamics from which the protagonists never remain unscathed. This is the case of Hispanics in the United States, whose contact with the US culture favored the development of a mixed culture and a linguistic phenomenon known as Spanglish. Spanglish evokes concurrently linguistic, social, cultural and political questions and the purpose of the present work is to elucidate its implications in linguistics. This study focuses on transfers from English into United States Spanish, and on how these variations obey the system’s parameters. The present analysis is the latest in a series of linguistic studies focused on the oneness of the sign. It is based on the principle that variations that appeared in United States Spanish are significant ; their emergence reveals the system’s inherent dynamics and challenges the immutable nature of the cultural and linguistic factors that define the Hispanic civilization.
|
Page generated in 0.1027 seconds