• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 29
  • 1
  • 1
  • Tagged with
  • 75
  • 34
  • 19
  • 16
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Développement d’un outil numérique personnalisable pour l’évaluation de l’inconfort et de la fatigue du passager d’avion / Development of a customizable digital tool for assessing aircraft passenger discomfort and fatigue

Savonnet, Léo 09 March 2018 (has links)
La position assise peut être source d'inconfort, particulièrement en avion lors des vols longcourriers. Cet inconfort provient en partie de facteurs mécaniques liés à l'interaction entre le siège et le passager. Disposer de modèles biomécaniques pouvant simuler cette interaction et estimer ces facteurs permettrait d'optimiser le design du siège d'avion lors de sa phase de conception afin d'améliorer son ergonomie et réduire l'inconfort du passager. L'objectif de cette thèse est de développer un outil numérique permettant d'estimer les facteurs mécaniques menant à l'inconfort et la fatigue des passagers. Cet outil combine deux différents types de modèles. Un modèle éléments finis permettant de simuler la déformation des tissus sous-cutanés et un modèle corps rigides permettant d'estimer les efforts musculaires et articulaires. Une méthode de couplage des deux modèles a été développée permettant ainsi de simuler une position à partir de laquelle l'ensemble des facteurs d'inconfort sont estimés. Un modèle éléments finis a été développé après avoir fait une étude de sensibilité sur les différents paramètres de modélisation (maillage, géométrie, lois matériaux). Un modèle corps rigides développé par Anybody a été utilisé pour être couplé avec ce modèle éléments finis. Cette méthode de couplage itératif entre les deux modèles a permis de réaliser un ajustement de la posture initiale dans le siège. Afin de simuler l'ensemble de la population et sa grande diversité morphologique, un modèle surfacique paramétrique a été développé à partir de données 3d expérimentales, ce modèle surfacique permettant ainsi d'obtenir un modèle éléments finis représentant tout type d'anthropométrie. Différents processus de validation ont été effectués à l'aide de données et d'un modèle « sujetspécifique ». Les données de pression externe simulées ont été comparées à des données expérimentales. Une étude expérimentale sous IRM ouvert a permis de mesurer les déformations des différents tissus sous-cutanés afin de les comparer aux données simulées. Un outil numérique est donc aujourd'hui disponible pour simuler l'impact du siège sur les passagers, cependant de futures études devraient se concentrer d'une part sur les modèles en étudiant la variation morphologique interne inter individus, le positionnement dans le siège ainsi que l'influence du temps sur les tissus mous et d'autres part sur la définition de critères d'inconfort et de fatigue (inconfort considéré sur des temps longs représentatifs d'un vol long-courrier) / The sitting position could be a source of discomfort, in particular in a long haul flight. This discomfort comes partially from mechanical factors linked to the interaction between the passenger and the seat. Having biomechanical models which can simulate this interaction and estimate these factors would allow optimizing the seat design in its conception phase to improve it ergonomic quality and reduce the passenger discomfort. The objective of this thesis is to develop a digital tool allowing estimating the mechanical factors leading to discomfort and fatigue of the passenger. This tool assemble two kinds of models, a finite element model allowing to simulate the sub dermal tissue deformation and a multibody model allowing to estimate the muscular and joint forces. A coupling method of the two models have been developed allowing simulating a position from where the all discomfort factors are estimated. A finite element model has been developed after having done a sensitivity analysis on the different model parameters (mesh, geometry, material law). A multibody model developed by Anybody was used to be associated with this finite element model. This iterative coupling method between the two models allowed realizing an adjustment of the initial posture in the seat. To simulate the whole population and is large morphological diversity, a parametric shape model was developed from 3d experimental data, this shape model allowing to obtain a finite element model representing any kind of anthropometry. Different validation processes have been realized with experimental data and subject-specific model. The simulated extern pressures were compared to experimental data. An experimental study done in an open MRI allowed to measure the different subcutaneous tissue to compare it to the simulated data. A digital tool is consequently now available to simulate the impact of the seat on the passenger, however future studies should focus on the one hand on the models studying the internal morphological variations between people, the person positioning in the seat, the time influence on the soft tissue and on the other hand on the discomfort and fatigue criteria
32

Méthodologies de visualisation 3D en imagerie médicale

Tang, Hui 13 December 2008 (has links) (PDF)
Ce mémoire de Thèse se focalise sur certains des problèmes non résolus en visualisation scientifique. Plus particulièrement nous avons pris une problématique médicale bien spécifique, la chirurgie conservatrice des tumeurs rénales, comme cadre applicatif pour l'élaboration de nouvelles solutions incluant des techniques de recalage de données, de segmentation et de visualisation 3D.<br />L'uroscan fournit 3 à 4 volumes présentant une information complémentaire sur l'anatomie rénale. La première étape consiste à mettre en correspondance ces différents volumes par une technique de recalage rigide du volume rénal basée sur la maximisation locale de l'information mutuelle.<br />L'idée principale de ce mémoire de Thèse est de proposer une visualisation de l'anatomie rénale directement à partir de ces données fusionnées. Pour cela, une technique de classification statistique des données basée sur une modélisation de la distribution des valeurs par un mélange de Gaussiennes incluant une information spatiale a été développée. Différentes techniques de visualisation 3D ont ensuite été adaptées à la représentation de cette information et comparées entre-elles.<br />Les techniques de représentation de surfaces peuvent être accélérées par des procédures de simplifications de maillages. Dans ce cadre, nous avons proposé deux métriques de description de la surface basées sur les moments géométriques et pouvant être incluses dans une telle procédure.<br />Ces différentes solutions, même si elles ont été développées dans le cadre de la représentation des structures anatomiques rénale, sont suffisamment génériques pour être utilisées ou adaptées à d'autres organes ou à d'autres applications médicales.
33

Segmentation des tumeurs du foie sur des images CT

Pescia, Daniel 07 January 2011 (has links) (PDF)
Cette thèse porte sur la segmentation des tumeurs du foie sur des images tomodensitométriques. Ce sujet présente un intérêt certain pour le domaine médical puisque les médecins pourraient ainsi bénéficier d'une méthode reproductible et fiable pour segmenter de telles lésions. Une segmentation précise des tumeurs du foie permettrait en effet d'aider les médecins lors de l'évaluation des lésions (détection, localisation, quantification), du choix d'un traitement, et de sa planification. Les méthodes développées dans ce cadre doivent faire face à trois principales difficultés scientifiques: (i) la grande variabilité de l'apparence et de la forme des structures recherchées, (ii) leur ressemblance avec les régions environnantes et finalement (iii) la faiblesse du rapport signal sur bruit observé dans les images dans lesquelles on travaille. Ce problème est abordé dans une optique d'application clinique et est résolu en suivant une approche en deux temps commençant par le calcul d'une enveloppe du foie, avant de segmenter les tumeurs présentes à l'intérieur de cette enveloppe. Nous commençons par proposer une approche basée sur des atlas pour le calcul d'une enveloppe des foies pathologiques. Tout d'abord, un outil de traitement d'image a été développé pour calculer une enveloppe autour d'un masque binaire, afin d'essayer d'obtenir une enveloppe du foie à partir d'une estimation du parenchyme sain. Un nouvel atlas statistique a ensuite été introduit, puis utilise pour la segmentation à travers son recalage difféomorphique avec une image. La segmentation est finalement réalisée en combinant les coûts d'appariement des images avec des a priori spatiaux et d'apparence, le tout en suivant une approche multi échelle basée sur des MRFs. La deuxième étape de notre approche porte sur la segmentation des lésions continues dans ces enveloppes en combinant des techniques d'apprentissage par ordinateur avec de méthodes basées sur des graphes. Un espace d'attributs approprié est tout d'abord défini en considérant des descripteurs de textures déterminés à travers des filtres de diverses tailles et orientations. Des méthodes avancées d'apprentissage automatique sont ensuite utilisées pour déterminer les attributs pertinents, ainsi que l'hyperplan qui sépare les voxels tumoraux des voxels correspondant à des tissus sains dans cet espace d'attributs. Pour finir, la segmentation est réalisée en minimisant une énergie sous forme de MRF, laquelle combine les probabilités d'appartenance de chaque voxel à une classe, avec celles de ses voisins. Des résultats prometteurs montrent les potentiels de notre méthode.
34

Une approche statistique multi-échelle au recalage rigide de surfaces : Application à l'implantologie dentaire

Granger, Sébastien 07 April 2003 (has links) (PDF)
Le principal sujet de cette thèse est la mise au point d'algorithmes de recalage rigide de surfaces au sein de VirtualScope, un système de guidage per-opératoire dédié au percement des axes des implants dentaires. Elle est basée sur une approche purement statistique, qui, en essayant de maximiser la vraisemblance calculée à partir d'une modélisation explicite du bruit, permet de justifier l'utilisation de l'ICP pour le recalage d'amers géométriques, puis de proposer l'ICP/EM multi-échelles, un peu plus précis et surtout beaucoup plus robuste et rapide. De nouveaux modèles de bruits sont proposés pour adapter l'algorithme aux surfaces échantillonnées et bruitées. La prédiction théorique de l'incertitude est abordée, et permet en particulier de guider l'acquisition des données. L'étude expérimentale très poussée des performances de l'algorithme permet de régler efficacement ses paramètres, mettre au point des systèmes de sécurité, et garantir ainsi un fonctionnement parfaitement satisfaisant au sein de VirtualScope. La seconde partie de cette thèse aborde plus généralement le problème de la modélisation statistique des courbes et surfaces échantillonnées bruitées. En regroupant les travaux sur la saillance et le vote de tenseurs, elle présente la notion de champs de vote, qui permet d'exprimer la probabilité d'un élément de la courbe ou surface connaissant un autre élément. Elle donne des exemples rudimentaires mais facilement programmables de champs de votes, qui prennent en compte la forme de la surface et la façon dont les points ont été échantillonnés et bruités. Elle montre comment les appliquer avec succès au problème du recalage, puis indique comment ils pourraient servir pour dériver des algorithmes bayésiens pour de nombreuses autres applications concernant les courbes et surfaces. Ces travaux seraient alors susceptibles de déboucher sur la mise au point d'un canevas statistique et multi-échelles commun à toutes ces méthodes.
35

Conception d'accéléromètres multiaxiaux avec architectures simpliciales pour l'estimation de la pose et du visseur instantané d'un corps rigide

Cardou, Philippe 22 February 2008 (has links) (PDF)
Les assemblages d'accéléromètres sont utilisés entre autres en biomécanique afin d'estimer le champ des accélérations d'un corps rigide et, de là, les variables cinématiques décrivant les déplacements dudit corps rigide. On remarque toutefois que le progrès de cette technologie a été limité par celui des gyroscopes micro-usinés, lesquels sont plus précis que les assemblages d'accéléromètres dans la plupart des applications. Le but des recherches décrites dans cette thèse est d'améliorer la précision des estimés de vitesse angulaire produits par les assemblages d'accéléromètres. Les développements proposés portent sur deux aspects : une classe d'architectures mécaniques d'accéléromètres est proposée ayant pour but de réduire la sensibilité des capteurs aux accélérations transverses, des algorithmes robustes étant également proposés afin d'estimer la vitesse angulaire à partir de certaines ou de toutes les composantes du champ d'accélération du corps rigide. La classe d'accéléromètres proposée est inspirée des architectures de machines à cinématique parallèle (MCP) en assimilant la masse d'épreuve et le support d'un accéléromètre à l'organe terminal et à la base d'une MCP, respectivement. Une caractéristique commune aux MCP proposées ici est que leurs organes terminaux et leurs bases sont reliées par n+1 chaînes cinématiques simples, n = 1, 2, 3 étant leurs nombres de directions sensibles respectifs. Pour cette raison, on appelle accéléromètres simpliciaux multiaxiaux les capteurs résultant de ces MCP. Une version microusinée de l'accéléromètre simplicial biaxial est conçue, fabriquée et testée. En outre, la théorie permettant l'estimation de la vitesse angulaire d'un corps rigide à partir de mesures d'accélérations est réexaminée. De cette révision, quatre algorithmes permettant l'estimation de la vitesse angulaire à partir de mesures d'accélération centripète sont proposés. Enfin, un algorithme permettant l'estimation de la vitesse angulaire d'un corps rigide à partir de mesures d'accélérations centripète et tangentielle et reposant sur le filtrage de Kalman est proposé.
36

Méthodes Level-Set et pénalisation pour le calcul d'interactions fluide-structure

Bost, Claire 16 October 2008 (has links) (PDF)
Ce travail est consacré à l'étude de problèmes de couplage fluide-structure par des méthodes de frontière immergée et de pénalisation.<br />Dans une première partie nous abordons les différents aspects de la simulation numérique de modèles couplant un fluide et une structure (formulation de l'écoulement, localisation de la structure et prise en compte des interactions), puis nous présentons les modèles sur lesquels nous nous concentrons dans la suite: fluide incompressible/membrane élastique et fluide incompressible/solide rigide.<br />Dans la deuxième partie nous étudions la stabilité numérique d'une formulation level-set de la méthode de frontière immergée pour le couplage fluide/membrane élastique. Une nouvelle condition de stabilité pour ce modèle est dérivée par analyse d'un modèle linéarisé 1D, puis validée numériquement en 2D.<br />Enfin la troisième partie est consacrée à l'analyse numérique d'une méthode de pénalisation pour le couplage fluide/solide rigide, dans laquelle la vitesse rigide est calculée par projection. Nous montrons la convergence du problème pénalisé vers une formulation faible du couplage, et illustrons ce résultat sur des tests numériques en sédimentation.
37

Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM

Hamrouni-Chtourou, Sameh 11 July 2012 (has links) (PDF)
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l'analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s'avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
38

Modélisation de la stabilité des blocs rocheux isolés sur la paroi des excavations souterraines avec prise en compte des contraintes initiales et du comportement non linéaire des joints

Ghazal, Rima 26 February 2013 (has links) (PDF)
L'instabilité des blocs situés à la surface des excavations souterraines est un problème courant dans les milieux rocheux fracturés. Comme les méthodes exactes prenant en compte tous les blocs et leurs interactions sont très lourdes, l'approche des Blocs Isolés est souvent adoptée. Elle consiste à étudier chaque bloc en considérant qu'il est rigide et que le reste de la masse rocheuse est rigide et fixe. Néanmoins, aucune des méthodes existantes adoptant cette approche ne prend en compte de façon rigoureuse les contraintes initiales et le comportement des joints. Dans cette thèse, on développe une nouvelle méthode qui apporte des améliorations importantes aux méthodes conventionnelles de Blocs Isolés. Connaissant les contraintes initiales, on rend compte du processus d'excavation par le déchargement de la face libre du bloc. Les efforts sur les faces du bloc en contact avec la roche sont alors modifiés en respectant l'équilibre des forces et des moments, la loi de comportement des joints et le mouvement de corps solide du bloc. On aboutit ainsi à un système linéaire où les seules inconnues sont les vecteurs translation et rotation du bloc. Deux modèles sont proposés : le premier considère un comportement linéaire élastique des joints et, par conséquent, la stabilité est évaluée a posteriori. Le deuxième modèle, plus pertinent, considère un comportement hyperbolique des joints dans la direction normale et élastoplastique dans la direction tangentielle avec prise en compte de la dilatance. La méthode numérique adoptée pour la résolution du problème non linéaire est une intégration explicite dans le temps cinématique avec des pas de déchargement constants. La technique d'intégration surfacique utilisée permet d'étudier toute forme géométrique de bloc. La méthode proposée a été validée puis comparée aux méthodes conventionnelles. Des études paramétriques ont montré l'influence des contraintes initiales et des propriétés mécaniques des joints sur la stabilité. Le soutènement a été aussi intégré dans le code développé. Finalement, la nouvelle méthode a été appliquée pour l'étude d'un assemblage de blocs autour d'une excavation souterraine et comparée à un modèle prenant en compte tous les blocs via la méthode des Éléments Distincts. Elle a été aussi utilisée pour restituer un cas réel de chute de blocs.
39

Développement, étude physico-chimique et optimisation de mousses polymères biosourcées / Development, physico-chemical study and optimization of bio-based polymer foams

Mazzon, Elena 08 July 2016 (has links)
Ce travail de thèse porte sur le développement d’une nouvelle génération de mousses polymères biosourcées capables de satisfaire la fonction d’âme alvéolaire et structurale de pièces automobiles. Les formulations époxy choisies comme base polymère reposent sur deux différents prépolymères époxy, l’huile de lin époxydée (ELO) et le glycérol époxydé (GE). Ces derniers, associés en proportions variables, sont réticulés avec deux différents durcisseurs : l’isophorone diamine (IPDA) ou l’anhydride méthyl tétrahydrophtalique (MTHPA). Les formulations ternaires « ELO – GE – durcisseur » ont été caractérisées selon une approche multi-techniques (DSC, TGA, rhéométrie dynamique et en mode permanent) permettant d’établir des relations structure-propriétés fiables. Puis, la production d’une mousse a été possible grâce à la maîtrise d’une réaction chimique qui se déroule parallèlement à la réticulation de la résine époxy. Le bicarbonate de sodium et de potassium ont été retenus comme agents moussants. Afin d’améliorer les performances finales des mousses, la proportion de GE au sein des formulations polymère à base IPDA a été augmentée. Mais, une telle modification induit la dégradation thermique du système à cause de l’exothermicité élevée de la réaction de réticulation. L’introduction d’un absorbeur d’exothermicité, permet grâce à sa décomposition endothermique de contrôler l’excès de chaleur dégagée et par la même d’empêcher la dégradation. Une dernière classe de durcisseurs a également été étudiée et donne après optimisation des mousses dotés d’excellentes propriétés ultimes. Ainsi, une large gamme de mousses biosourcées rigides et légères pouvant être mises en œuvre dans un temps très court a été développée. / This thesis focuses on the development of a new generation of bio-based polymer foams able to produce low density core in sandwich structure for automotive applications. The polymer formulations used in this research contain two different epoxy compounds, epoxidized linseed oil (ELO) and the epoxidized glycerol (GE). Combined in varying proportions, they were cured with two different hardeners, isophorone diamine (IPDA) or methyl tetrahydrophthalic anhydride (MTHPA). Ternary formulations “ELO – GE – hardener” were characterized by a multi-techniques approach (DSC, TGA, rheometry in steady or dynamic mode) in order to establish structure-property relationships. The production of polymeric-foam materials was carried out by tuning a chemical reaction which takes place during curing. Sodium bicarbonate and potassium bicarbonate were used as harmless foaming agents. In order to improve the final performances of the foams, the ratio GE/ELO was increased in the reactive formulations based on IPDA hardener. But, such modification provokes also the thermal degradation of the system because of the high exothermicity of the curing reaction. The introduction of “exothermicity regulators” that undergo endothermic transformations allowed to control the excess of released heat and consequently, to prevent the material degradation. A last class of hardener was also studied and made it possible after optimization the production of foams with good ultimate properties. To conclude, a large range of biobased and lightweight rigid foams able to be produced in a few minutes was developed.
40

Modélisation dynamique d'un assemblage de floes rigides / Dynamics of an assembly of rigid ice floes

Rabatel, Matthias 23 November 2015 (has links)
Dans cette thèse, nous présentons un modèle granulaire décrivant la dynamique d'un assemblage de floes rigides de tailles et de formes diverses, soumis aux forces de traînée dues aux courants atmosphérique et océanique. Ce modèle est basé sur les équations des moments linéaire et angulaire pour décrire la dynamique régulière des floes et sur la résolution de problèmes linéaires de complémentarité pour traiter les collisions entre les floes. Entre les collisions, le mouvement d'un floe isolé satisfait la conservation des équations des moments linéaire et angulaire écrites à partir des formulations classiques des traînées dues au vent et à l'océan. Nous décrivons les collisions entre les floes comme des événements instantanés et les traitons avant qu'elles n'entraînent une interpénétration. Cela implique la notion d'impulsion de contact et la mise sous la forme de problèmes linéaires de complémentarité basés sur la condition de Signorini pour la non interpénétration et la loi de Coulomb. La nature du contact est représentée à travers un coefficient de friction et un coefficient de restitution décrivant la perte d'énergie cinétique durant la collision. Dans cette présente version du modèle, le coefficient de restitution est fixé. Le modèle a été validé en utilisant des données obtenues du mouvement de disques de bois évoluant en bassin de test aussi bien qu'en comparant le comportement des floes simulés avec un comportement attendu dans des scénarios classiques de dérive de glace et de collisions entre des solides rigides. Les résultats de simulations comprenant différents assemblages contenant des floes de tailles et de formes variées, soumis à différents scénarios de forçage, sont aussi discutés. Ils montrent tout le potentiel de notre approche sans qu'une analyse détaillée et complète n'ait encore été proposée. / In this thesis, we present a model describing the dynamics of a population of ice floes with arbitrary shapes and sizes, which are exposed to atmospheric and oceanic skin drag. The granular model presented is based on simplified momentum equations for ice floe motion between collisions and on the resolution of linear complementarity problems to deal with ice floe collisions. Between collisions, the motion of an individual ice floe satisfies the linear and angular momentum conservation equations, with classical formula applied to account for atmospheric and oceanic skin drag. To deal with collisions, before they lead to interpenetration, we included a linear complementarity problem based on the Signorini condition and Coulombs law. The nature of the contact is described through a constant coefficient of friction, as well as a coefficient of restitution describing the loss of kinetic energy during the collision. In the present version of our model, this coefficient is fixed. The model was validated using data obtained from the motion of interacting artificial wood floes in a test basin. The results of simulations comprising few hundreds of ice floes of various shapes and sizes, exposed to different forcing scenarios, and under different configurations, are also discussed. They show that the progressive clustering of ice floes as the result of kinetic energy dissipation during collisions is well captured, and suggest a collisional regimes of floe dispersion at small scales, different from a large-scale regime essentially driven by wind forcing.

Page generated in 0.0398 seconds