• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 20
  • 1
  • Tagged with
  • 121
  • 79
  • 24
  • 22
  • 22
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

A model for inductive plasma wind tunnels

Magin, Thierry 10 June 2004 (has links)
A numerical model for inductive plasma wind tunnels is developed. This model provides the flow conditions at the edge of a boundary layer in front of a thermal protection material placed in the plasma jet stream at the outlet of an inductive torch. The governing equations for the hydrodynamic field are derided from the kinetic theory. The electromagnetic field is deduced from the Maxwell equations. The transport properties of partially ionized and unmagnetized plasma in weak thermal nonequilibrium are derived from the Boltzmann equation. A kinetic data base of transport collision integrals is given for the Martian atmosphere. Multicomponent transport algorithms based upon Krylov subspaces are compared to mixture rules in terms of accuracy and computational cost. The composition and thermodynamic properties in local thermodynamic<p>equilibrium are computed from the semi-classical statistical mechanics.<p>The electromagnetic and hydrodynamic fields of an inductive wind tunnel is presented. A total pressure measurement technique is thoroughly investigated by means of numerical simulations.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
112

Alice au pays des monnaies : ou la course sans fin vers de nouveaux moyens de paiement / Alice in payment land : or the endless race towards new payment media

Deungoue Megogoue, Sandra 18 January 2010 (has links)
L’objet de cette thèse est d’analyser l’évolution du marché des paiements de détail avec en toile de fond la constitution d’un espace unique pour les paiements en Europe. Notre analyse révèle notamment que ce marché évolue selon la théorie de la Reine Rouge ; en effet, sous le poids de la concurrence, les prestataires de service ne cessent de créer des moyens de paiement de plus en plus innovants afin de maintenir leur part de marché. Paradoxalement, la demande, elle, évolue plus lentement, essentiellement à cause des habitudes difficiles à changer. Pour la dynamiser, régulateur et industrie bancaire ont mis en œuvre de nombreux moyens. Notre étude révèle ainsi que bien que les facteurs sociodémographiques, technologiques et économiques déterminant les comportements de paiement varient et n’ont pas le même impact d’un pays à un autre, certains Etats présentent néanmoins suffisamment d’homogénéité pour appartenir à une même zone de paiement optimale. En outre, nous démontrons que l’harmonisation des pratiques bancaires et des réglementations mise en place pour la réalisation du marché unique a conduit à une convergence des comportements de paiement en Europe. Par ailleurs, en analysant le cas particulier des paiements par carte, nous développons un modèle multi-agents permettant de mettre en évidence l’importance des pratiques tarifaires telles que la commission d’interchange ou la règle de non-discrimination sur la concurrence entre instruments, intermédiaires et systèmes de paiement. L’expérimentation artificielle de ce modèle dévoile les conditions nécessaires à l’efficacité de la réglementation de ces pratiques par l’Etat. / The purpose of present thesis is to study the evolution of the retail payment market. This work is set against a backdrop of the creation of a single payment area in Europe. Our analysis reveals that this market is subject to the Red Queen dilemma; indeed, because of intense competition, payment service providers are forced to a constant evolution of technology in order to maintain their market share. Paradoxically, the demand for payment instruments tends to move slowly, basically because habits are difficult to change. To improve the dynamism of the demand response to innovation, regulator and banking industry have implemented new policies and procedures that encourage the development of trans-border payments. Thereby, although the sociodemographic, technological and economic factors which influence payment behaviours vary and don't have the same impact from one country to another, we find some remarkable homogeneity across countries that are eligible to form an optimal payment area. Besides, we show that the harmonization of the banking laws and products led to a convergence of the payment behaviours in Europe. In addition, by analyzing the case of the payment card industry, we develop an agent-based model which highlights the effects of the tariff practices such as the interchange fee or the no-surcharge rule, on competition within and between payment systems. The computational simulation of this model reveals necessary conditions to achieve the desired result of the regulation of these practices.
113

Investigation of Local and Global Hydrodynamics of a Dynamic Filtration Module (RVF Technology) for Intensification of Industrial Bioprocess / Etude de l’hydrodynamique d’un module de Filtration Dynamique (RVF Technologie) pour intensifier les bioprocédés industriels

Xie, Xiaomin 22 May 2017 (has links)
Cette thèse porte sur la compréhension et le contrôle des interactions dynamiques entre les mécanismes physiques et biologiques en considérant un procédé alternatif de séparation membranaire pour les bioprocédés industriels. L’objectif premier est un apport de connaissances scientifiques liées à la maîtrise de la bioréaction en considérant l'hydrodynamique complexe et les verrous rétention-perméation. Une technologie de filtration dynamique, appelée Rotating and Vibrating Filtration (RVF), a été spécifiquement étudiée. Elle se compose de cellules de filtration en série comprenant deux membranes circulaires planes fixées sur des supports poreux au voisinage d'un agitateur à trois pales planes attachées à un arbre central. Ce dispositif mécanique simple fonctionne en continu et génère une contrainte de cisaillement élevée ainsi qu'une perturbation hydrodynamique dans un entrefer étroit (pale-membrane). Les verrous scientifiques et techniques qui motivent ce travail, sont la caractérisation et la quantification (i) des champs de vitesse locaux et instantanés, (2) des contraintes pariétales de cisaillement à la surface de la membrane et (3) l'impact mécanique sur les cellules microbiennes.Dans ce but, des expériences et des simulations numériques ont été réalisées pour étudier l'hydrodynamique à des échelles globales et locales, en régimes laminaire et turbulent avec des fluides newtoniens dans des environnements biotique et abiotique. Pour l'approche globale, la distribution des temps de séjour (RTD) et le bilan thermique ont été réalisés et comparés aux précédentes études globales (courbes de consommation de puissance et de frottement). Une étude analytique des fonctions de distribution a été effectuée et les moments statistiques ont été calculés et discutés. Une analyse systémique a été utilisée pour décrire les comportements hydrodynamiques du module RVF. En combinant la simulation des écoulements (CFD) et les observations (RTD), les conditions et les zones de dysfonctionnement des cellules de filtration sont éclairées. Pour l'approche locale, la vélocimétrie laser (PIV) a été réalisée dans les plans horizontaux et verticaux et comparée à la simulation numérique (CFD). Une étude préliminaire basée sur une synchronisation entre la prise d’image et la position de l’agitateur (résolution angulaire) a permis d’accéder aux champs de vitesse moyens. Une campagne de mesure PIV a été réalisée sans synchronisation afin d’appliquer une décomposition orthogonale aux valeurs propres (POD) pour 'identifier les composantes moyennes, organisées et turbulentes des champs de vitesse (énergie cinétique). Pour l'application aux bioprocédés, un travail exploratoire a caractérisé l'effet de la filtration dynamique sur des cellules procaryotes (E. coli) en quantifiant l'intégrité cellulaire ou leur dégradation en fonction du temps et de la vitesse de rotation. / This thesis focuses on the understanding and the control of dynamic interactions between physical and biological mechanisms considering an alternative membrane separation into industrial bioprocess. It aims to carry scientific knowledge related to the control of bioreaction considering complex hydrodynamics and retention-permeation locks specific to membrane separation. A dynamic filtration technology, called Rotating and Vibrating Filtration (RVF), was investigated. It consists of filtration cells in series including two flat disc membranes fixed onto porous substrates in the vicinity of a three-blade impeller attached to a central shaft. This simple mechanical device runs continuously and generates a high shear stress as well as a hydrodynamic perturbation in the narrow membrane-blade gap. Several scientific and technical locks motivating this work are to characterize and to quantify (i) the velocity fields locally and instantaneously, (2) the shear stresses at membrane surface and (3) the mechanical impact on microbial cells.To this end, experiments and numerical simulations have been performed to investigate the hydrodynamics at global and local scales under laminar and turbulent regimes with Newtonian fluids under biotic and abiotic environment. For global approach, investigation of Residence Time Distribution (RTD) and thermal balance was carried out and compared to the previous global study (power consumption and friction curves). Analytical study of distribution functions was conducted and statistical moments were calculated and discussed. A systemic analysis was used to describe the hydrodynamic behaviors of the RVF module. Combining Computational Fluid Dynamics (CFD) and RTD observations, it leads to demonstrate dysfunctioning conditions and area. For the local approach, Particle Image Velocimetry (PIV) was be carried out in both horizontal and vertical planes and compared to CFD simulation. PIV preliminary study was conducted with a trigger strategy to access through angle-resolved measurements to an averaged velocity field. PIV further study were performed with a non-trigger strategy and applied to Proper Orthogonal Decomposition (POD) analysis in order to identify the coherent structure of the flow by decomposing the organized and turbulent fluctuations. For the bioprocess application, an exploratory work characterized the effect of Dynamic Filtration on prokaryote cell population (Escherichia coli) by quantifying cell integrity or damage as a function of time and rotation speed during filtration process in turbulent regime.
114

Apprentissage d'espaces sémantiques

Mesnil, Grégoire 01 1900 (has links)
No description available.
115

Modélisation géométrique de scènes urbaines par imagerie satellitaire / Geometric modeling of urban scenes from satellite imagery

Duan, Liuyun 21 April 2017 (has links)
La modélisation automatique de villes à partir d’images satellites est l'un des principaux défis en lien avec la reconstruction urbaine. Son objectif est de représenter des villes en 3D de manière suffisamment compacte et précise. Elle trouve son application dans divers domaines, qui vont de la planification urbaine aux télécommunications, en passant par la gestion des catastrophes. L'imagerie satellite offre plusieurs avantages sur l'imagerie aérienne classique, tels qu'un faible coût d'acquisition, une couverture mondiale et une bonne fréquence de passage au-dessus des sites visités. Elle impose toutefois un certain nombre de contraintes techniques. Les méthodes existantes ne permettent que la synthèse de DSM (Digital Surface Models), dont la précision est parfois inégale. Cette dissertation décrit une méthode entièrement automatique pour la production de modèles 3D compacts, précis et répondant à une sémantique particulière, à partir de deux images satellites en stéréo. Cette méthode repose sur deux grands concepts. D'une part, la description géométrique des objets et leur assimilation à des catégories génériques sont effectuées simultanément, conférant ainsi une certaine robustesse face aux occlusions partielles ainsi qu'à la faible qualité des images. D'autre part, la méthode opère à une échelle géométrique très basse, ce qui permet la préservation de la forme des objets, avec finalement, une plus grande efficacité et un meilleur passage à l'échelle. Pour générer des régions élémentaires, un algorithme de partitionnement de l'image en polygones convexes est présenté. / Automatic city modeling from satellite imagery is one of the biggest challenges in urban reconstruction. The ultimate goal is to produce compact and accurate 3D city models that benefit many application fields such as urban planning, telecommunications and disaster management. Compared with aerial acquisition, satellite imagery provides appealing advantages such as low acquisition cost, worldwide coverage and high collection frequency. However, satellite context also imposes a set of technical constraints as a lower pixel resolution and a wider that challenge 3D city reconstruction. In this PhD thesis, we present a set of methodological tools for generating compact, semantically-aware and geometrically accurate 3D city models from stereo pairs of satellite images. The proposed pipeline relies on two key ingredients. First, geometry and semantics are retrieved simultaneously providing robust handling of occlusion areas and low image quality. Second, it operates at the scale of geometric atomic regions which allows the shape of urban objects to be well preserved, with a gain in scalability and efficiency. Images are first decomposed into convex polygons that capture geometric details via Voronoi diagram. Semantic classes, elevations, and 3D geometric shapes are then retrieved in a joint classification and reconstruction process operating on polygons. Experimental results on various cities around the world show the robustness, scalability and efficiency of the proposed approach.
116

Spectral analysis of the cerebral cortex complexity / Analyse spectrale de la complexité du cortex cérébral

Rabiei, Hamed 26 September 2017 (has links)
La complexité de la forme de la surface est une caractéristique morphologique des surfaces pliées. Dans cette thèse, nous visons à développer des méthodes spectrales pour quantifier cette caractéristique du cortex cérébral humain reconstruit à partir d'images MR structurales. Tout d'abord, nous suggérons certaines propriétés qu'une mesure standard de la complexité de surface devrait posséder. Ensuite, nous proposons deux définitions claires de la complexité de la surface en fonction des propriétés de flexion de surface. Pour quantifier ces définitions, nous avons étendu la transformée de Fourier à fenêtres illustrée récemment pour transformer en maillage des surfaces. Grâce à certaines expériences sur les surfaces synthétiques, nous montrons que nos mesures basées sur la courbure permettent de surmonter les surfaces classiques basées sur la surface, ce qui ne distingue pas les plis profonds des oscillants ayant une surface égale. La méthode proposée est appliquée à une base de données de 124 sujets adultes en bonne santé. Nous définissons également la complexité de la surface par la régularité de Hölder des mouvements browniens fractionnés définis sur les collecteurs. Ensuite, pour la première fois, nous développons un algorithme de régression spectrale pour quantifier la régularité de Hölder d'une surface brownienne fractionnée donnée en estimant son paramètre Hurst H. La méthode proposée est évaluée sur un ensemble de sphères browniennes fractionnées simulées. En outre, en supposant que le cortex cérébral est une surface brownienne fractionnée, l'algorithme proposé est appliqué pour estimer les paramètres Hurst d'un ensemble de 14 corticus cérébraux fœtaux. / Surface shape complexity is a morphological characteristic of folded surfaces. In this thesis, we aim at developing some spectral methods to quantify this feature of the human cerebral cortex reconstructed from structural MR images. First, we suggest some properties that a standard measure of surface complexity should possess. Then, we propose two clear definitions of surface complexity based on surface bending properties. To quantify these definitions, we extended the recently introduced graph windowed Fourier transform to mesh model of surfaces. Through some experiments on synthetic surfaces, we show that our curvature-based measurements overcome the classic surface area-based ones which may not distinguish deep folds from oscillating ones with equal area. The proposed method is applied to a database of 124 healthy adult subjects. We also define the surface complexity by the Hölder regularity of fractional Brownian motions defined on manifolds. Then, for the first time, we develop a spectral-regression algorithm to quantify the Hölder regularity of a given fractional Brownian surface by estimating its Hurst parameter H. The proposed method is evaluated on a set of simulated fractional Brownian spheres. Moreover, assuming the cerebral cortex is a fractional Brownian surface, the proposed algorithm is applied to estimate the Hurst parameters of a set of 14 fetal cerebral cortices.
117

Étude cinétique du mécanisme de transfert de proton dans une réaction acidobasique en milieu aqueux

Legault-St-Germain, Félix 10 1900 (has links)
Les détails du mécanisme d’une réaction acidobasique sont encore nébuleux au sein de la communauté scientifique. Les résultats présentés dans cet ouvrage suggèrent un modèle mécanistique général basé sur la théorie de l’état de transition pour une réaction acidobasique en milieu aqueux. Ce modèle est proposé après l’analyse méticuleuse de 56 simulations mettant en avant-plan une réaction de transfert de proton entre le phénol et l’acétate dans l’eau. Cette réaction passe par différents nombres d’acteurs, incluant l’acide, la base et le nombre de molécules d’eau impliquées dans le transfert. Ce modèle général regroupe de nombreux mécanismes par lesquels le transfert de proton survient. Il s’agit notamment de procédés impliquant différents nombres de molécules d’eau intermédiaires (1, 2, 3, 4 ou 5), mais aussi des cas où l’acide entre en contact direct avec la base et des cas où la déprotonation de l’acide semble indépendante de la base. Cette proposition présente aussi une nouvelle définition quantitative des mécanismes concerté et séquentiel jusqu’ici différenciés qualitativement dans la littérature. / The details of the acid-base reaction mechanism are still rather vague among the scientific community. The results shown in this document suggest a general mechanism predicated on the transition state theory for the acid-base reaction in an aqueous environment. This model is offered after a meticulous analysis of 56 computational simulations presenting a proton transfer reaction between a phenol derivative and the acetate ion in water. The number of actors greatly varies from one reaction to another, including the acid, the base and the numerous water molecules engaged in the transfer. This general model encompasses many sub-mechanisms leading to the proton transfer completion. Mostly, the processes involve different amounts of bridging water molecules (1, 2, 3, 4 or 5). Yet, it also showcases scenarios where the acid interacts directly with the base and some situations where the acid deprotonation seems to behave independently from the base. This proposal further offers a new, quantitative distinction between the concerted and sequential mechanisms rather than the until-now qualitative description in the literature.
118

Quasi second-order methods for PDE-constrained forward and inverse problems

Zehnder, Jonas 05 1900 (has links)
La conception assistée par ordinateur (CAO), les effets visuels, la robotique et de nombreux autres domaines tels que la biologie computationnelle, le génie aérospatial, etc. reposent sur la résolution de problèmes mathématiques. Dans la plupart des cas, des méthodes de calcul sont utilisées pour résoudre ces problèmes. Le choix et la construction de la méthode de calcul ont un impact important sur les résultats et l'efficacité du calcul. La structure du problème peut être utilisée pour créer des méthodes, qui sont plus rapides et produisent des résultats qualitativement meilleurs que les méthodes qui n'utilisent pas la structure. Cette thèse présente trois articles avec trois nouvelles méthodes de calcul s'attaquant à des problèmes de simulation et d'optimisation contraints par des équations aux dérivées partielles (EDP). Dans le premier article, nous abordons le problème de la dissipation d'énergie des solveurs fluides courants dans les effets visuels. Les solveurs de fluides sont omniprésents dans la création d'effets dans les courts et longs métrages d'animation. Nous présentons un schéma d'intégration temporelle pour la dynamique des fluides incompressibles qui préserve mieux l'énergie comparé aux nombreuses méthodes précédentes. La méthode présentée présente une faible surcharge et peut être intégrée à un large éventail de méthodes existantes. L'amélioration de la conservation de l'énergie permet la création d'animations nettement plus dynamiques. Nous abordons ensuite la conception computationelle dont le but est d'exploiter l'outils computationnel dans le but d'améliorer le processus de conception. Plus précisément, nous examinons l'analyse de sensibilité, qui calcule les sensibilités du résultat de la simulation par rapport aux paramètres de conception afin d'optimiser automatiquement la conception. Dans ce contexte, nous présentons une méthode efficace de calcul de la direction de recherche de Gauss-Newton, en tirant parti des solveurs linéaires directs épars modernes. Notre méthode réduit considérablement le coût de calcul du processus d'optimisation pour une certaine classe de problèmes de conception inverse. Enfin, nous examinons l'optimisation de la topologie à l'aide de techniques d'apprentissage automatique. Nous posons deux questions : Pouvons-nous faire de l'optimisation topologique sans maillage et pouvons-nous apprendre un espace de solutions d'optimisation topologique. Nous appliquons des représentations neuronales implicites et obtenons des résultats structurellement sensibles pour l'optimisation topologique sans maillage en guidant le réseau neuronal pendant le processus d'optimisation et en adaptant les méthodes d'optimisation topologique par éléments finis. Notre méthode produit une représentation continue du champ de densité. De plus, nous présentons des espaces de solution appris en utilisant la représentation neuronale implicite. / Computer-aided design (CAD), visual effects, robotics and many other fields such as computational biology, aerospace engineering etc. rely on the solution of mathematical problems. In most cases, computational methods are used to solve these problems. The choice and construction of the computational method has large impact on the results and the computational efficiency. The structure of the problem can be used to create methods, that are faster and produce qualitatively better results than methods that do not use the structure. This thesis presents three articles with three new computational methods tackling partial differential equation (PDE) constrained simulation and optimization problems. In the first article, we tackle the problem of energy dissipation of common fluid solvers in visual effects. Fluid solvers are ubiquitously used to create effects in animated shorts and feature films. We present a time integration scheme for incompressible fluid dynamics which preserves energy better than many previous methods. The presented method has low overhead and can be integrated into a wide range of existing methods. The improved energy conservation leads to noticeably more dynamic animations. We then move on to computational design whose goal is to harnesses computational techniques for the design process. Specifically, we look at sensitivity analysis, which computes the sensitivities of the simulation result with respect to the design parameters to automatically optimize the design. In this context, we present an efficient way to compute the Gauss-Newton search direction, leveraging modern sparse direct linear solvers. Our method reduces the computational cost of the optimization process greatly for a certain class of inverse design problems. Finally, we look at topology optimization using machine learning techniques. We ask two questions: Can we do mesh-free topology optimization and can we learn a space of topology optimization solutions. We apply implicit neural representations and obtain structurally sensible results for mesh-free topology optimization by guiding the neural network during optimization process and adapting methods from finite element based topology optimization. Our method produces a continuous representation of the density field. Additionally, we present learned solution spaces using the implicit neural representation.
119

Une approche computationnelle de la complexité linguistique par le traitement automatique du langage naturel et l'oculométrie

Loignon, Guillaume 05 1900 (has links)
Le manque d'intégration des sciences cognitives et de la psychométrie est régulièrement déploré – et ignoré. En mesure et évaluation de la lecture, une manifestation de ce problème est l’évitement théorique concernant les sources de difficulté linguistiques et les processus cognitifs associés à la compréhension de texte. Pour faciliter le rapprochement souhaité entre sciences cognitives et psychométrie, nous proposons d’adopter une approche computationnelle. En considérant les procédures informatiques comme des représentations simplifiées et partielles de théories cognitivistes, une approche computationnelle facilite l’intégration d’éléments théoriques en psychométrie, ainsi que l’élaboration de théories en psychologie cognitive. La présente thèse étudie la contribution d’une approche computationnelle à la mesure de deux facettes de la complexité linguistique, abordées à travers des perspectives complémentaires. La complexité intrinsèque du texte est abordée du point de vue du traitement automatique du langage naturel, avec pour objectif d'identifier et de mesurer les attributs (caractéristiques mesurables) qui modélisent le mieux la difficulté du texte. L'article 1 présente ALSI (pour Analyseur Lexico-syntaxique intégré), un nouvel outil de traitement automatisé du langage naturel qui extrait une variété d'attributs linguistiques, principalement issus de la recherche en psycholinguistique et en linguistique computationnelle. Nous évaluons ensuite le potentiel des attributs pour estimer la difficulté du texte. L'article 2 emploie ALSI et des méthodes d’apprentissage statistique pour estimer la difficulté de textes scolaires québécois. Dans le second volet de la thèse, la complexité associée aux processus de lecture est abordée sous l'angle de l'oculométrie, qui permet de faire des inférences quant à la charge cognitive et aux stratégies d’allocation de l’attention visuelle en lecture. L'article 3 décrit une méthodologie d'analyse des enregistrements d’oculométrie mobile à l'aide de techniques de vision par ordinateur (une branche de l'intelligence artificielle); cette méthodologie est ensuite testée sur des données de simulation. L'article 4 déploie la même méthodologie dans le cadre d’une expérience pilote d’oculométrie comparant les processus de lecture de novices et d'experts répondant à un test de compréhension du texte argumentatif. Dans l’ensemble, nos travaux montrent qu’il est possible d’obtenir des résultats probants en combinant des apports théoriques à une approche computationnelle mobilisant des techniques d’apprentissage statistique. Les outils créés ou perfectionnés dans le cadre de cette thèse constituent une avancée significative dans le développement des technologies numériques en mesure et évaluation de la lecture, avec des retombées à anticiper en contexte scolaire comme en recherche. / The lack of integration of cognitive science and psychometrics is commonly deplored - and ignored. In the assessment of reading, one manifestation of this problem is a theoretical avoidance regarding sources of text difficulty and cognitive processes underlying text comprehension. To facilitate the desired integration of cognitive science and psychometrics, we adopt a computational approach. By considering computational procedures as simplified and partial representations of cognitivist models, a computational approach facilitates the integration of theoretical elements in psychometrics, as well as the development of theories in cognitive psychology. This thesis studies the contribution of a computational perspective to the measurement of two facets of linguistic complexity, using complementary perspectives. Intrinsic text complexity is approached from the perspective of natural language processing, with the goal of identifying and measuring text features that best model text difficulty. Paper 1 introduces ISLA (Integrated Lexico-Syntactic Analyzer), a new natural language processing tool that extracts a variety of linguistic features from French text, primarily taken from research in psycholinguistics and computational linguistics. We then evaluate the features’ potential to estimate text difficulty. Paper 2 uses ISLA and statistical learning methods to estimate difficulty of texts used in primary and secondary education in Quebec. In the second part of the thesis, complexity associated with reading processes is addressed using eye-tracking, which allows inferences to be made about cognitive load and visual attention allocation strategies in reading. Paper 3 describes a methodology for analyzing mobile eye-tracking recordings using computer vision techniques (a branch of artificial intelligence); this methodology is then tested on simulated data. Paper 4 deploys the same methodology in the context of an eye-tracking pilot experiment comparing reading processes in novices and experts during an argumentative text comprehension test. Overall, our work demonstrates that it is possible to obtain convincing results by combining theoretical contributions with a computational approach using statistical learning techniques. The tools created or perfected in the context of this thesis constitute a significant advance in the development of digital technologies for the measurement and evaluation of reading, with easy-to-identify applications in both academic and research contexts.
120

Computational modeling and design of nonlinear mechanical systems and materials

Tang, Pengbin 03 1900 (has links)
Les systèmes et matériaux mécaniques non linéaires sont largement utilisés dans divers domaines. Cependant, leur modélisation et leur conception ne sont pas triviales car elles nécessitent une compréhension complète de leurs non-linéarités internes et d'autres phénomènes. Pour permettre une conception efficace, nous devons d'abord introduire des modèles de calcul afin de caractériser avec précision leur comportement complexe. En outre, de nouvelles techniques de conception inverse sont également nécessaires pour comprendre comment le comportement change lorsque nous modifions les paramètres de conception des systèmes mécaniques non linéaires et des matériaux. Par conséquent, dans cette thèse, nous présentons trois nouvelles méthodes pour la modélisation informatique et la conception de systèmes mécaniques non linéaires et de matériaux. Dans le premier article, nous abordons le problème de la conception de systèmes mécaniques non linéaires présentant des mouvements périodiques stables en réponse à une force périodique. Nous présentons une méthode de calcul qui utilise une approche du domaine fréquentiel pour la simulation dynamique et la puissante analyse de sensibilité pour l'optimisation de la conception afin de concevoir des systèmes mécaniques conformes avec des oscillations de grande amplitude. Notre méthode est polyvalente et peut être appliquée à divers types de systèmes mécaniques souples. Nous validons son efficacité en fabriquant et en évaluant plusieurs prototypes physiques. Ensuite, nous nous concentrons sur la modélisation informatique et la caractérisation mécanique des matériaux non linéaires dominés par le contact, en particulier les matériaux à emboîtement discret (DIM), qui sont des tissus de cotte de mailles généralisés constitués d'éléments d'emboîtement quasi-rigides. Contrairement aux matériaux élastiques conventionnels pour lesquels la déformation et la force de rappel sont directement couplées, la mécanique des DIM est régie par des contacts entre des éléments individuels qui donnent lieu à des contraintes de déformation cinématique anisotrope. Pour reproduire le comportement biphasique du DIM sans simuler des structures à micro-échelle coûteuses, nous introduisons une méthode efficace de limitation de la déformation anisotrope basée sur la programmation conique du second ordre (SOCP). En outre, pour caractériser de manière exhaustive la forte anisotropie, le couplage complexe et d'autres phénomènes non linéaires du DIM, nous introduisons une nouvelle approche d'homogénéisation pour distiller des limites de déformation à grande échelle à partir de simulations à micro-échelle et nous développons un modèle macromécanique basé sur des données pour simuler le DIM avec des contraintes de déformation homogénéisées. / Nonlinear mechanical systems and materials are broadly used in diverse fields. However, their modeling and design are nontrivial as they require a complete understanding of their internal nonlinearities and other phenomena. To enable their efficient design, we must first introduce computational models to accurately characterize their complex behavior. Furthermore, new inverse design techniques are also required to capture how the behavior changes when we change the design parameters of nonlinear mechanical systems and materials. Therefore, in this thesis, we introduce three novel methods for computational modeling and design of nonlinear mechanical systems and materials. In the first article, we address the design problem of nonlinear mechanical systems exhibiting stable periodic motions in response to a periodic force. We present a computational method that utilizes a frequency-domain approach for dynamical simulation and the powerful sensitivity analysis for design optimization to design compliant mechanical systems with large-amplitude oscillations. Our method is versatile and can be applied to various types of compliant mechanical systems. We validate its effectiveness by fabricating and evaluating several physical prototypes. Next, we focus on the computation modeling and mechanical characterization of contact-dominated nonlinear materials, particularly Discrete Interlocking Materials (DIM), which are generalized chainmail fabrics made of quasi-rigid interlocking elements. Unlike conventional elastic materials for which deformation and restoring forces are directly coupled, the mechanics of DIM are governed by contacts between individual elements that give rise to anisotropic kinematic deformation constraints. To replicate the biphasic behavior of DIM without simulating expensive microscale structures, we introduce an efficient anisotropic strain-limiting method based on second-order cone programming (SOCP). Additionally, to comprehensively characterize strong anisotropy, complex coupling, and other nonlinear phenomena of DIM, we introduce a novel homogenization approach for distilling macroscale deformation limits from microscale simulations and develop a data-driven macromechanical model for simulating DIM with homogenized deformation constraints.

Page generated in 0.1122 seconds