Spelling suggestions: "subject:"basal""
91 |
P2P, une intervention de pair à pair visant à prévenir le tabagisme de lycéens professionnels : quel rôle de la Théorie du Comportement Planifié dans le maintien des comportements de santé ? / P2P, a peer to peer intervention to prevent smoking among vocational high school students : what role for the Theory of Planned Behavior in the maintenance of health behaviors ?Lareyre, Olivier 29 September 2016 (has links)
En France, la question du tabagisme des jeunes demeure un défi majeur pour la santé publique. Si l'influence des pairs peut encourager l'usage du tabac, on constate que l'éducation par les pairs a aussi un potentiel bénéfique pour changer le comportement tabagique des adolescents. En outre, il a été démontré que la Théorie du comportement planifié (TCP) donnait la meilleure prédiction des intentions et du comportement dans plusieurs domaines de la santé. Cependant, la TCP est peu utilisée pour développer des interventions contre le tabac. Dans le programme de P2P, des lycéens professionnels volontaires ont conçu et réalisé leur propre intervention basée sur la TCP (avec l'aide d'éducateurs formés), visant à réduire le tabagisme de leurs camarades. Notre objectif était de mesurer l'impact de la première année de P2P sur une population particulièrement exposée de lycéens professionnels. L'hypothèse principale est que P2P évite l’augmentation de la prévalence du tabagisme quotidien au cours de l'année dans le groupe d'intervention comparativement au groupe de contrôle. / In France, the issue of youth smoking remains a major challenge for public health. If peer pressure may encourage smoking, the peer education also has a positive potential to change smoking behavior of adolescents. In addition, it was demonstrated that the theory of planned behavior (TPB) gave the best prediction of intentions and behaviors in many domains of health. However, the TPB is usually not used to develop interventions against tobacco. In the P2P program, voluntary professional school students have designed and built their own TPB-based intervention (with the help of trained educators), aimed at reducing smoking peers. Our goal was to measure the impact of one year of P2P on a population particularly vulnerable professional students. The main hypothesis is that P2P avoids the increasing of daily smoking during the year in the intervention group compared to the control group
|
92 |
Le soin courant et le standard de soin dans l'encadrement juridique de la recherche biomédicale / Usual care and standard of usual care under the legal framework for biomedical researchMatei, Mihaela 07 December 2016 (has links)
La législation relative à la recherche biomédicale est fondée historiquement sur le principe selon lequel la recherche et le soin constituent deux activités distinctes. Perçu comme le garant éthique de tout encadrement normatif de la recherche, ce principe a conduit en France à la création d’un cadre juridique spécifique pour les pratiques médicales expérimentales. En pratique cependant, un protocole de recherche biomédicale est souvent constitué d’actes de recherche intriqués avec les interventions du soin. La distinction entre les pratiques médicales et les interventions expérimentales peut être brouillée par l’objet de la recherche (le soin courant), par la méthodologie employée (l’évaluation en conditions réelles) ou encore par le faible niveau de l’intervention ajoutée par le protocole. Tant les dispositifs juridiques passés que les modèles présents occultent cette évidence en invoquant la séparation du soin et de la recherche. Pourtant la coexistence du soin avec la recherche a créé des tensions que le cadre juridique actuel ne peut résoudre. Il est manifeste que ces dernières n'ont été évacuées en rien par la création de deux régimes juridiques distincts, l'un relatif au soin et l'autre relatif à larecherche biomédicale. De plus, la séparation nette au plan normatif entre les deux activités a empêché l’indispensable réflexion sur l’articulation entre les obligations qui relèvent de la relation médicale et celles qui sont liées à la recherche, telle l'obligation d'assurer la continuité des soins. Le législateur, soucieux de garantir cette frontière, ne traite pas spécifiquement de ces questions. Il est dès lors essentiel de déterminer avec précision le contenu et l’étendue des obligations de soigner ainsi que de mieux encadrer le « soin courant » et le « standard de soin» dans le contexte de la recherche biomédicale. Dans ces conditions, le paradigme juridique centré sur la distinction soin-recherche a-t-il encore un sens? / A biomedical research protocol includes both medical and research interventions. Since its origins, the legal framework has ignored this evidence under the pretext that research and care are two distinct activities. That is why it is all the more essential to determine the nature and the scope of the duty of care and the standard of care used in the context of biomedical research. In parallel, there is a need to distinguish, from a regulatory perspective, this "standard of care" from any equivalent notions used in the context of usual care.
|
93 |
Imagerie du tenseur de diffusion du cerveau : vers des outils cliniques quantitatifs / Diffusion tensor imaging of the brain : towards quantitative clinical toolsGupta, Vikash 25 March 2015 (has links)
La thèse explore trois questions méthodologiques en imagerie de diffusion (DTI) clinique du cerveau, dans le contexte d’une étude sur le VIH. La première question est comment améliorer la résolution du DTI. Le deuxième problème est comment créer un atlas multimodal spécifique à la population. La troisième question porte sur le calcul des statistiques pour comparer les zones de matière blanche entre les contrôles et patients. Les DTI cliniques ont une résolution spatiale et un rapport signal sur bruit faibles, ce qui rend difficile le calcul de statistiques significatives. Nous proposons un algorithme de super-résolution pour améliorer la résolution qui utilise un a priori spatial anisotrope. Cette méthode démontre une amélioration de l’anisotropie fractionnelle et de la tractographie. Pour normaliser spatialement les images du cerveau dans un système de coordonnées commun, nous proposons ensuite de construire un atlas multimodal spécifique á la population. Ceci permet de créer un atlas probabiliste de la matière blanche qui est consistant avec l’atlas anatomique. Cet atlas peut être utilisé pour des statistiques basées sur des régions d’intérêt ou pour le raffinement d’une segmentation. Enfin, nous améliorons les résultats de la méthode TBSS (Tract-Based Spatial Statistics) en utilisant le recalage des images DTI. Contrairement á la méthode TBSS traditionnelle, nous utilisons ici des statistiques multivariées. Nous montrons que ceci permet de détecter des différences dans les régions de matière blanche qui étaient non significatives auparavant, et de les corréler avec les scores des tests neuropsychologiques. / The thesis explores three major methodological questions in clinical brain DTI, in the context of a clinical study on HIV. The first question is how to improve the DTI resolution. The second problem addressed in the thesis is how to create a multimodal population specific atlas. The third question is on the computation of statistics to compare white matter (WM) regions among controls and HIV patients. Clinical DTIs have low spatial resolution and signal-to-noise ratio making it difficult to compute meaningful statistics. We propose a super-resolution (SRR) algorithm for improving DTI resolution. The SRR is achieved using anisotropic regularization prior. This method demonstrates improved fractional anisotropy and tractography. In order to spatially normalize all images in a consistent coordinate system, we create a multimodal population specific brain atlas using the T1 and DTI images from a HIV dataset. We also transfer WM labels from an existing white matter parcellation map to create probabilistic WM atlas. This atlas can be used for region of interest based statistics and refining manual segmentation. On the statistical analysis side, we improve the existing tract based spatial statistics (TBSS) by using DTI based registration for spatial normalization. Contrary to traditional TBSS routines, we use multivariate statistics for detecting changes in WM tracts. With the improved method it is possible to detect differences in WM regions and correlate it with the neuropschylogical test scores of the subjects.
|
94 |
Adaptation de maillage orientée fonctionnelle et basée sur une métrique pour des simulations aérodynamiques en géométrie variable / Goal-oriented metric-based mesh adaptation for unsteady CFD simulations involving moving geometriesGauci, Éléonore 12 December 2018 (has links)
En ce qui concerne les problèmes de Dynamique des Fluides Numériques, l’adaptation du maillage est intéressante pour sa capacité à aborder la convergence asymptotique et à obtenir une prévision précise pour des flux complexes à moindre coût. La méthode d’adaptation de maillage anisotrope réduit le nombre de degrés de liberté nécessaires pour atteindre la précision d’une solution donnée, ce qui a un impact positif sur le temps de calcul. De plus, il réduit la dissipation du schéma numérique en tenant compte automatiquement de l'anisotropie des phénomènes physiques à l'intérieur du maillage. Deux approches principales existent dans la littérature. L'adaptation du maillage basée sur les caractéristiques géométriques, qui est principalement déduite d'une estimation de l'erreur d'interpolation utilisant la hessienne du senseur choisi, contrôle l'erreur d'interpolation du capteur sur l'ensemble du domaine de calcul. Une telle approche est facile à mettre en place et a un large éventail d’applications, mais elle ne prend pas en compte l’EDP considérée utilisée pour résoudre le problème. D'autre part, l'adaptation de maillage orientée fonctionnelle, qui se concentre sur une fonctionnelle scalaire, prend en compte à la fois la solution et l'EDP dans l'estimation d'erreur grâce à l'état adjoint. Mais, la conception de cette estimation d'erreur est beaucoup plus compliquée. Cette thèse présente les résultats obtenus avec différentes méthodes de Dynamique des Fluides Numériques: les solveurs de flux arbitrairement lagrangiens-eulériens (ALE) avec schémas explicites et implicites sont présentés et couplés au mouvement de maillage, l’adaptation de maillage feature-based instationnaire pour les géométries mobiles prend en compte les changements des connectivités de maillage durant toute la simulation, l'état adjoint est étendu aux problèmes de géométries mobiles et l'adaptation de maillage instationnaire orientée fonctionnelle pour les maillages mobiles est déduite d'une estimation d'erreur a priori. Plusieurs exemples numériques issus du secteur aéronautique et du domaine de sécurité civile sont considérés. / When dealing with CFD problems, mesh adaptation is interesting for its ability to approach the asymptotic convergence and to obtain an accurate prediction for complex flows at a lower cost. Anisotropic mesh adaptation method reduces the number of degrees of freedom required to reach a given solution accuracy, thus impact favorably the CPU time. Moreover, it reduces the numerical scheme dissipation by automatically taking into account the anisotropy of the physical phenomena inside the mesh. Two main approaches exist in the literature. Feature-based mesh adaptation which is mainly deduced from an interpolation error estimate using the Hessian of the chosen sensor controls the interpolation error of the sensor over the whole computational domain. Such approach is easy to set-up and has a wide range of application, but it does not take into account the considered PDE used to solve the problem. On the other hand, goal-oriented mesh adaptation, which focuses on a scalar output function, takes into consideration both the solution and the PDE in the error estimation thanks to the adjoint state. But, the design of such error estimate is much more complicated. This thesis presents the results obtained with different CFD methods : the Arbitrary Lagrangian Eulerian (ALE) flow solvers with explicit and implicit schemes are presented and coupled to the moving mesh process, the feature-based unsteady mesh adaptation for moving geometries takes into account the changes of connectivites during the whole simulation, the adjoint state is extended to moving geometries problems and goal-oriented unsteady mesh adaptation for moving meshes is derived from an a priori error estimate. Several numerical examples are considered in the aeronautics sector and the field of civil security.
|
95 |
Le mensonge comme manœuvre d’acquisition de légitimité organisationnelle : considérations éthiques et processus de réalisation / Lies as a maneuver for the acquisition of organizational legitimacy : ethical considerations and process of realizationBaccouche, Lobna 18 December 2019 (has links)
Le présent travail de recherche a pour objectif de focaliser l’attention sur le concept de « mensonge de légitimation » afin de briser les tabous l’entourant et apporter un éclairage théorique sur un phénomène organisationnel prégnant. Il vise, particulièrement, à fournir des éléments de compréhension sur la façon dont certains entrepreneurs agissent afin d’acquérir, moyennant le mensonge, une légitimité initiale à leurs petites et nouvelles entreprises. Cette légitimité leur permet de remporter le soutien des parties prenantes et d’accéder aux ressources requises pour le développement de leurs activités. L’étude de l’association antinomique du mensonge et de la légitimité nous a amené à nous pencher sur deux questions : la première question est liée aux considérations éthiques du mensonge et la deuxième question concerne son processus de réalisation.Sur le plan théorique, notre étude a procédé à une réévaluation des approches morales classiques et a proposé une nouvelle alternative dépassant les anomalies opérationnelles dépistées. Par ailleurs, la multi-dimensionnalité du processus du mensonge a été démontrée par le croisement de plusieurs champs disciplinaires examinant, à la fois, la cognition, les échanges sociaux et les émotions.Sur le plan méthodologique, notre étude s’est basée sur une approche qualitative explorant en profondeur les perceptions, les caractéristiques ainsi que le processus du mensonge de légitimation auprès d’une vingtaine d’entrepreneurs tunisiens. L’examen des données collectées s’est appuyé sur des analyses de contenu complétées par des démarches assignées aux cartes visuelles.Les résultats ont suggéré un processus du mensonge de légitimation composé de cinq phases : (1) une phase d’identification de problèmes, en lien avec la légitimité organisationnelle, dont les solutions reconnues sont inaccessibles. (2) Une phase de construction de la manœuvre mensongère permettant à l’entrepreneur d’identifier ses complices, les parties prenantes victimes et de déterminer la forme et le contenu du mensonge. Durant cette phase, des émotions morales négatives, telles que l’anxiété et la culpabilité, sont susceptibles d’émerger chez l’entrepreneur. Elles reflètent, par leur nature, la valeur éthique associée au mensonge. (3) Une phase de prise de décision, lors de laquelle l’entrepreneur, poussé par ses ambitions et par d’autres facteurs environnementaux, procède à la rationalisation de son comportement et à la neutralisation des émotions négatives qui en découlent. (4) Une phase de réalisation de la manœuvre mensongère et (5) une phase de contrôle.L’examen des considérations éthiques du mensonge a laissé apercevoir un « espace moral individuel libre », représentant une marge entre les valeurs éthiques individuelles de l’entrepreneur, les normes éthiques et morales de la société et de la profession ainsi que les circonstances, permettant l’émission de certains mensonges sans qu’ils ne soient perçus comme un dépassement des limites éthiques. / This research aims to focus the attention on the concept of "legitimation lie" in order to break the silence surrounding it and to shed light on an organizational phenomenon that is not as rare as what we could believe. Specifically, it provides an explanation of how some entrepreneurs succeed in acquiring initial legitimacy for their small and new businesses through lies. The study of the antithetical association of legitimacy and lies led us to focus on two research axes: on the one hand, the ethical considerations attributed to legitimacy lies and on the other hand, the process of their realization.On the theoretical level, our study required a reassessment of classical moral approaches, with the aim to offer a new alternative that goes beyond the operational limits encountered. In addition, the multi-dimensionality of lying process has been illustrated by the intersection of several disciplinary fields examining cognition, social exchanges and emotions.On the methodological level, this work was based on in-depth interviews conducted with 20 entrepreneurs of newly founded small businesses. The examination of the collected data was mainly based on thematic content analyzes preceded or completed, when necessary, by content analyzes or by practices appropriate to visual maps.The results suggest a process of legitimation through lies made of five phases: (1) a phase of identification of problems related to the organizational legitimacy in which the solutions usually practiced used are inaccessible. (2) A phase of construction of the lying’s tactic in which the entrepreneur identifies his / her collaborates, the victims and determines the form and content of the lie. During this phase, negative moral emotions, such as anxiety and guilt, are likely to emerge. These emotions reflect by their natures the ethical value associated to the lie. (3) A decision-making phase in which the entrepreneur, pushed by his ambitions and other environmental factors, rationalizes his behavior and neutralizes the negative emotions felt. (4) A phase of realization of the lying’s tactic and (5) a phase of control.The examination of the ethical considerations of lies revealed a "free individual moral space" - representing a margin between social and professional ethical standards, individual ethical norms and the circumstances surrounding the lies, where entrepreneurs allow themselves the right to use some forms of lie, according to their own rationality operating in that margin, without perceiving themselves as overstepping ethical limits.
|
96 |
Optimization-based design of structured LTI controllers for uncertain and infinite-dimensional systems / Conception de contrôleurs LTI structurés basée sur l'optimisation pour des systèmes incertains et à dimension infinieDa Silva De Aguiar, Raquel Stella 16 October 2018 (has links)
Les techniques d’optimisation non-lisse permettent de résoudre des problèmes difficiles de l’ingénieur automaticien qui étaient inaccessibles avec les techniques classiques. Il s’agit en particulier de problèmes de commande ou de filtrage impliquant de multiples modèles ou faisant intervenir des contraintes de structure pour la réduction des couts et de la complexité. Il en résulte que ces techniques sont plus à même de fournir des solutions réalistes dans des problématiques pratiques difficiles. Les industriels européens de l’aéronautique et de l’espace ont récemment porté un intérêt tout particulier à ces nouvelles techniques. Ces dernières font parfois partie du "process" industriel (THALES, AIRBUS DS Satellite, DASSAULT A) ou sont utilisées dans les bureaux d’étude: (SAGEM, AIRBUS Transport). Des études sont également en cours comme celle concernant le pilotage atmosphérique des futurs lanceurs tels d’Ariane VI. L’objectif de cette thèse concerne l'exploration, la spécialisation et le développement des techniques et outils de l'optimisation non-lisse pour des problématiques d'ingénierie non résolues de façon satisfaisante - incertitudes de différente nature - optimisation de l'observabilité et de la contrôlabilité - conception simultanée système et commande Il s’agit aussi d’évaluer le potentiel de ces techniques par rapport à l’existant avec comme domaines applicatifs l’aéronautique, le spatial ou les systèmes de puissance de grande dimension qui fournissent un cadre d’étude particulièrement exigeant. / Non-smooth optimization techniques help solving difficult engineering problems that would be unsolvable otherwise. Among them, control problems with multiple models or with constraints regarding the structure of the controller. The thesis objectives consist in the exploitation, specialization and development of non smooth optmization techniques and tools for solving engineering problems that are not satisfactorily solved to the present.
|
97 |
Modèle de négociation collaborative basé sur la relation interpersonnelle de dominance / Computational model of collaborative negotiation based on the interpersonal relation of dominanceOuld Ouali, Lydia 12 November 2018 (has links)
L'essor des travaux en informatique affective voit la naissance de diverses questions de recherches pour étudier les interactions agents /humains. Parmi elles, se pose la question de l'impact des relations interpersonnelles sur les stratégies de communications. Les interactions entre un agent conversation et un utilisateur humain prennent généralement place dans des environnements collaboratifs où les interlocuteurs partagent des buts communs. La relation interpersonnelle que les individus créent durant leurs interactions affecte leurs stratégies de communications. Par ailleurs, des individus qui collaborent pour atteindre un but commun sont généralement amenés à négocier. Ce type de négociation permet aux négociateurs d'échanger des informations afin de mieux collaborer. L'objectif cette thèse est d'étudier l'impact de la relation interpersonnelle de dominance sur les stratégies de négociation collaborative entre un agent et un humain. Ce travail se base sur des études en psychologie sociale qui ont défini les comportements liés à la manifestation de la dominance dans une négociation. Nous proposons un modèle de négociation collaborative dont le modèle décisionnel est régi par la relation de dominance. En effet, en fonction de sa position dans le spectre de dominance, l'agent est capable d'exprimer une stratégie de négociation spécifique. En parallèle, l'agent simule une relation interpersonnelle de dominance avec son interlocuteur. Pour ce faire, nous avons doté l'agent d'un modèle de théorie de l'esprit qui permet à l'agent de raisonner sur les comportements de son interlocuteur afin de prédire sa position dans le spectre de dominance. Ensuite, il adapte sa stratégie de négociation vers une stratégie complémentaire à celle détectée chez son interlocuteur. Nos résultats ont montré que les comportements de dominance exprimés par notre agent sont correctement perçus. Par ailleurs, le modèle de la théorie de l'esprit est capable de faire de bonnes prédictions avec seulement une représentation partielle de l'état mental de l'interlocuteur. Enfin, la simulation de la relation interpersonnelle de dominance a un impact positif sur la négociation: les négociateurs atteignent de bon taux de gains communs. De plus, la relation de dominance augmente le sentiment d'appréciation entre les négociateurs et la négociation est perçue comme confortable. / The rise of work in affective computing sees the emergence of various research questions to study agent / human interactions. Among them raises the question of the impact of interpersonal relations on the strategies of communication. Human/agent interactions usually take place in collaborative environments in which the agent and the user share common goals. The interpersonal relations which individuals create during their interactions affects their communications strategies. Moreover, individuals who collaborate to achieve a common goal are usually brought to negotiate. This type of negotiation allows the negotiators to efficiently exchange information and their respective expertise in order to better collaborate. The objective of this thesis is to study the impact of the interpersonal relationship of dominance on collaborative negotiation strategies between an agent and a human. This work is based on studies from social psychology to define the behaviours related to the manifestation of dominance in a negotiation. We propose a collaborative negotiation model whose decision model is governed by the interpersonal relation of dominance. Depending on its position in the dominance spectrum, the agent is able to express a specific negotiation strategy. In parallel, the agent simulates an interpersonal relationship of dominance with his interlocutor. To this aim, we provided the agent with a model of theory of mind that allows him to reason about the behaviour of his interlocutor in order to predict his position in the dominance spectrum. Afterwards, the agent adapts his negotiation strategy to complement the negotiation strategy detected in the interlocutor. Our results showed that the dominance behaviours expressed by our agent are correctly perceived by human participants. Furthermore, our model of theory of mind is able de make accurate predictions of the interlocutor behaviours of dominance with only a partial representation of the other's mental state. Finally, the simulation of the interpersonal relation of dominance has a positive impact on the negotiation: the negotiators reach a good rate of common gains and the negotiation is perceived comfortable which increases the liking between the negotiators.
|
98 |
Dissémination multi-contenus opportuniste : monitorage passif et adaptation aux conditions du réseau / Opportunistic multi-content dissemination : Passive monitoring and adaptation to network conditionsSammarco, Matteo 28 May 2014 (has links)
La pénétration du marché des appareils mobiles a connu une croissance impressionnante ces dernières années. Smartphones, tablettes et ordinateurs portables sont devenus soit producteurs soit consommateurs de contenus générés par les utilisateurs. Les communications opportunistes permettent une couverture étendue dans les endroits où il n'existe aucune infrastructure réseau disponible et des stratégies de délestage de données pour aider les opérateurs à soulager la charge de leurs infrastructures. Dans cette thèse, nous considérons le cas de la diffusion opportuniste de plusieurs grands contenus d'un point de vue expérimental. Dans la première partie nous commençons par implémenter EPICS, un protocole réseau conçu pour l'échange opportuniste de grands contenus, dans des terminaux Android. Après sa évaluation nous proposons DAD, un nouveau protocole, qui envoie une rafale de paquets de données de façon adaptative. Nous comparons les deux protocoles expérimentalement et, à l'aide des traces de contacts, soit réelles, soit synthétiques, nous obtenons des gains importants avec cette nouvelle approche. La deuxième partie est dédiée au passage à l'échelle des systèmes de surveillance passive. Nous proposons deux approches. La première est basée sur la similarité des traces et des algorithmes de détection de communautés. La deuxième est basée sur des mesures collaboratives. / The market penetration of mobile devices has experienced an impressive growth. Smartphones, tablets, and laptops have become both producers and consumers of user-generated contents. They also motivate novel communication paradigms such as the possibility to establish, in an opportunistic fashion, direct device-to-device links whenever two mobile nodes enter within the wireless range of each other. In this thesis, we consider the case of opportunistic dissemination of multiple large contents from an experimental point of view. This implies revisiting, among others, the common assumption that contacts have enough capacity to transfer any amount of data.In the first part of this thesis, we start from an Android implementation of EPICS, a network protocol designed for exchanging large contents in opportunistic networks, on off-the-shelf devices. After an deep analysis of application-level logs and captured wireless traces we found out limitations and uncovered improving possibilities. We then propose DAD, a new content dissemination protocol that adaptively sends bursts of data instead of the per-fragment transmission strategy of EPICS.The second part of this thesis deals with the scalability of legacy WLAN monitoring systems. We propose two original approaches. With the first one, based on trace similarity and community detection algorithms, we are able to identify how many monitor we need in a target area and where to place them. The second approach in based on collaborative measurements. In this case we face the risk of biased measures due attacks of malicious users generating adulterated traces. We then propose a method to detect such malicious behaviors.
|
99 |
Music across music : towards a corpus-based, interactive computer-aided composition / Musique à travers la musique : vers une composition interactive assistée par ordinateur, basée sur un corpusGhisi, Daniele 19 December 2017 (has links)
Le traitement de musique existante pour en construire de nouvelle est une caractéristique fondamentale de la tradition musicale occidentale. Cette thèse propose et discute mon approche personnelle au sujet : l'emprunt de fragments de musique à partir de grands corpus (contenant des échantillons audio ainsi que des partitions symboliques) afin de créer une palette de grains organisée par descripteurs de bas niveau. Les paramètres sont gérés par des partitions numériques hybrides. Cette thèse présente également la bibliothèque "dada", qui fournit au logiciel Max la possibilité d'organiser, de sélectionner et de générer du contenu musical grâce à un ensemble d'interfaces graphiques manifestant une approche exploratoire à la composition. Ses modules abordent, entre autre, la visualisation de bases de données, la segmentation et l'analyse des partitions, la synthèse concaténative, la génération musicale à travers la modélisation physique ou géométrique, la synthèse "wave-terrain", l'exploration de graphes, les automates cellulaires, l'intelligence distribuée et les jeux vidéo. Pour terminer, cette thèse traite de la question de savoir si la représentation classique de la musique, démêlée dans l'ensemble standard des paramètres traditionnels, est optimale. Deux alternatives possibles aux décompositions orthogonales sont présentées : des représentations de partitions fondées sur les "grains", qui héritent les techniques de la composition basée sur corpus, et des modèles d'apprentissage automatique non supervisés, fournissant représentations de la musique "agnostiques". La thèse détaille aussi ma première expérience d'écriture collaborative au sein du collectif /nu/thing. / The reworking of existing music in order to build new one is a quintessential characteristic of the Western musical tradition. This thesis proposes and discusses my personal approach to the subject: the borrowing of music fragments from large-scale corpora (containing audio samples as well as symbolic scores) in order to build a low-level, descriptor-based palette of grains. Parameters are handled via digital hybrid scores, in order to equip corpus-based composition with the control of notational practices. This thesis also introduces the dada library, providing Max with the ability to organize, select and generate musical content via a set of graphical interfaces manifesting an exploratory approach towards music composition. Its modules address a range of scenarios, including, but not limited to, database visualization, score segmentation and analysis, concatenative synthesis, music generation via physical or geometrical modelling, wave terrain synthesis, graph exploration, cellular automata, swarm intelligence, and videogames. The library is open-source and it fosters a performative approach to computer-aided composition. Finally, this thesis addresses the issue of whether classical representation of music, disentangled in the standard set of traditional parameters, is optimal. Two possible alternatives to orthogonal decompositions are presented: grain-based score representations, inheriting techniques from corpus-based composition, and unsupervised machine learning models, providing entangled, `agnostic' representations of music. The thesis also details my first experience of collaborative writing within the /nu/thing collective.
|
100 |
Tools for fluid simulation control in computer graphicsSchoentgen, Arnaud 09 1900 (has links)
L’animation basée sur la physique peut générer des systèmes aux comportements complexes
et réalistes. Malheureusement, contrôler de tels systèmes est une tâche ardue. Dans le cas
de la simulation de fluide, le processus de contrôle est particulièrement complexe. Bien
que de nombreuses méthodes et outils ont été mis au point pour simuler et faire le rendu
de fluides, trop peu de méthodes offrent un contrôle efficace et intuitif sur une simulation
de fluide. Étant donné que le coût associé au contrôle vient souvent s’additionner au coût
de la simulation, appliquer un contrôle sur une simulation à plus haute résolution rallonge
chaque itération du processus de création. Afin d’accélérer ce processus, l’édition peut se
faire sur une simulation basse résolution moins coûteuse. Nous pouvons donc considérer que
la création d’un fluide contrôlé peut se diviser en deux phases: une phase de contrôle durant
laquelle un artiste modifie le comportement d’une simulation basse résolution, et une phase
d’augmentation de détail durant laquelle une version haute résolution de cette simulation
est générée. Cette thèse présente deux projets, chacun contribuant à l’état de l’art relié à
chacune de ces deux phases.
Dans un premier temps, on introduit un nouveau système de contrôle de liquide représenté
par un modèle particulaire. À l’aide de ce système, un artiste peut sélectionner dans une base
de données une parcelle de liquide animé précalculée. Cette parcelle peut ensuite être placée
dans une simulation afin d’en modifier son comportement. À chaque pas de simulation, notre
système utilise la liste de parcelles actives afin de reproduire localement la vision de l’artiste.
Une interface graphique intuitive a été développée, inspirée par les logiciels de montage vidéo,
et permettant à un utilisateur non expert de simplement éditer une simulation de liquide.
Dans un second temps, une méthode d’augmentation de détail est décrite. Nous proposons
d’ajouter une étape supplémentaire de suivi après l’étape de projection du champ de
vitesse d’une simulation de fumée eulérienne classique. Durant cette étape, un champ de
perturbations de vitesse non-divergent est calculé, résultant en une meilleure correspondance
des densités à haute et à basse résolution. L’animation de fumée résultante reproduit fidèlement
l’aspect grossier de la simulation d’entrée, tout en étant augmentée à l’aide de détails
simulés. / Physics-based animation can generate dynamic systems of very complex and realistic behaviors.
Unfortunately, controlling them is a daunting task. In particular, fluid simulation
brings up particularly difficult problems to the control process. Although many methods
and tools have been developed to convincingly simulate and render fluids, too few methods
provide efficient and intuitive control over a simulation. Since control often comes with extra
computations on top of the simulation cost, art-directing a high-resolution simulation leads
to long iterations of the creative process. In order to shorten this process, editing could be
performed on a faster, low-resolution model. Therefore, we can consider that the process of
generating an art-directed fluid could be split into two stages: a control stage during which
an artist modifies the behavior of a low-resolution simulation, and an upresolution stage
during which a final high-resolution version of this simulation is driven. This thesis presents
two projects, each one improving on the state of the art related to each of these two stages.
First, we introduce a new particle-based liquid control system. Using this system, an
artist selects patches of precomputed liquid animations from a database, and places them in
a simulation to modify its behavior. At each simulation time step, our system uses these entities
to control the simulation in order to reproduce the artist’s vision. An intuitive graphical
user interface inspired by video editing tools has been developed, allowing a nontechnical
user to simply edit a liquid animation.
Second, a tracking solution for smoke upresolution is described. We propose to add an
extra tracking step after the projection of a classical Eulerian smoke simulation. During
this step, we solve for a divergence-free velocity perturbation field resulting in a better
matching of the low-frequency density distribution between the low-resolution guide and the
high-resolution simulation. The resulting smoke animation faithfully reproduces the coarse
aspect of the low-resolution input, while being enhanced with simulated small-scale details.
|
Page generated in 0.0507 seconds