• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 14
  • 3
  • Tagged with
  • 50
  • 25
  • 10
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Les effets de masquage dans l'expression de la représentation sociale des immigrés. : étude du rôle de quelques facteurs intervenant dans la (dé)légitimation et le (dé)masquage de croyances pro et contre-normatives.

Dumay, Raquel 26 January 2012 (has links)
On s'intéresse dans le cadre de ce travail de thèse aux variables susceptibles de favoriser ou d'inhiber l'expression de croyances contre-normatives intervenant dans le champ de la représentation sociale des immigrés. On étudie plus précisément l'impact de la protection normative accordée à ce groupe social, de la capacité d'adaptation à leur société d'accueil qui leur est attribuée mais également de la filière universitaire d'appartenance des sujets interrogés sur les stratégies sociocognitives de masquage et de démasquage mises en place dans l'expression de la représentation. On s'attend à ce que ces trois facteurs interagissent avec la variable consigne de passation, en atténuant voire en annulant dans certains cas les différences classiquement observées entre les conditions où les sujets répondent en leur nom propre (hypothèse de masquage) et celles où ils s'expriment au nom d'un autrui de substitution (hypothèse de démasquage). Les résultats des recherches empiriques révèlent comme prévu des effets différenciés de la variable consigne de passation selon les modalités des facteurs testés, confirmant l'implication de processus d'ordre normatif dans les effets de la substitution. En outre, les liens observés entre protection normative attribuée aux immigrés et capacité d'adaptation perçue confirment l'existence de logiques de justification et de légitimation qui semblent présider à l'orchestration des phénomènes de masquage et de démasquage dans l'expression des représentations sociales de groupes minoritaires. / We are interested in the context of this Phd thesis to the variables that can facilitate or inhibit the expression of counter-normative beliefs working in the field of social representation of immigrants. We study more precisely the impact of normative protection given to this social group, the perceived ability to adapt to their host society they are assigned but also the academic affiliation of respondents on the socio-cognitive strategies of masking and unmasking set place in the expression of representation. It is expected that these three factors interact with the answering instruction, mitigating or even cancelling in some cases the differences typically observed between conditions where subjects respond in their own name (masking hypothesis) and those where they express an opinion on behalf of a substitute other (unmasking hypothesis). The results of empirical research show as expected differential effects of the answering instruction under the terms of the factors tested, confirming the involvement of a normative process in the effects of substitution. Moreover, the observed associations between normative protection granted to immigrants and their perceived adaptability confirm the existence of justification and legitimation processes that seem to govern the orchestration of the phenomena of masking and unmasking in the expression of social representation about minority groups.
42

Applications of perceptual sparse representation (Spikegram) for copyright protection of audio signals / Applications de la représentation parcimonieuse perceptuelle par graphe de décharges (Spikegramme) pour la protection du droit d’auteur des signaux sonores

Erfani, Yousof January 2016 (has links)
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC. / Abstract : Every year global music piracy is making billion dollars of economic, job, workers’ earnings losses and also million dollars loss in tax revenues. Most of the music piracy is because of rapid growth and easiness of current technologies for copying, sharing, manipulating and distributing musical data [Domingo, 2015], [Siwek, 2007]. Audio watermarking has been proposed as one approach for copyright protection and tamper localization of audio signals to prevent music piracy. In this thesis, we use the spikegram- which is a bio-inspired sparse representation- to propose a novel approach to design an audio tamper localization method as well as an audio copyright protection method and also a new perceptual attack against any audio watermarking system. First, we propose a tampering localization method for audio signal, based on a Modified Spread Spectrum (MSS) approach. Perceptual Matching Pursuit (PMP) is used to compute the spikegram (which is a sparse and time-shift invariant representation of audio signals) as well as 2-D masking thresholds. Then, an authentication code (which includes an Identity Number, ID) is inserted inside the sparse coefficients. For high quality watermarking, the watermark data are multiplied with masking thresholds. The time domain watermarked signal is re-synthesized from the modified coefficients and the signal is sent to the decoder. To localize a tampered segment of the audio signal, at the decoder, the ID’s associated to intact segments are detected correctly, while the ID associated to a tampered segment is mis-detected or not detected. To achieve high capacity, we propose a modified version of the improved spread spectrum watermarking called MSS (Modified Spread Spectrum). We performed a mean opinion test to measure the quality of the proposed watermarking system. Also, the bit error rates for the presented tamper localization method are computed under several attacks. In comparison to conventional methods, the proposed tamper localization method has the smallest number of mis-detected tampered frames, when only one frame is tampered. In addition, the mean opinion test experiments confirms that the proposed method preserves the high quality of input audio signals. Moreover, we introduce a new audio watermarking technique based on a kernel-based representation of audio signals. A perceptive sparse representation (spikegram) is combined with a dictionary of gammatone kernels to construct a robust representation of sounds. Compared to traditional phase embedding methods where the phase of signal’s Fourier coefficients are modified, in this method, the watermark bit stream is inserted by modifying the phase of gammatone kernels. Moreover, the watermark is automatically embedded only into kernels with high amplitudes where all masked (non-meaningful) gammatones have been already removed. Two embedding methods are proposed, one based on the watermark embedding into the sign of gammatones (one dictionary method) and another one based on watermark embedding into both sign and phase of gammatone kernels (two-dictionary method). The robustness of the proposed method is shown against 32 kbps MP3 with an embedding rate of 56.5 bps while the state of the art payload for 32 kbps MP3 robust iii iv watermarking is lower than 50.3 bps. Also, we showed that the proposed method is robust against unified speech and audio codec (24 kbps USAC, Linear predictive and Fourier domain modes) with an average payload of 5 − 15 bps. Moreover, it is shown that the proposed method is robust against a variety of signal processing transforms while preserving quality. Finally, three perceptual attacks are proposed in the perceptual sparse domain using spikegram. These attacks are called PMP, inaudible noise adding and the sparse replacement attacks. In PMP attack, the host signals are represented and re-synthesized with spikegram. In inaudible noise attack, the inaudible noise is generated and added to the spikegram coefficients. In sparse replacement attack, each specific frame of the spikegram representation - when possible - is replaced with a combination of similar frames located in other parts of the spikegram. It is shown than the PMP and inaudible noise attacks have roughly the same efficiency as the 32 kbps MP3 attack, while the replacement attack reduces the normalized correlation of the spread spectrum decoder with a greater factor than when attacking with 32 kbps MP3 or 24 kbps unified speech and audio coding (USAC).
43

Security of cryptosystems against power-analysis attacks / Sécurité des schémas cryptographiques contre les attaques par canaux auxiliaires

Belaïd, Sonia 22 October 2015 (has links)
Les attaques par canaux auxiliaires sont les attaques les plus efficaces contre les systèmes cryptographiques. Alors que les attaques classiques n’exploitent que les entrées et sorties des algorithmes cryptographiques, les attaques par canaux auxiliaires utilisent également les fuites physiques du composant sous-jacent. Dans cette thèse, nous nous intéressons aux attaques par canaux auxiliaires qui exploitent la consommation de courant des composants pour retrouver les clefs secrètes. Ces attaques sont désignées par le terme attaques par analyse de courant. La majorité des attaques par analyse de courant existantes repose sur l’observation de variables dépendant uniquement de quelques bits de secret avec la stratégie diviser-pour-régner. Dans cette thèse, nous exhibons de nouvelles attaques qui exploitent l’observation de variables intermédiaires largement dépendantes de grands secrets. Notamment, nous montrons qu’en observant uniquement la fuite physique du résultat d’une multiplication de Galois entre une clef secrète de 128 bits et plusieurs messages connus, nous pouvons en déduire un système d’équations avec erreurs puis retrouver cette clef secrète. En parallèle, nous nous intéressons aux deux contre-mesures algorithmiques les plus répandues contre ces attaques par analyse de courant : les fonctions intrinsèquement résistantes aux fuites physiques et les schémas de masquage. Dans un premier temps, nous définissons un schéma de chiffrement résistant aux fuites physiques qui repose sur un rafraîchissement régulier de la clef secrète. Nous prouvons la sécurité de ce schéma dans le modèle de cryptographie résistante aux fuites (en anglais, leakage-resilient cryptography). Dans un second temps, nous construisons, à l’aide des méthodes formelles, un outil permettant de vérifier automatiquement la sécurité d’implémentations masquées. Nous exhibons également de nouvelles propriétés de sécurité, ainsi que des propriétés de composition qui nous permettent de générer une implémentation masquée à n’importe quel ordre à partir d’une implémentation non protégée. Finalement, nous présentons une étude de comparaison entre ces deux contre-mesures algorithmiques dans le but d’aider les experts industriels à déterminer la meilleure protection à intégrer dans leurs produits en fonction de leurs contraintes en termes de sécurité et de performances. / Side-channel attacks are the most efficient attacks against cryptosystems. While the classical blackbox attacks only exploit the inputs and outputs of cryptographic algorithms, side-channel attacks also get use of the physical leakage released by the underlying device during algorithms executions. In this thesis, we focus on one kind of side-channel attacks which exploits the power consumption of the underlying device to recover the algorithms secret keys. They are gathered under the term power-analysis attacks. Most of the existing power-analysis attacks rely on the observations of variables which only depend on a few secret bits using a divide-and-conquer strategy. In this thesis, we exhibit new kinds of attacks which exploit the observation of intermediate variables highly dependent on huge secrets. In particular, we show how to recover a 128-bit key by only recording the leakage of the Galois multiplication’s results between several known messages and this secret key. We also study two commonly used algorithmic countermeasures against side-channel attacks: leakage resilience and masking. On the one hand, we define a leakage-resilient encryption scheme based on a regular update of the secret key and we prove its security. On the other hand, we build, using formal methods, a tool to automatically verify the security of masked algorithms. We also exhibit new security and compositional properties which can be used to generate masked algorithms at any security order from their unprotected versions. Finally, we propose a comparison between these two countermeasures in order to help industrial experts to determine the best protection to integrate in their products, according to their constraints in terms of security and performances.
44

Surdités cachées ; atteinte des cellules sensorielles cochléaires ou du nerf auditif ? / Hidden deafness; cochlear sensory cells or vestibulocochlear nerve affection ?

Souchal, Marion 26 September 2017 (has links)
Les surdités neurosensorielles sont classiquement décrites par une élévation des seuils auditifs généralement corrélée à une dégénérescence des cellules ciliées externes (CCE). Toutefois, des travaux récents sur des modèles animaux ont montré qu’un audiogramme normal pouvait être associé à des atteintes auditives périphériques. Ce travail de thèse a contribué à mieux caractériser chez des modèles murins, ces déficiences supraliminaires cachées liées d’une part, à des altérations des CCE et d’autre part, à la dégénérescence de certaines fibres nerveuses auditives. Dans la première partie de cette thèse, l’évolution des profils auditifs de souris présentant une dégénérescence accélérée des CCE, les souris de souche CD1-RjOrl : SWISS, a été caractérisée. Dans cette étude longitudinale, menée au cours du premier mois postnatal, une progressivité de la déficience auditive a été montrée. Toutefois, une discordance surprenante a été mise en évidence entre des seuils auditifs proches des valeurs normales à haute fréquence combinés à des produits de distorsions acoustiques (PDA) absents. Les courbes d’accord de masquage montrent un décalage des pointes vers les basses fréquences. Ces données indiquent que les CCE de la base ne sont plus fonctionnelles et que la perception des hautes fréquences est perturbée. Les observations en microscopie électronique à balayage ont révélé une conformation anormale de la touffe stéréociliaire des CCE au niveau de la base de la cochlée. Ces données témoignent d’une désorganisation de la tonotopie cochléaire. Dans la deuxième partie de cette thèse, l’effet de l’oxaliplatine sur la fonction auditive et sur la morphologie cochléaire a été décrit chez des souris adultes de souche CBA/J. L’oxaliplatine, un sel de platine utilisé en chimiothérapie, a de nombreux effets secondaires parmi lesquels l’apparition d’une neuropathie périphérique. À la suite d’un traitement avec cette drogue, les souris ne présentent pas d’élévation des seuils auditifs et pas d’altération de la fonction des CCE. Cependant, l’étude histologique révèle une dégénérescence surprenante des fibres auditives du ganglion spiral. Avec des tests électrophysiologiques supplémentaires, une diminution de l’amplitude du potentiel d’action composite a été mise en évidence. Le réflexe du système efférent olivocochléaire médian, évalué par un test de suppression controlatéral, semble également être diminué par le traitement. Les souris traitées avec de l’oxaliplatine constituent donc un modèle animal précieux de surdité cachée, qui demande à être mieux caractérisé. Les résultats de ces études confirment l’insuffisance de l’audiogramme pour détecter des altérations subtiles de la cochlée et montrent la nécessité d’améliorer le diagnostic de ces déficiences supraliminaires. Ainsi, les atteintes cachées des CCE peuvent être détectées par l’absence de PDA associée à des potentiels évoqués auditifs normaux et les neuropathies par des PDA présents associés à des potentiels évoqués auditifs anormaux. La combinaison de ces différents tests fonctionnels et électrophysiologiques permettrait une meilleure prise en charge des patients et une amélioration de leur qualité de vie. / Sensorineural hearing loss are classically described by auditory thresholds elevation usually correlated with outer hair cells (OHC) degeneration. However, recent work on animal models has shown that normal audiogram can be associated with peripheral hearing impairments. This thesis contributed to better characterize, in mouse models, these hidden supraliminal deficiencies related on the one hand, with OHC alterations and on the other, to auditory nerve fibers degeneration. In the first part of this thesis, the auditory profiles evolution of mice exhibiting an OHC accelerated degeneration, the CD1-RjOrl: SWISS strain mice, was characterized. In this longitudinal study, conducted in the first postnatal month, a progressivity of the hearing impairment has been observed. However, a surprising discrepancy was found between high frequency hearing thresholds close to normal values associated with missing distortion product otoacoustic emission (DPOAE). The masking tuning curves dips are shifted toward low frequencies. Those data indicate that basal OHC are no longer functional and the perception of high frequencies is disrupted. Observations in scanning electron microscopy revealed an abnormal conformation of the OHC stereocilia bundles at the cochlea base. These results represent an evidence of a disorganized cochlear tonotopy. In the second part of this thesis, the effect of oxaliplatin on the auditory function and on the cochlear morphology was described in adult CBA/J strain mice. Oxaliplatin, a platinum salt used in chemotherapy, has many side effects including development of peripheral neuropathy. Following one treatment with this drug, mice did not present any hearing threshold elevation or OHC function impairment. However, the histological study reveals a surprising degeneration of the spiral ganglion cells. With additional electrophysiological tests, a decrease in the compound action potential amplitude has been demonstrated. The median olivocochlear efferent system reflex, evaluated by a contralateral suppression test, also seems to be diminished by the treatment. The mice treated with oxaliplatin, therefore constitute a precious animal model of hidden deafness, which needs to be better characterized. The results of these studies confirm the audiogram insufficiency to detect subtle cochlea alterations and reveal the need to improve supraliminal deficiencies diagnosis. Thus, hidden OHC impairments can be detected by the absence of DPOAE associated with normal auditory evoked potentials and neuropathies by the presence of DPOAE associated with abnormal auditory evoked potentials. The combination of these functional and electrophysiological tests would allow better management of patients and an improvement in their quality of life.Keywords: hidden hearing loss, CD1 mice, outer hair cells, masking tuning curves, tonotopy, oxaliplatine, spiral
45

Contribution à l’étude de l’expression aromatique fruitée des vins rouges : Importance du niveau pré-sensoriel dans les interactions perceptives. / Study of red wines fruity aromatic expression : Importance of pre-sensorial level in perceptive interactions.

Cameleyre, Margaux 20 December 2017 (has links)
L’expression aromatique fruitée des vins rouges a été le sujet de nombreuses études qui démontrent qu’au moins une composante de cette expression est le reflet d’interactions perceptives impliquant des esters. La plupart des travaux concernant les interactions perceptives jusqu’à ce jour se sont avérés descriptifs, très peu ayant cherché à déterminer leurs origines. Dans ce but, un outil analytique a été développé afin d’apprécier les changements de volatilité d’esters représentatifs de l’arôme fruité des vins rouges. Ainsi, les coefficients de partage de 9 esters ont pu être déterminés aussi bien dans une solution hydroalcoolique que dans un vin rouge désaromatisé. L’application de cet outil analytique aux interactions perceptives préalablement mises en évidence a permis d'observer des changements de volatilité des esters lors de leur mise en mélange avec d'autres composés volatils en solution. Ces changements de volatilité, synonymes de potentiels effets pré-sensoriels, vont dans le même sens que ceux observés lors de l’analyse sensorielle. L’utilisation d’un verre de dégustation possédant deux compartiments a permis de mettre en lumière le fait que certaines modifications sensorielles pouvaient être expliquées, pour partie au moins, par des effets pré-sensoriels. L'impact olfactif de 5 alcools supérieurs ainsi que de 15 composés issus du bois de chêne a pu être démontré grâce à de nombreuses reconstitutions aromatiques, et leur rôle de masquage de l’arôme fruité des vins rouges a pu être souligné. Le calcul des coefficients de partage des esters a permis de montrer que des changements de volatilité ont lieu au sein de la solution. Ces modifications peuvent être corrélées aux résultats obtenus lors de l’analyse sensorielle. Ainsi, il est possible d’expliquer, en partie, les effets de masquage de l’arôme fruité observés grâce aux seuils de détection et aux profils sensoriels, du fait de la diminution de la présence d’esters dans l’espace de tête venant stimuler le dégustateur. Globalement, nos travaux ont permis de mettre en évidence que la mise en mélange en solution de composés volatils pouvait se traduire par la modification de la volatilité des constituants du mélange et que certaines de ces interactions pré-sensorielles pouvaient conditionner l'expression aromatique fruitée due aux esters. / A lot of studies highlighted the perceptual role of esters in fruity aromatic expression of red wines, demonstrating that at least partially it was due to perceptive interactions. Indeed, a lot of synergistic and masking effects have been brought to light in the past. However, the origin of these interactions remains unknown, although some authors suggested several levels where they can take place. In this goal, an analytical tool was developed to study the possible occurrence of esters volatility modifications. The application of this tool allowed determining partition coefficients of 9 esters in dilute alcohol solution and in dearomatized red wine. Thanks to perceptive interactions previously demonstrated by various authors, the application of this analytical tool highlighted modifications of esters volatility when compounds were mixed together in the solution. These modifications support the observations made with sensory analysis, indicating the existence of pre-sensorial effects. The use of a new tool consisting in a tasting glass with 2 compartments, reveals that these volatility changes may led to true sensorial modifications. Masking effect of fruity aroma due to 5 higher alcohols but also 15 wood by-products was highlighted using various aromatic reconstitutions. Esters partition coefficients calculation showed volatility modifications from the matrix to the gas phase. These data may be correlated with sensorial analysis results. Thus, it is possible to explain, at least partially, fruity aroma masking effect highlighted through detection threshold and sensory profile thanks to decrease in esters presence in headspace, and so a decline of taster’s olfactory stimulation. To conclude, our work showed that the mixture of volatile compounds in solution may result in modification of molecules volatility, and furthermore highlighted that these pre-sensorial interactions may impact fruity aromatic expression related to esters
46

Représentations géométriques de détails fins pour la simulation d’éclairage

Tamisier, Elsa 10 1900 (has links)
Cotutelle avec l'Université de Poitiers, France / Lors du processus de création d’une image de synthèse photoréaliste, l’objectif principal recherché est de reproduire le transport de la lumière dans un environnement virtuel, en prenant en compte aussi précisément que possible les caractéristiques des objets de la scène 3D. Dans la perception de notre environnement, les détails très fins ont une grande importance sur l’apparence des objets, tels que des rayures sur un morceau de métal, des particules dans du vernis, ou encore les fibres d'un tissu. Il est primordial de pouvoir les reproduire à tout niveau d'échelle. Créer ces détails grâce à des informations géométriques, par exemple un maillage, mène à une trop forte complexité en termes de construction, de stockage, de manipulation et de temps de rendu. Il est donc nécessaire d’utiliser des modèles mathématiques qui permettent d’approcher au mieux les comportements lumineux induits par ces détails. Le travail de cette thèse s'inscrit dans cette problématique de gestion des détails fins par la théorie des microfacettes. En particulier, nous nous sommes intéressés à la notion de masquage-ombrage permettant de calculer la proportion de surface qui est à la fois visible de l’observateur et éclairée. Pour cela, nous étudions le modèle théorique proposé par Smith et par Ashikhmin et al. dans lequel la représentation mathématique est basée sur des contraintes liées à la position des facettes, leur orientation, leur aire et les corrélations entre ces caractéristiques. Nous avons éprouvé le modèle sur plus de 400 maillages 3D reconstruits à partir de surfaces réelles qui ne respectent pas nécessairement les contraintes imposées du modèle. Quelques maillages sont également générés à partir de distributions des orientations de microfacettes de Beckmann et GGX largement utilisées dans les moteurs de simulation académiques et industriels. Pour chacun des maillages, une fonction de masquage de référence est mesurée grâce à un algorithme de tracer de rayons. Nous pouvons ainsi comparer le masquage réel d'une microsurface prenant en compte la donnée dans son entièreté, à son masquage théorique calculé seulement par la distribution de ses micronormales. Cette étude met en évidence un lien entre l'erreur du masquage théorique et certaines caractéristiques de la microsurface, telles que sa rugosité, son anisotropie, ou le non respect des contraintes du modèle. Nous proposons une méthode pour développer un modèle prédictif de l'erreur calculable à partir de ces caractéristiques et sans avoir recours au lourd processus de tracer de rayons. L’analyse montre également le lien entre l'erreur au niveau du terme de masquage et sa répercussion dans le rendu final d'une image de synthèse. La possibilité de prédire l'erreur grâce à un processus rapide permet d'estimer la complexité de l'usage d'une microgéométrie dans un rendu photoréaliste. Nous complétons nos travaux en proposant un facteur correctif au masquage théorique pour les surfaces isotropes, là encore calculable directement à partir des caractéristiques du maillage. Nous montrons le gain de précision que cette correction apporte, tant au niveau du masquage lui-même qu'au niveau des rendus d'images de synthèse. La thèse est conclue avec une discussion présentant les limites actuelles de notre étude et ses perspectives futures. / During the creation process of a photorealistic image, the main goal is to reproduce light transport in a virtual environment by considering as accurately as possible the characteristics of the surfaces from the 3D scene. In the real world, very fine details may have a tremendous impact on the visual aspect. For instance, scratches over metal, particles within varnish, or fibers of a fabric, will visually alter surface appearance. It is therefore crucial to be able to simulate such effects at every level of detail. However, creating such microgeometry for a given 3D mesh is a complex task that results in very high memory requirements and computation time. Mathematical models must be used to approximate as precisely as possible light effects produced by these details. This thesis considers fine details from the microfacet theory, and in particular, the masking-shadowing factor that corresponds to the proportion of microsurfaces that are both visible and illuminated. We study the commonly used theoretical model of Smith and Ashikhmin et al. where the mathematical representation is derived from constraints about microfacets positions, orientations, areas, and correlations between those characteristics. The proposed model has been confronted to more than 400 3D meshes, built from real-world measured surfaces that do not necessarily fulfill the theory constraints. Some of them have also been generated from the widely used Beckmann and GGX distributions. For each mesh, the ground-truth masking effect is measured using ray tracing, and compared with the theoretical masking computed only from the distribution of micronormals. Our study highlights a connection between the theoretical masking's error and some microsurface's characteristics, such as roughness, anisotropy, or non-compliance with required constraints. We provide a method for deriving a predictive model for this error. The mesh characteristics are sufficient to compute this model without requiring heavy ray tracing computation. Our analysis shows how the masking error impacts the rendering process. We also derive a model capable of predicting rendering errors from surface characteristics. With the opportunity to predict the error with a fast computation from a 3D mesh, one can estimate the complexity to use a given microgeometry for a photorealistic rendering. Our study concludes with the formulation of a correction function added to the theoretical masking term for isotropic surfaces. This correction is computed directly from the 3D mesh characteristics without any ray tracing involved. We show gains in the accuracy of the model when corrected with our formula, both for the masking effect itself and its impact on the exactness of the renderings. This thesis is concluded with a discussion about the current limitations of our study and some future perspectives.
47

L'encadrement juridique de la gestion électronique des données médicales. / Legal framework for the electronic management of medical data

Etien-Gnoan, N'Da Brigitte 18 December 2014 (has links)
La gestion électronique des données médicales consiste autant dans le simple traitement automatisé des données personnelles que dans le partage et l'échange de données relatives à la santé. Son encadrement juridique est assuré, à la fois, par les règles communes au traitement automatisé de toutes les données personnelles et par celles spécifiques au traitement des données médicales. Cette gestion, même si elle constitue une source d'économie, engendre des problèmes de protection de la vie privée auxquels le gouvernement français tente de faire face en créant l'un des meilleurs cadres juridiques au monde, en la matière. Mais, de grands chantiers comme celui du dossier médical personnel attendent toujours d'être réalisés et le droit de la santé se voit devancer et entraîner par les progrès technologiques. Le développement de la télésanté bouleverse les relations au sein du colloque singulier entre le soignant et le soigné. L'extension des droits des patients, le partage de responsabilité, l'augmentation du nombre d'intervenants, le secret médical partagé constituent de nouveaux enjeux avec lesquels il faut, désormais compter. Une autre question cruciale est celle posée par le manque d'harmonisation des législations augmentant les risques en cas de partage transfrontalier de données médicales / The electronic management of medical data is as much in the simple automated processing of personal data in the sharing and exchange of health data . Its legal framework is provided both by the common rules to the automated processing of all personal data and those specific to the processing of medical data . This management , even if it is a source of economy, creates protection issues of privacy which the French government tries to cope by creating one of the best legal framework in the world in this field. However , major projects such as the personal health record still waiting to be made and the right to health is seen ahead and lead by technological advances . The development of e-health disrupts relationships within one dialogue between the caregiver and the patient . The extension of the rights of patients , sharing responsibility , increasing the number of players , the shared medical confidentiality pose new challenges with which we must now count. Another crucial question is posed by the lack of harmonization of legislation increasing the risks in cross-border sharing of medical
48

Rôles de l'hétérogénéité des sédiments de fond et des interactions houle-courant sur l'hydrodynamique et la dynamique sédimentaire en zone subtidale - applications en Manche orientale et à la pointe de la Bretagne.

Guillou, Nicolas 13 October 2007 (has links) (PDF)
Les processus hydrodynamiques et sédimentaires subtidaux sont étudiés en Manche au niveau du détroit du Pas-de-Calais et de son littoral méridional, et de la Mer d'Iroise et de la Baie de Douarnenez, à travers diverses modalités d'influence de l'hétérogénéité spatiale des sédiments de fond, de la houle via son interaction avec le courant en couche limite de fond et du vent. Une procédure nouvelle d'interpolation spatiale des distributions granulométriques permet de respecter l'hétérogénéité du substrat. L'approche méthodologique combine et confronte mesures de terrain et modélisation numérique. La modélisation, couplant des codes de circulation 3D (COHERENS) et de propagation de houle (SWAN), incorpore des modules de transport sédimentaire non-cohésif multiclasse, un module spécifique d'interaction houle-courant et diverses paramétrisations liées aux rides sableuses de fond (géométrie, coefficient de frottement), ainsi qu'un calcul optimisé du dépôt à l'interface eau-sédiment. La comparaison des prédictions numériques aux mesures recueillies le long du littoral méridional du détroit du Pas-de-Calais montre les interactions entre la bande littorale de sables fins envasés et la variabilité spatio-temporelle de l'hydrodynamique en conditions de courant de marée seul et superposé à une houle de Nord. La modélisation est ensuite appliquée à l'ensemble de la Manche orientale et centrale. En Baie de Douarnenez, l'analyse locale débouche sur une modélisation des influences respectives des courants de marée seuls, d'une houle de tempête superposée aux courants de marée et du vent. Enfin, une étude théorique des effets d'un cap sur la formation des bancs en drapeau est présentée.
49

Caractérisation de systèmes binaires par imagerie haute dynamique non redondante fibrée

Huby, Elsa 03 December 2013 (has links) (PDF)
Mon travail de thèse s'inscrit dans le cadre de l'imagerie à haute résolution angulaire et à haute dynamique et a porté plus particulièrement sur le développement de l'instrument FIRST, Fibered Imager foR a Single Telescope. Celui-ci repose sur la technique novatrice du réarrangement de pupille, combinant masquage de pupille et filtrage spatial du front d'onde par fibres optiques monomodes. L'objectif de ma thèse était de porter cet instrument sur le ciel, d'améliorer ses performances et de développer un programme de traitement et d'analyse des données. Après l'obtention de la première lumière de FIRST en juillet 2010 sur le télescope de 3 m de l'observatoire Lick, je me suis dans un premier temps attachée à améliorer certains aspects du montage optique et mécanique, en vue d'accroître ses performances lors des observations. La qualité des données nous a ensuite permis de mener une campagne d'observations répartie sur de nombreuses nuits entre juillet 2011 et décembre 2012. Le programme d'observation a été centré sur les systèmes binaires, cibles idéales pour évaluer dynamique et pouvoir de résolution de l'instrument. Dans ce but, j'ai donc développé un programme de réduction des images d'interférences permettant d'estimer les observables interférométriques et de les ajuster par un modèle binaire. J'ai ainsi traité une partie de la grande quantité de données acquises à l'observatoire Lick, et en particulier les données prises sur le système binaire Capella. Les résultats montrent que le compagnon est détecté, à une séparation de l'ordre de la limite de diffraction du télescope. De plus, nos données fournissent une mesure directe du rapport de flux spectral aux longueurs d'onde visibles, ce qui constitue une donnée totalement nouvelle pour ce système par ailleurs très bien connu. L'analyse que nous avons menée de ce spectre, par un ajustement de modèles d'atmosphères stellaires démontre que les données FIRST apportent des informations précieuses pour caractériser un système binaire et notamment contraindre les températures effectives des deux composantes. Enfin, le succès des observations conduites à l'observatoire Lick nous a permis d'initier une collaboration avec l'équipe SCExAO du télescope Subaru et nous avons ainsi eu l'opportunité d'y intégrer FIRST. La première lumière de FIRST sur le télescope Subaru a été obtenue le 25 juillet 2013. En conclusion, j'ai pu montrer la viabilité du projet FIRST sur le ciel et obtenir de premiers résultats originaux, démontrant la capacité de cette technique à restaurer la limite de diffraction aux longueurs d'onde visibles. Bien que la sensibilité de l'instrument soit encore limitée à ce jour, ces résultats sont prometteurs quant à son exploitation à venir sur le télescope Subaru et aux développements futurs de cette technique, notamment dans le contexte de la détection et caractérisation de systèmes exoplanétaires.
50

Indoor radio propagation modeling for system performance prediction / Modélisation de la propagation radio en intérieur pour la prédiction des performances des systèmes radios

Xie, Meiling 17 July 2013 (has links)
Cette thèse a pour but de proposer toutes les avancées possibles dans l’utilisation du modèle de propagation Multi-Resolution Frequency-Domain ParFlow (MR-FDPF). Etant un modèle de propagation radio déterministe, le modèle MR-FDPF possède un haut niveau de précision, mais souffre des limitations communes à tous les modèles déterministes. Par exemple, un canal radio réel n’est pas déterministe, mais un processus aléatoire à cause par exemple des personnes ou objets mobiles, et ne peut donc être décrit fidèlement par un modèle purement déterministe. Dans cette thèse, un modèle semi-déterministe est proposé, basé sur le modèle MR-FDPF, qui introduit une part stochastique pour tenir compte des aspects aléatoires du canal radio réaliste. La partie déterministe du modèle est composée du path loss (atténuation d’espace), et la partie stochastique venant du shadow fading (masquage) et du small scale fading (évanouissement). De même, de nombreux simulateurs de propagation radio ne proposent que la prédiction de la puissance moyenne. Mais pour une simulation précise de la propagation radio il convient de prédire également des informations de fading permettant dès lors une prédiction précise du taux d’erreur binaire (BER) potentiel. Dans cette thèse, l’information de fading est déduite des simulations MR-FDPF et par la suite des valeurs réalistes de BER sont données. Enfin, ces données réalistes de BER permettent d’évaluer l’impact de schémas de modulation adaptatifs. Des résultats sont présentés dans trois configurations : systèmes SISO (mono-antenne à l’émission et à la réception), systèmes à diversité de type MRC, et systèmes large bande de type OFDM. / This thesis aims at proposing all the possible enhancements for the Multi-Resolution Frequency-Domain ParFlow (MR-FDPF) model. As a deterministic radio propagation model, the MR-FDPF model possesses the property of a high level of accuracy, but it also suffers from some common limitations of deterministic models. For instance, realistic radio channels are not deterministic but a kind of random processes due to, e.g. moving people or moving objects, thus they can not be completely described by a purely deterministic model. In this thesis, a semi-deterministic model is proposed based on the deterministic MR-FDPF model which introduces a stochastic part to take into account the randomness of realistic radio channels. The deterministic part of the semi-deterministic model is the mean path loss, and the stochastic part comes from the shadow fading and the small scale fading. Besides, many radio propagation simulators provide only the mean power predictions. However, only mean power is not enough to fully describe the behavior of radio channels. It has been shown that fading has also an important impact on the radio system performance. Thus, a fine radio propagation simulator should also be able to provide the fading information, and then an accurate Bit Error Rate (BER) prediction can be achieved. In this thesis, the fading information is extracted based on the MR-FDPF model and then a realistic BER is predicted. Finally, the realistic prediction of the BER allows the implementation of the adaptive modulation scheme. This has been done in the thesis for three systems, the Single-Input Single-Output (SISO) systems, the Maximum Ratio Combining (MRC) diversity systems and the wideband Orthogonal Frequency-Division Multiplexing (OFDM) systems.

Page generated in 0.4196 seconds