Spelling suggestions: "subject:"rén"" "subject:"rée""
21 |
Contribution à la réduction des modèles éléments finis par synthèse modaleLombard, Jean-Pierre 14 October 1999 (has links) (PDF)
Une approche synthétique des méthodes de réduction de modèles éléments finis dynamiques de structures mécaniques est présentée dans ce mémoire.<br />Une nouvelle technique de synthèse modale est proposée: elle permet l'obtention de modèles réduits exempts de coordonnées de jonction. Ses performances sont comparées vis-à-vis des méthodes de sous-structuration classiques lors de la réduction de modèles de structures automobiles. Un modèle sous-structuré d'une caisse nue de véhicule de 450 000 ddl, présentant une forte connectivité, est condensé à 2000 ddl par cette méthode.<br />L'usage de transformations de coordonnées physiques avec la prise en compte des chargements appliqués est généralisé à l'ensemble des méthodes de réduction.<br />La robustesse des modèles réduits paramétrés est traitée ainsi que les techniques d'adaptation, par réductions multiplies, des données issues du modèle aux observations mesurées sur la structure dans des objectifs de recalage de modèle et d'optimisation de comportement.
|
22 |
Observation d'exécutions parallèlesChassin de Kergommeaux, Jacques 19 December 2000 (has links) (PDF)
L'objectif des travaux présentés est la conception etl'implémentation d'outils d'aide à la mise au point d'applications parallèles, pour en éliminer les erreurs de logique et de performance. Les plateformes parallèles cibles sont des grappes de plusieurs dizaines de noeuds multiprocesseurs. Les programmes parallèles considérés mettent en oeuvre un réseau de fils d'exécution \textit((threads)) évoluant dynamiquement et qui communiquent par mémoire commune à l'intérieur d'un même noeud et par passage de message entre deux noeuds distincts. Deux problèmes sont abordés principalement. Tout d'abord, la recherche d'erreurs fugitives provenant de l'indéterminisme du modèle de programmation est traitée par l'adaptation de méthodes de ré-exécution déterministe à ce modèle. L'autre problème est la complexité de la dynamique des exécutions de programmes parallèles, qui rend difficile leur compréhension et l'identification des erreurs. Un outil de visualisation interactif, «scalable» et extensible, basé sur l'analyse de traces d'exécution, permet de faciliter cette compréhension. Les difficultés que pose l'intégration des outils développés dans un environnement cohérent de mise au point sont ensuite identifiées et des solutions sont esquissées.
|
23 |
Développements méthodologiques et qualification de schémas de calcul pour la modélisation des échauffements photoniques dans les dispositifs expérimentaux du futur réacteur d'irradiation technologique Jules Horowitz (RJH)Blanchet, David 06 June 2006 (has links) (PDF)
L'objectif de cette thèse est de développer la modélisation des échauffements nucléaires au niveau des dispositifs expérimentaux du futur réacteur d'irradiation technologique Jules Horowitz (RJH). La forte puissance nucléaire spécifique produite (460 kW/l) induit des flux photoniques intenses qui provoquent des échauffements et des gradiants de température importants, qu'il est nécessaire de maîtriser dès la conception. Or, les calculs d'échauffement sont pénalisés par des incertitudes rédhibitoires estimées à une valeur enveloppe et majorante de 30% (2 sigma) provenant des lacunes et incertitudes des données d'émission gamma présentes dans les bibliothèques de données nucléaires de base. Le programme expérimental ADAPh vise à réduire ces incertitudes. Des mesures par détecteurs thermoluminescents (TLD) et par chambres d'ionisation sont réalisées dans les maquettes critiques EOLE (MOX) et MINERVE (UO2). L'interprétation rigoureuse de ces mesures nécessite des développements spécifiques basés sur des simulations Monte-Carlo de transport couplé neutron-gamma et gamma-électron. Les développements effectués se singularisent notamment par la modélisation de phénomènes de cavités et d'émissions gamma retardés par décroissance des produits de fission. Les comparaisons calcul-mesure ont permis d'identifier un biais systématique C/E=0.72 confirmant une tendance des calculs à sous-estimer la mesure. Une méthode d'ajustement Bayésienne a été développée afin de ré-estimer les principales composantes de l'échauffement gamma et de transposer les résultats obtenus aux dispositifs du RJH dans des conditions de représentativité clairement définies. Cette thèse a permis de réduire significativement les incertitudes sur la détermination des échauffements gamma de 30% à 15% (2 sigma)
|
24 |
Extraction d'information tridimensionnelles à partir d'images -- Application à l'informatique graphiqueParis, Sylvain 18 October 2004 (has links) (PDF)
Le sujet de cette thèse porte sur la création des données utilisées en informatique graphique pour synthétiser des images. On ne demande pas à l'utilisateur de modéliser l'objet souhaité mais plutôt d'en fournir une ou plusieurs photographies. Ces images sont automatiquement analysées pour en extraire l'information recherchée. On attend de cette approche des données plus fidèles à l'original et un temps de création plus court pour l'utilisateur.<br /><br />Nos travaux sont centrés sur trois cas d'études qui mènent à des applications utiles. Tout d'abord, nous reconstruisons la surface d'un objet matte à partir d'une séquence d'images dont le point de vue se déplace. Nous capturons ensuite l'apparence d'un visage à partir d'une seule image et montrons comment les données récupérées sont utilisées pour synthétiser ce visage sous un nouvel éclairage. Nous terminons avec la capture de la géométrie d'une chevelure à partir de plusieurs images prises avec une caméra fixe et une lumière qui se déplace.<br /><br />Nous introduisons plusieurs contributions théoriques et techniques qui améliorent aussi bien la précision que la robustesse de la capture. Des résultats illustrent ces améliorations.
|
25 |
Ré-éclairage et remodélisation interactifs des scènes réelles pour la réalité augmentéeLoscos, Céline 20 December 1999 (has links) (PDF)
La réalité augmentée assistée par ordinateur est un domaine émergeant qui progresse rapidement. Son principe est de mélanger le monde réel et le monde virtuel. Dans cette thèse, nous nous intéressons plus particulièrement au ré-éclairage, c'est-à-dire à la modification virtuelle des propriétés l'éclairage, et à la remodélisation des scènes réelles d'intérieur, de façon interactive et en conservant les effets réalistes de l'éclairage mixte (réel et virtuel). Nous avons développé deux méthodes qui réalisent ces objectifs. Les deux méthodes utilisent des données d'entrée non exhaustives pour retrouver les propriétés radiométriques des scènes réelles. Dans notre première approche, la scène réelle est représentée par un modèle géométrique simple et texturé. En nous basant sur les équations de la radiosité, nous modifions les textures afin d'enlever les effets de l'éclairage réel (ombres, etc.). Lors de manipulations interactives qui atteignent un taux de rafraîchissement de 3 images par secondes, les effets d'éclairage sont simulés par des algorithmes incrémentaux, et affichés en utilisant le matériel graphique. Nous avons ensuite développé une deuxième méthode de ré-éclairage pour laquelle la scène réelle est connue depuis plusieurs photographies prises sous des éclairages différents mais contrôlés. Une réflectance diffuse est estimée pour chaque pixel de l'image d'origine. L'éclairage est ensuite simulé en combinant une méthode de lancer de rayon pour l'éclairage direct, et une méthode de radiosité hiérarchique optimisée pour l'éclairage indirect. Cette méthode permet en plus du ré-éclairage, la remodélisation interactive. Enfin, nous proposons une méthode de calibration photométrique pour du matériel photographique non professionnel, et nous présentons des algorithmes permettant une amélioration de la qualité de l'estimation de la réflectance pour chacune des méthodes.
|
26 |
La reformulation en anglais contemporain : indices linguistiques et constructions discursivesPennec, Blandine 13 December 2006 (has links) (PDF)
Cette recherche s'inscrit dans le cadre de la Théorie des Opérations Enonciatives. Elle analyse, à partir de corpus oraux et écrits, les éléments permettant l'identification de reformulations en anglais contemporain. L'analyse de la notion conduit à distinguer deux grands types de reformulations : la reformulation paraphrastique et la reformulation non paraphrastique. A chacune sont associés des introducteurs, certains spécifiques, d'autres non. Ils constituent les indices linguistiques d'opérations de reformulation. Leur présence n'est toutefois pas systématique. En l'absence d'introducteur, c'est alors la construction discursive elle-même qui permet l'interprétation. Les reformulations se réalisent ainsi sous des formes variées, tant sur le plan syntaxique qu'interprétatif. L'étude s'intéresse enfin aux fonctions des reformulations dans l'économie discursive : elles peuvent, selon le cas, faire progresser la nomination, favoriser la cohésion et la structuration du discours, ou faciliter les ajustements inter-énonciateurs.
|
27 |
Model adaptation techniques in machine translation / Techniques d'adaptation en traduction automatiqueShah, Kashif 29 June 2012 (has links)
L’approche statistique pour la traduction automatique semble être aujourd’hui l’approche la plusprometteuse. Cette approche permet de développer rapidement un système de traduction pour unenouvelle paire de langue lorsque les données d'apprentissage disponibles sont suffisammentconséquentes.Les systèmes de traduction automatique statistique (Statistical Machine Translation (SMT)) utilisentdes textes parallèles, aussi appelés les bitextes, comme support d'apprentissage pour créer lesmodèles de traduction. Ils utilisent également des corpus monolingues afin de modéliser la langueciblée.Les performances d'un système de traduction automatique statistique dépendent essentiellement dela qualité et de la quantité des données disponibles. Pour l'apprentissage d'un modèle de traduction,les textes parallèles sont collectés depuis différentes sources, dans différents domaines. Ces corpussont habituellement concaténés et les phrases sont extraites suite à un processus d'alignement desmots.Néanmoins, les données parallèles sont assez hétérogènes et les performances des systèmes detraduction automatique dépendent généralement du contexte applicatif. Les performances varient laplupart du temps en fonction de la source de données d’apprentissage, de la qualité de l'alignementet de la cohérence des données avec la tâche. Les traductions, sélectionnées parmi différenteshypothèses, sont directement influencées par le domaine duquel sont récupérées les donnéesd'apprentissage. C'est en contradiction avec l'apprentissage des modèles de langage pour lesquelsdes techniques bien connues sont utilisées pour pondérer les différentes sources de données. Ilapparaît donc essentiel de pondérer les corpus d’apprentissage en fonction de leur importance dansle domaine de la tâche de traduction.Nous avons proposé de nouvelles méthodes permettant de pondérer automatiquement les donnéeshétérogènes afin d'adapter le modèle de traduction.Dans une première approche, cette pondération automatique est réalisée à l'aide d'une technique deré-échantillonnage. Un poids est assigné à chaque bitextes en fonction de la proportion de donnéesdu corpus. Les alignements de chaque bitextes sont par la suite ré-échantillonnés en fonction de cespoids. Le poids attribué aux corpus est optimisé sur les données de développement en utilisant uneméthode numérique. De plus, un score d'alignement relatif à chaque paire de phrase alignée estutilisé comme mesure de confiance.Dans un travail approfondi, nous pondérons en ré-échantillonnant des alignements, en utilisant despoids qui diminuent en fonction de la distance temporelle entre les bitextes et les données de test.Nous pouvons, de cette manière, utiliser tous les bitextes disponibles tout en mettant l'accent sur leplus récent.L'idée principale de notre approche est d'utiliser une forme paramétrique, ou des méta-poids, pourpondérer les différentes parties des bitextes. De cette manière, seuls quelques paramètres doiventêtre optimisés.Nous avons également proposé un cadre de travail générique qui, lors du calcul de la table detraduction, ne prend en compte que les corpus et les phrases réalisant les meilleurs scores. Cetteapproche permet une meilleure distribution des masses de probabilités sur les paires de phrasesindividuelles.Nous avons présenté les résultats de nos expériences dans différentes campagnes d'évaluationinternationales, telles que IWSLT, NIST, OpenMT et WMT, sur les paires de langues Anglais/Arabeet Fançais/Arabe. Nous avons ainsi montré une amélioration significative de la qualité destraductions proposées. / Nowadays several indicators suggest that the statistical approach to machinetranslation is the most promising. It allows fast development of systems for anylanguage pair provided that sufficient training data is available.Statistical Machine Translation (SMT) systems use parallel texts ‐ also called bitexts ‐ astraining material for creation of the translation model and monolingual corpora fortarget language modeling.The performance of an SMT system heavily depends upon the quality and quantity ofavailable data. In order to train the translation model, the parallel texts is collected fromvarious sources and domains. These corpora are usually concatenated, word alignmentsare calculated and phrases are extracted.However, parallel data is quite inhomogeneous in many practical applications withrespect to several factors like data source, alignment quality, appropriateness to thetask, etc. This means that the corpora are not weighted according to their importance tothe domain of the translation task. Therefore, it is the domain of the training resourcesthat influences the translations that are selected among several choices. This is incontrast to the training of the language model for which well‐known techniques areused to weight the various sources of texts.We have proposed novel methods to automatically weight the heterogeneous data toadapt the translation model.In a first approach, this is achieved with a resampling technique. A weight to eachbitexts is assigned to select the proportion of data from that corpus. The alignmentscoming from each bitexts are resampled based on these weights. The weights of thecorpora are directly optimized on the development data using a numerical method.Moreover, an alignment score of each aligned sentence pair is used as confidencemeasurement.In an extended work, we obtain such a weighting by resampling alignments usingweights that decrease with the temporal distance of bitexts to the test set. By thesemeans, we can use all the available bitexts and still put an emphasis on the most recentone. The main idea of our approach is to use a parametric form or meta‐weights for theweighting of the different parts of the bitexts. This ensures that our approach has onlyfew parameters to optimize.In another work, we have proposed a generic framework which takes into account thecorpus and sentence level "goodness scores" during the calculation of the phrase‐tablewhich results into better distribution of probability mass of the individual phrase pairs.
|
28 |
Impact des changements de solution et/ou température de reperfusion sur l'homéostasie du Ca2+ cytosolique dans les cellules sinusoïdales endothéliales préservées à froidAuger, Stéphanie 04 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Les cellules endothéliales sinusoïdales (CES) sont très sensibles aux dommages induits par la préservation hypothermique. Elles peuvent alors exprimer, suite à une augmentation de leur Ca2+, des molécules d'adhésion perturbant la microcirculation et engendrant des dysfonctions primaires des greffons. Le présent travail a pour but l'étude des effets des changements de composition/température des solutions de reperfusion sur le Ca2+ dans les CES isolées de rat. Les cellules ont été préservées à froid dans la solution de l'Université du Wisconsin (UW) puis réchauffées et reperfusées dans le tampon physiologique HEPES ou dans le UW à 20 ou 37°C. Les changements de température et de solution ou seulement de solution ont induit, chez les CES préservées ou non, une importante augmentation transitoire du Ca2+. Le changement de la température seulement dans le UW ou l'HEPES n'a pas eu d'effet significatif sur le Ca2+. D'autre part, la préservation froide atténuait beaucoup la fréquence et l'intensité de la réponse des CES à l'agoniste ATP. Par ailleurs, une coloration des CES au Hoechst et à l'iodure de propidium démontrait des taux d'apoptose et de nécrose augmentant proportionnellement au temps de préservation. Les taux d'apoptose étaient plus importants que ceux de nécrose. Ainsi, les changements de composition des solutions de reperfusion ont un plus grand effet sur le Ca2+ des CES que les changements de température. Les temps de préservation hypothermique n'ont pas d'impacts importants sur le Ca2+, mais affectent une réponse à l'agoniste ATP, et induisent des taux d'apoptose et de nécrose augmentant graduellement.
|
29 |
Developing fast machine learning techniques with applications to steganalysis problemsMiche, Yoan 02 November 2010 (has links) (PDF)
Depuis que les Hommes communiquent, le besoin de dissimuler tout ou partie de la communication existe. On peut citer au moins deux formes de dissimulation d'un message au sein d'une communication: Dans le premier cas, le message à envoyer peut lui même être modifié, de telle sorte que seul le destinataire puisse le décoder. La cryptographie s'emploie par exemple à cette tâche. Une autre forme est celle de la stéganographie, qui vise à dissimuler le message au sein d'un document. Et de même que pour la cryptographie dont le pendant est la cryptanalyse visant à décrypter le message, la stéganalyse est à l'opposé de la stéganographie et se charge de détecter l'existence d'un message. Le terme de stéganalyse peut également désigner l'importante classe de problèmes liés à la détection de l'existence du message mais aussi à l'estimation de sa taille (stéganalyse quantitative) ou encore de son contenu. Dans cette thèse, l'accent est tout d'abord mis sur le problème classique de stéganalyse (détection de la présence du message). Une méthodologie permettant d'obtenir des résultats statistiquement fiables dans ce contexte est proposée. Il sagit tout d'abord d'estimer le nombre d'échantillons (ici des images) suffisant à l'obtention de résultats pertinents, puis de réduire la dimensionalité du problème par une approche basée sur la sélection de variables. Dans le contexte de la stéganalyse, la plupart des variables obtenues peuvent être interprétées physiquement, ce qui permet une interprétation de la sélection de variables obtenue: les variables sélectionnées en premier réagissent vraisemblablement de façon importante aux changements causés par la présence du message. Leur analyse peut permettre de comprendre le fonctionnement et les faiblesses de l'algorithme de stéganographie utilisé, par exemple. Cette méthodologie peut s'avérer complexe en termes de calculs et donc nécessiter des temps d'éxecution importants. Pour pallier à ce problème, un nouveau modèle pour le "Machine Learning" est proposé, l'OP-ELM. L'OPELM est constitué d'un Réseau de Neurones au sein duquel des projections aléatoires sont utilisées. Les neurones sont ensuite classés par pertinence vis à vis du problème, et seuls les plus pertinents sont conservés. Cette structure de modèle parvient à obtenir des performances similaires à celles de l'état de l'art dans le domaine du "Machine Learning". Enfin, le modèle OP-ELM est utilisé dans le cadre de la stéganalyse quantitative, cette fois (l'estimation de la taille du message). Une approche nouvelle sur ce problème est utilisée, faisant appel à une technique de ré-insertion d'un message au sein d'une image considérée comme suspecte. En répétant ce processus de ré-insertion un certain nombre de fois, et pour des messages connus de tailles différentes, il est possible d'estimer la taille du message original utilisé par l'expéditeur. De plus, par l'utilisation de la largeur de l'intervalle de confiance obtenu sur la taille du message original, une mesure de la difficulté intrinsèque à l'image est présentée. Ceci permet d'estimer la fiabilité de la prédiction obtenue pour la taille du message original.
|
30 |
Innovations pour l'annotation protéogénomique à grande échelle du vivant / Innovations for proteogenomic annotation on a large scale for microorganismsBland, Céline 23 September 2013 (has links)
La protéogénomique consiste à affiner l'annotation du génome d'organismes modèles pour lesquels des données protéomiques sont générées à haut-débit. Des erreurs d'annotation structurale ou fonctionnelle sont encore fréquentes. Innover dans les méthodologies permettant de lever ces ambiguïtés est essentiel. L'étude spécifique du N-terminome permet de vérifier expérimentalement l'identification du codon d'initiation de la traduction et de certifier les données obtenues. Pour cela, deux stratégies innovantes ont été développées basées sur : i) le marquage sélectif du N-terminal des protéines, ii) une digestion multienzymatique en parallèle, et ii) l'enrichissement spécifique des peptides N-terminaux marqués par chromatographies liquides successives ou immunocapture dirigée contre le groupement N-terminal ajouté. L'efficacité de ces méthodologies a été démontrée à partir du modèle bactérien Roseobacter denitrificans. Après enrichissement par chromatographie, 480 protéines ont été validées et 46 ré-annotées. Plusieurs sites d'initiation de la traduction ont été décelés et l'annotation par similarité a été remise en cause dans certains cas. Après immunocapture, 269 protéines ont été caractérisées dont 40% ont été identifiées spécifiquement après enrichissement. Trois gènes ont également été annotés pour la première fois. Les résultats complémentaires obtenus après analyse par spectrométrie de masse en tandem facilitent l'interprétation des données pour révéler les sites d'initiation réels de la synthèse des protéines et identifier de nouveaux produits d'expression des gènes. La ré-annotation peut devenir automatique et systématique pour améliorer les bases de données protéiques. / Proteogenomics is a recent field at the junction of genomics and proteomics which consists of refining the annotation of the genome of model organisms with the help of high-throughput proteomic data. Structural and functional errors are still frequent and have been reported on several occasions. Innovative methodologies to prevent such errors are essential. N-terminomics enables experimental validation of initiation codons and certification of the annotation data. With this objective in mind, two innovative strategies have been developed combining: i) selective N-terminal labeling of proteins, ii) multienzymatic digestion in parallel, and iii) specific enrichment of most N-terminal labeled peptides using either successive liquid chromatography steps or immunocapture directed towards the N-terminal label. Efficiency of these methodologies has been demonstrated using Roseobacter denitrificans as bacterial model organism. After enrichment with chromatography, 480 proteins were validated and 46 re-annotated. Several start sites for translation initiation were detected and homology driven annotation was challenged in some cases. After immunocapture, 269 proteins were characterized of which 40% were identified specifically after enrichment. Three novel genes were also annotated for the first time. Complementary results obtained after tandem mass spectrometry analysis allows easier data interpretation to reveal real start sites of translation initiation of proteins and to identify novel expressed products. In this way, the re-annotation process may become automatic and systematic to improve protein databases.
|
Page generated in 0.0409 seconds