Spelling suggestions: "subject:"para""
51 |
Mort cellulaire induite in vitro par activation directe à 1270 nm de l'oxygène singulet / Cell death induced in vitro by direct optical activation at 1270 nm of singlet oxygenAnquez, François 07 December 2010 (has links)
L'oxygène singulet, premier état électronique excité du dioxygène, est considéré comme l'agent cytotoxique principal de la thérapie photodynamique (PDT) dans le traitement du cancer.En PDT, l'oxygène singulet est créé via l'activation par la lumière d'une molécule photo-sensible qui transfère son énergie au dioxygène pour conduire à l'excitation de ce dernier dans l'état singulet.Notre étude a permis de montrer qu'il est possible par activation optique directe à 1270 nm, sans agent photosensibilisant, de l'oxygène singulet d'obtenir un stress oxydant conduisant à la mort de cellules in vitro. Ceci a pu être réalisé grâce au développement d'une expérience de vidéo-microscopie, de lasers de puissance accordables autour de 1270 nm et d'une mesure in situ de l'échauffement induit par le laser. Ces trois points seront exposés avant de présenter les preuves de l'implication de l'oxygène singulet dans la mort cellulaire par irradiation laser à 1270 nm.Dans une seconde partie du travail, nous nous sommes intéressés à des méthodes optiques de détection de l'oxygène singulet, excité directement par absorption à 1270 nm, pouvant être exportées en microscopie. / Singlet oxygen is the first electronically excited state of molecular oxygen. This specie is considered as the main cytotoxic agent in photodynamic therapy (PDT) of cancer. In PDT, singlet oxygen is produced via the activation by light of a photosensitizer molecule which will transfer its energy to molecular oxygen. This process leads to the excitation of molecular oxygen into the excited singlet state.In our study we have shown that it is possible by direct optical activation at 1270 nm (without a photosensitizer) of singlet oxygen to obtain oxidative stress that leads to cell death in vitro. This was done throught the developpement of a time-lapse experiment and the creation of high power tunable laser around 1270 nm and the in situ measurement of laser-induced temperature increase. These three points will be described. Then the prooves of the implication of singlet oxygen in cell death induced by 1270 nm irradiation will be exposed.In a second part of this work we studied optical methods for the detection of singlet oxygen directly, created by light absorption at 1270 nm, that could be exported to microscopy.
|
52 |
Développement et mise en oeuvre de structures textiles multifonctionnelles contenant des nanotubes de carbone : application aux capteurs chimiques pour la détection de solvants / Development and processing of multifunctional textile structures containing carbon nanotubes- : application to chemical sensors for solvent detectionAubry, Carole 01 December 2009 (has links)
Ce travail s’inscrit dans le cadre du projet européen Inteltex dont l’objectif est l’élaboration de nouvelles structures textiles pour la détection de solvants. L’utilisation de CPC (Composite Polymère Conducteur), composé d’une matrice polymère isolante et de charges conductrices d’électricité, permet de détecter la présence de solvant du polymère par son gonflement entraînant une déconnexion du réseau conducteur et une chute de la conductivité électrique. L’utilisation de nanotubes de carbone (NTC) en tant que charge conductrice, permet d’incorporer une faible quantité de charges pour une conductivité électrique recommandée pour la détection (10-3 S/m). Les matrices polymères, sensibles aux solvants et possédant un caractère filable, sont le polycarbonate (PC), le polylactide (PLA) et le polyéthylène téréphtalate (PET). Le seuil de percolation des NTC dans les monofilaments issus de l’extrusion de 1,5 mm de diamètre est déterminé entre 1,5 et 2 % en masse. La transformation de ces composites en fil multifilamentaire par filage en voie fondue montre une chute de la conductivité des filaments avec l’étirage. Un filament de PLA contenant au moins 4 % de NTC et de diamètre minimal de 80 µm permet de conserver les propriétés électriques. Le filage de cette fibre nécessite l’introduction d’un plastifiant afin d’améliorer la filabilité du mélange. Les propriétés électriques, thermiques, mécaniques, morphologiques et la fluidité des filaments sont étudiées en fonction du procédé de transformation et de leur composition. Des filaments proches du seuil de percolation et incorporés dans une structure tissée, montrent une sensibilité à l’humidité, à l’éthanol et au toluène. / This work is performed through the European project Inteltex. The aim is to develop new textile structures for the solvent detection. The use of CPC (Conductive Polymer Composite) composed of an insulating polymer matrix and conductive fillers, allows to detect the solvent presence by the swelling of the polymer that induces the conductive network deconnexion and the decrease of the electrical conductivity. The use of carbon nanotubes (CNT) as conductive fillers is a biggest advantage because only a low content is necessary to achieve the appropriate electrical conductivity for sensing (10-3 S/m). The different sensitive and spinnable matrices are polycarbonate (PC), polylactide (PLA) and polyethylene terephthalate (PET). The percolation threshold of CNT in 1.5 mm diameter monofilament, produced by extrusion, is determined between 1.5 and 2 wt.% of CNT. The elaboration of multifilament yarns by melt spinning process show a decrease of the conductivity with the drawing effect. In order to maintain the electrical properties, PLA fibers containing at least 4 % of CNT and having a minimum diameter of 80 µm have to be produced. In this way it is necessary to introduce a plasticizer to improve the composites spinnability. The electrical, thermal, mechanical, morphological properties and fluidity of filaments were studied depending on the processing conditions and their composition. Composite fibers, close the percolation threshold, show sensitivity to humidity, ethanol and toluene.
|
53 |
Effect of enzymes and emulsifiers on the shelf life of modified atmosphere packaged par-baked pizzaLemmer, Yolandi 10 November 2010 (has links)
Par-baked pizza was prepared with three different additives treatments and was packaged in three packaging treatments namely: air (A), 100% CO2 modified atmosphere (MAP) and 100% CO2 modified atmosphere with an oxygen absorber (MAP + OA). The additive treatments were diacetyl tartaric acid esters of mono- and diglycerides (DATEM), an enzyme combination treatment (EC) namely: lipase and maltogenic á-amylase and par-baked pizza without additives (C). The aim of the study was to determine the effects of the different additive and packaging treatments on the shelf life of par-baked pizza. Therefore the following physical measurements and microbiological analysis were conducted: water activity, crumb moisture content, thickness, firmness, stress, strain, springiness, aerobic plate count, lactic acid bacterial count and yeast and mould count. The results showed that the water activity of par-baked pizza was between 0.95–0.98 . Thereafter the water activity remained stable at 0.96. As the storage time (d) progressed, the moisture content of the par-baked pizza crumb increased, from 36% on d0 to 41% on d16. The par-baked pizza with added additives was thicker than par-baked pizza without additives. The thickness for par-baked pizza + DATEM, + EC and + C was 21.7 mm, 22.0 mm and 18.3 mm respectively. The compression test and the three-point bend test showed that the firmness of parbaked pizza increased as the storage time increased until d8. The firmness then decreased from d12 to d16. The par-baked pizza packaged + MAP had a lower firmness than par-baked pizza + A. The firmness of par-baked pizza + EC was lower than par-baked pizza + DATEM and par-baked pizza + C respectively. The results also showed that the re-baked pizza was even softer than originally. The springiness of par-baked pizza decreased as the storage time progressed. The par-baked pizza + C had the highest springiness of 39% compared to the springiness of par-baked pizza + EC; 37%, and + DATEM; 35%, respectively. The springiness of the re-baked pizza showed trends similar to those of the par-baked pizza in terms of the main effects of the different additives. The springiness of the re-baked pizza was also higher than that of the par-baked pizza. Thus, the additive treatments, DATEM and EC, had beneficial effects on the texture and thickness of par-baked pizza. The microbial analysis showed that the APC and the mould count were mostly affected by the different packaging treatments. The par-baked pizza + A showed visible mould growth from d12. Hence par-baked pizza + A reached the end of shelf life at d12. The par-baked pizza + MAP showed reduced APC levels, however, and as expected the yeast and lactic acid bacterial levels were unchanged. There were no signs of visible mould growth on any par-baked pizza + MAP. The microbial levels were the lowest with the par-baked pizza + MAP + OA packaging treatment. / Dissertation (MSc)--University of Pretoria, 2010. / Food Science / unrestricted
|
54 |
Étude de la contamination des eaux et des sédiments par les pesticides / Study of water and sediment contamination by pesticidesEl-Osmani, Racha 26 June 2014 (has links)
Depuis l’explosion de l’industrie chimique au début du XXème siècle et l’utilisation de produits de synthèse, des quantités croissantes de substances chimiques, n’ont cessé d’être émises dans l’environnement. Toutefois, dans les dernières décennies, il y a eu une préoccupation croissante au sujet du sort de ces produits chimiques qui menacent la ressource en eau. L’accroissement des connaissances sur la performance analytiques et les données toxicologiques sur les produits actifs a conduit les autorités dans les pays industrialisés et en développement à imposer diverses restrictions. La surveillance des contaminants dans les milieux aquatiques a été mise en place pour atteindre le bon état écologique des milieux. Parmi les polluants organiques les plus dangereux et les plus couramment détectés dans les milieux aquatiques, on trouve les hydrocarbures aromatiques polycycliques, leurs dérives et les pesticides. Ces contaminants présents à l’état de trace dans les milieux aquatiques. Leurs analyses nécessitent des méthodes analytiques appropriées à la fois spécifiques et sensibles. Les travaux de cette thèse s’orientent ainsi dans une direction visant à développer des méthodes analytiques pour l’extraction de plusieurs familles de contaminants organiques (pesticides, hydrocarbures …) présents dans l’eau et dans les sédiments. Un modèle mathématique Umetrics a été employé pour étudier l’influence de chaque paramètre intérêt. Comparé à des méthodes classiques, ce modèle permet de réduire le nombre d’expériences, et d’avoir des rendements très satisfaisants. Les méthodes optimisées ont été ensuite appliquées à étudier des milieux naturels en France et au Liban. / Since the explosion of the chemical industry in the twentieth century and the use of synthetic products, increasing amounts of chemicals, have continued to be released into the environment. However, in recent decades, there has been a growing concern about the fate of these chemicals that threaten water resources. Increased knowledge on the analytical performance and toxicological data on active products has led authorities in industrialized and developing countries to impose various restrictions. Monitoring of contaminants in aquatic environments has been put in place to achieve good ecological state of the environment. Among the most dangerous and the most commonly detected in aquatic organic pollutants, polycyclic aromatic hydrocarbons, their derivatives and pesticides. These contaminants present in trace amounts in aquatic environments. Analyzes require appropriate analytical methods to be both specific and sensitive. The objective of this thesis is to develop analytical methods for the extraction of several families of organic contaminants (pesticides, hydrocarbons ...) in water and sediment. A mathematical model Umetrics was used to study the influence of each interest parameter. Compared to conventional methods, this model reduces the number of experiments, and have very good yields. The optimized methods were then applied to study the natural environment in France and Lebanon.
|
55 |
La rationalisation du travail intellectuel : ethnographie de l'activité de conception industrielle / The rationalization of the intellectual work : ethnography of the industrial design activityPetit, Sébastien 27 September 2016 (has links)
La production industrielle a favorisé l’émergence d’une catégorie de salariés détachés de la fabrication et ayant le monopole du travail intellectuel. Le travail des concepteurs, regroupés dans des bureaux d’études, n’a cependant jamais cessé d’être rationalisé, reproduisant en son sein une logique de séparation entre préparation et exécution du travail. Du bureau d’études tayloro-fordiste à l’organisation par projet, une division du travail s’est successivement recomposée, distinguant d’abord les ingénieurs et les techniciens puis les ingénieurs entre eux. Au-delà de la complexification des produits, des procédés et des outils techniques, les transformations de l’organisation du travail de conception ont eu pour effet d’intensifier la productivité du travail en bureau d’études et de séparer les populations d’ingénieurs et de techniciens de leur propre métier, celui de concepteur.Cette configuration produit une ingénierie du travail de conception par laquelle les concepteurs ne réalisent plus un travail de conception mais une activité technico-gestionnaire parcellaire dans le processus de conception. L’enjeu actuel de la rationalisation du travail intellectuel dans les activités de conception est de transformer les bureaux d’études de manière à légitimer un procès de conception sans concepteurs. Il s’agit de recomposer une population de conception pour laquelle la gestion par projet, la réalisation de tâches fragmentaires, les normes et pratiques managériales et l’implication dans des collectifs de travail flexibles apparaissent comme naturels et participent de la nouvelle professionnalité des concepteurs industriels. Cela conduit à une perte de maîtrise des travailleurs intellectuels tant sur l’organisation du travail, sur les procédés de travail que sur les finalités de leur activité. / The industrial production led the emergence of a category of workers separated from the manufacturing and having the monopoly of the intellectual work. The work of the designers, grouped in design offices, was always rationalized, reproducing within it a logic of separation between preparation and execution of the work. Of the taylorist design offices to the project-based organization, a division of labor successively recomposed, distinguishing at first the engineers and the technicians then the engineers between them. Beyond the complexity of products, process and technical development, the transformations of the organization of the design work increase the productivity of the work in design offices and moving away engineers and technicians with their profession of designer.This configuration produces an engineering of the design work: the designers realize no more design, it is a technical and managerial fragmentary work. The rationalization of the intellectual work in the design activities transforms design offices to legitimize a design process without designers. It is a matter of reconstituting a population of designers for who the project-based organization, the realization of fragmentary tasks, the standards and managerial practices and the implication in a flexible teamwork are the mains features of the industrial designers professionality. This situation causes a loss of command among the intellectual workers about the organization of the activity, the working processes and the purposes of their activity.
|
56 |
Reinforcement learning for dialogue systems optimization with user adaptation / Apprentissage par renforcement pour l’optimisation des systèmes de dialogue via l’adaptation à l’utilisateurCarrara, Nicolas 18 December 2019 (has links)
Les systèmes d’intelligence artificielle les plus puissants utilisent désormais des modèles statistiques. Afin de construire des modèles efficaces, ces systèmes doivent collecter une quantité substantielle de données issues de l’environnement. Les assistants personnels, maisons connectées, serveurs vocaux et autres systèmes de dialogue ne font pas exception. Ces systèmes ont pour vocation d’interagir avec des humains, et pour cela, leurs données d’apprentissage se doivent d’être collectées avec ces mêmes humains. Parce que le nombre d’interactions avec une seule personne est assez faible, l’approche usuelle pour augmenter le jeu de données consiste à agréger les données de tous les utilisateurs.Une des limitations de cette approche vient du fait que, par construction, les modèles entraînés ainsi ne sont efficaces qu’avec un humain "moyen" et n’incluent pas de système d’adaptation ; cette faiblesse entraîne la restriction du service à certains groupes de personnes; Par conséquent, cela réduit l’ensemble des utilisateurs et provoque des problèmes d’inclusion. La présente thèse propose des solutions impliquant la construction de systèmes de dialogue combinant l’apprentissage par transfert et l’apprentissage parrenforcement. La thèse explore deux pistes de recherche : La première consiste à inclure un mécanisme d’adaptation dès les premières interactions avec un nouvel utilisateur. Pour ce faire, nous utilisons la connaissance accumulée avec des utilisateurs déjà connus du système. La question sous-jacente est la suivante : comment gérer l’évolution du système suite à une croissance interrompue d’utilisateurs et donc de connaissance? La première approche implique le clustering des systèmes de dialogue (chacun étant spécialisé pour un utilisateur) en fonction de leurs stratégies. Nous démontrons que la méthode améliore la qualité des dialogues en interagissant avec des modèles à base de règles et des modèles d’humains. La seconde approche propose d’inclure un mécanisme d’apprentissage par transfert dans l’exécution d’un algorithme d’apprentissage profond par renforcement, Deep Q-learning. La seconde piste avance l’idée selon laquelle les premières interactions avec un nouvel utilisateur devraient être gérées par un système de dialogue sécurisé et précautionneux avant d’utiliser un système de dialogue spécialisé. L’approche se divise en deux étapes. La première étape consiste à apprendre une stratégie sécurisée avec de l’apprentissage par renforcement. À cet effet, nous proposons un nouveau framework d’apprentissage par renforcement sous contrainte en états continus ainsi que des algorithmes les solutionnant. En particulier, nous validons, en termes de sécurité et d’efficacité, une extension de Fitted-Q pour les deux applications sous contraintes : les systèmes de dialogue et la conduite autonome. La deuxième étape implique l’utilisation de ces stratégies sécurisées lors des premières interactions avec un nouvel utilisateur ; cette méthode est une extension de l’algorithme classique d’exploration, ε-greedy. / The most powerful artificial intelligence systems are now based on learned statistical models. In order to build efficient models, these systems must collect a huge amount of data on their environment. Personal assistants, smart-homes, voice-servers and other dialogue applications are no exceptions to this statement. A specificity of those systems is that they are designed to interact with humans, and as a consequence, their training data has to be collected from interactions with these humans. As the number of interactions with a single person is often too scarce to train a proper model, the usual approach to maximise the amount of data consists in mixing data collected with different users into a single corpus. However, one limitation of this approach is that, by construction, the trained models are only efficient with an "average" human and do not include any sort of adaptation; this lack of adaptation makes the service unusable for some specific group of persons and leads to a restricted customers base and inclusiveness problems. This thesis proposes solutions to construct Dialogue Systems that are robust to this problem by combining Transfer Learning and Reinforcement Learning. It explores two main ideas: The first idea of this thesis consists in incorporating adaptation in the very first dialogues with a new user. To that extend, we use the knowledge gathered with previous users. But how to scale such systems with a growing database of user interactions? The first proposed approach involves clustering of Dialogue Systems (tailored for their respective user) based on their behaviours. We demonstrated through handcrafted and real user-models experiments how this method improves the dialogue quality for new and unknown users. The second approach extends the Deep Q-learning algorithm with a continuous transfer process.The second idea states that before using a dedicated Dialogue System, the first interactions with a user should be handled carefully by a safe Dialogue System common to all users. The underlying approach is divided in two steps. The first step consists in learning a safe strategy through Reinforcement Learning. To that extent, we introduced a budgeted Reinforcement Learning framework for continuous state space and the underlying extensions of classic Reinforcement Learning algorithms. In particular, the safe version of the Fitted-Q algorithm has been validated, in term of safety and efficiency, on a dialogue system tasks and an autonomous driving problem. The second step consists in using those safe strategies when facing new users; this method is an extension of the classic ε-greedy algorithm.
|
57 |
Élaboration de soudures aluminothermiques dites « hautes performances » : optimisation du procédé et amélioration de la tenue en service / Development of a high performance thermit weld : process optimization and service life improvementJezzini, Mariam 24 September 2010 (has links)
Le présent travail vise à élaborer des soudures aluminothermiques de Hautes Performances tout en réduisant leur temps de réalisation. Un procédé de soudage visant à optimiser la soudure (refroidissement accéléré et meilleure tenue en service) est proposé. Les soudures classiques et améliorées sont comparées. La caractérisation métallurgique et thermique des soudures par aluminothermie est réalisée. Un modèle numérique en couplage thermomécanique est développé afin de déterminer l’effet de l’histoire thermique sur les performances des rails soudés. La simulation est validée avec les résultats expérimentaux. Ce travail aborde l’étude de l’influence des contraintes résiduelles sur la tenue en service des rails soudés par aluminothermie. Les contraintes résiduelles sont déterminées sur des soudures classiques, refroidies rapidement, meulées et martelées. Les résultats des contraintes résiduelles sont analysés et comparés avec ceux obtenus numériquement par éléments finis. Des essais de fatigue sont menés sur les différentes configurations pour évaluer l’influence de ces paramètres sur la durée de vie.On montre dans ce travail que les contraintes résiduelles de traction en présence de défauts jouent un rôle important dans les initiations de rupture dans les soudures aluminothermiques. Le refroidissement accéléré des soudures proposé dans cette étude génère des contraintes résiduelles de compression en peau relativement élevées et améliore la tenue en service. De même, le martelage des cordons des soudures améliore la durée de vie par l’atténuation de l’effet d’entaille. / The aim of this study is to develop a “high performance” aluminothermic weld while reducing its execution time. A welding optimised process (rapid cooling and improved performance) is proposed. The standard and improved welds are compared. The thermal and metallurgical characterization of aluminothermic welds is performed. In order to determine the influence of thermal history on the weld’s performance, a thermomechanical finite element model is developed and validated with experimental results. This study addresses the influence of residual stresses on service performance of aluminothermic welded rails. Residual stresses are determined on standard, quickly cooled, ground and peened welds. The measuring results of residual stresses are analyzed and compared with those obtained numerically by finite elements model. Fatigue tests are carried out on these configurations in order to evaluate the influence of these parameters on the lifetime. The experiments show that tensile residual stresses are detrimental and may lead to failures in the presence of weld defects. The rapid cooling process proposed in this study generates compressive residual stresses and improves service life. Besides, the weld’s fillet peening enhances the fatigue performance by reducing the notch effect.
|
58 |
Recherche de marqueurs de la dyskinésie tardive provoquée par les antidépresseurs à l'aide de l'imagerie quantitative par résonnance magnétiqueKouznetsov, Evgueni January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
59 |
Hay river youth disposition panel : the experience of participantsKatz, Hélèna January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
60 |
Estimateurs de calage pour les quantilesHarms, Torsten January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0555 seconds