• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 8
  • 4
  • 1
  • Tagged with
  • 53
  • 15
  • 12
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Arbete och identitet : om hur städare blir städare /

Aurell, Marie January 2001 (has links)
Thèse,Linköping : Univ., 2001. / Résumé en anglais : Work and identity : on how cleaners become cleaners.
2

Ramasse-miettes générationnel et incémental gérant les cycles et les gros objets en utilisant des frames délimités

Adam, Sébastien January 2008 (has links) (PDF)
Ces dernières années, des recherches ont été menées sur plusieurs techniques reliées à la collection des déchets. Plusieurs découvertes centrales pour le ramassage de miettes par copie ont été réalisées. Cependant, des améliorations sont encore possibles. Dans ce mémoire, nous introduisons des nouvelles techniques et de nouveaux algorithmes pour améliorer le ramassage de miettes. En particulier, nous introduisons une technique utilisant des cadres délimités pour marquer et retracer les pointeurs racines. Cette technique permet un calcul efficace de l'ensemble des racines. Elle réutilise des concepts de deux techniques existantes, card marking et remembered sets, et utilise une configuration bidirectionelle des objets pour améliorer ces concepts en stabilisant le surplus de mémoire utilisée et en réduisant la charge de travail lors du parcours des pointeurs. Nous présentons aussi un algorithme pour marquer récursivement les objets rejoignables sans utiliser de pile (éliminant le gaspillage de mémoire habituel). Nous adaptons cet algorithme pour implémenter un ramasse-miettes copiant en profondeur et améliorer la localité du heap. Nous améliorons l'algorithme de collection des miettes older-first et sa version générationnelle en ajoutant une phase de marquage garantissant la collection de toutes les miettes, incluant les structures cycliques réparties sur plusieurs fenêtres. Finalement, nous introduisons une technique pour gérer les gros objets. Pour tester nos idées, nous avons conçu et implémenté, dans la machine virtuelle libre Java SableVM, un cadre de développement portable et extensible pour la collection des miettes. Dans ce cadre, nous avons implémenté des algorithmes de collection semi-space, older-first et generational. Nos expérimentations montrent que la technique du cadre délimité procure des performances compétitives pour plusieurs benchmarks. Elles montrent aussi que, pour la plupart des benchmarks, notre algorithme de parcours en profondeur améliore la localité et augmente ainsi la performance. Nos mesures de la performance générale montrent que, utilisant nos techniques, un ramasse-miettes peut délivrer une performance compétitive et surpasser celle des ramasses-miettes existants pour plusieurs benchmarks. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Ramasse-Miettes, Machine Virtuelle, Java, SableVM.
3

Détection de doublons parmi des informations non structurées provenant de sources de données différentes

Beauchemin, David 02 February 2024 (has links)
Ce mémoire rend compte de l’exploration de deux approches de détection des doublons entre les descriptions d’entreprises d’une base de données interne et celles d’une source externe non structurée en assurance commerciale. Puisqu’il est coûteux et fastidieux pour un assureur de recueillir les informations nécessaires au calcul d’une prime d’assurance, notre motivation est de les aider à minimiser la quantité de ressources nécessaires à leur acquisition en leur permettant d’utiliser des sources de données externes. Dans ce mémoire, nous avons d’abord observé que l’utilisation d’algorithmes de similarité permet de détecter la majorité des doublons entre les sources de données à partir du nom. Nos expérimentations indiquent que lorsqu’on utilise le nom comme source de comparaison entre les entités, une très grande majorité de ces doublons peut être identifiée. Des expérimentations similaires, mais avec l’adresse, nous ont permis d’observer qu’il était aussi possible d’identifier les doublons d’entreprises par cet attribut, mais dans une moins grande proportion. Par la suite, nous avons entraîné des modèles d’apprentissage automatique afin de coupler les entreprises en double par le nom et l’adresse conjointement. C’est avec ces modèles que nous avons observé les meilleurs résultats. Dans une tentative finale d’améliorer davantage nos résultats, nous avons assoupli notre hypothèse initiale, qui impliquait d’utiliser l’entité la plus probable d’être le doublon d’une entreprise, pour utiliser les N entités les plus probables, ce qui a permis de maximiser le rappel à 91,07 %. / This thesis reports the exploration of two approaches to detecting duplicates between the companies descriptions in an internal database and those in an unstructured external source in commercial insurance. Since it is costly and tedious for an insurer to collect the information required to calculate an insurance premium, our motivation is to help them minimize the amount of resources necessary by extracting that information directly from external databases. In this thesis, we first observed that the use of similarity algorithms allows us to detect most of the duplicates between databases using the name. Our experiments indicate that when the name is used as a source of comparison between the entities, a vast majority of these duplicates can be identified. Similar experiments, but using the address this time, allowed us to observe that it was also possible to identify duplicate companies by this feature, but to a lesser extent. Subsequently, we trained machine learning models to match duplicate companies using the name and the address at the same time. It is with these models that we observed the best results. In a final attempt to further improve our results, we used the N most likely entities to be a duplicate of a company, instead of only the first one, thus maximizing the recall to 91.07%.
4

Rôle des missions de paix dans la lutte contre le nettoyage ethnique en analysant le cas du district de Gali en Abkhazie de 1994 à 1998

Barrière, Jean-Philippe 10 1900 (has links) (PDF)
Ce mémoire se propose d'interroger le lien entre la façon dont les opérations de paix fonctionnent et la façon de lutter contre le nettoyage ethnique. Pour y parvenir, l'auteur a tout d'abord défini une typologie des missions de paix afin de dégager leurs principales caractéristiques. Cette typologie fut appliquée à l'étude des missions de paix ayant œuvré en Abkhazie de 1994 à 1997. L'Abkhazie fut le théâtre d'un conflit sécessionniste ayant affecté la République caucasienne de Géorgie lors de son indépendance. Les caractéristiques du territoire abkhaze et la nature des combats auront mené à la conduite de nettoyage ethnique. Les accords de paix mettant fin aux hostilités auront mobilisé la venue de deux missions de paix dont on a comparé les actions sur le terrain en matière de lutte contre le nettoyage ethnique. Il apparaît que la manière dont une mission de paix fait usage de la force constitue la caractéristique des missions de paix leur permettant le mieux de lutter contre le nettoyage ethnique. Cependant, l'usage de la force entretient des liens importants avec le consentement et l'impartialité que les acteurs du conflit accordent à une mission de paix. Ces facteurs limitent les actions des missions de paix en vertu de considérations politiques et pratiques. ______________________________________________________________________________
5

Utilisation de la spectroscopie de fluorescence pour la vérification du nettoyage d'un ingrédient pharmaceutique actif sur les surfaces des équipements de production

Guay, Marianne 24 April 2018 (has links)
La vérification de nettoyage des équipements pharmaceutiques permet de déterminer si la concentration du résidu sur la surface est inférieure à une limite acceptable afin de limiter la contamination croisée. La façon de procéder est de prélever un échantillon sur la surface par écouvillon et de l’analyser par chromatographie liquide à haute performance. Le problème avec cette approche est qu’il peut s’écouler jusqu’à 2 jours avant que le résultat soit obtenu et, durant ce temps, l’équipement nettoyé ne peut être libéré pour produire un autre lot de médicaments. Il existe une opportunité pour le développement d’une nouvelle méthode analytique permettant la quantification en temps réel et sans prise d’échantillon. La nouvelle méthode évaluée utilise la fluorescence ciblée pour la quantification directe de l’ibuprofène. Dans cette preuve de concept, les différents paramètres pouvant influencer le signal sont évalués. La façon de préparer les standards pour l’étalonnage de l’appareil (TraC) est déterminée ainsi que la façon de les analyser. Une première courbe d’étalonnage pour des surfaces en acier inoxydable est validée lors d’une collecte de données in situ et il est déterminé qu’il est impossible d’évaluer la propreté de certains équipements dû à la limite de quantification du TraC et que le TraC possède un biais positif par rapport à la méthode traditionnelle. Suite à cette étude, l’appareil a subi des modifications, une nouvelle courbe d’étalonnage est réalisée et la limite de quantification est réduite. Il est déterminé que la méthode est exacte (pourcentage de récupération situé entre 85 et 115%), précise (écart-type relatif inférieur à 5%) et que les excipients testés n’ont aucun impact sur le signal. L’étalonnage sur l’aluminium, le bronze, le polypropylène et le laiton est réalisé. La preuve de concept pour l’utilisation du TraC pour la quantification de l’ibuprofène est démontrée et il est recommandé d’implanter la méthode dans une première usine. / Cleaning verification is used to assess the cleanliness of pharmaceutical process equipment. Cleanliness is established when the concentration of the residue of a pharmaceutical ingredient is lower than an acceptance limit. The method used to perform this verification consists of collecting a sample using a swab, and to analyze it using high performance liquid chromatography. The issue with this method is that it can take up to 2 days before the results are obtained, and before the equipment can be released for the production of another batch of drugs. Therefore, there is an opportunity to develop a new analytical method to quantify cleanliness in real-time without sampling (contactless). The new method investigated in this thesis uses fluorescence for direct quantification of ibuprofen residue. In this proof of concept, the impact of various parameters on the fluorescence signal was assessed. The best way to prepare the standards and how to analyze them with the instrument (the TraC) were determined. Following the verification of a first calibration curve using in situ data collection, the equipment was modified to allow the evaluation of equipment with an acceptance limit lower than the quantification limit of the TraC. The plant tests also revealed that the TraC always gives a higher concentration than the traditional method. An upgraded unit was calibrated, and the limit of quantification was lowered. It was established that the method is accurate (recovery is between 85 and 115%) and precise (relative standard deviation is lower than 5%), and that the excipients studied have no impact on the signal. Calibration curves were also built for aluminum, bronze, polyethylene and brass. Finally, the proof of concept for the use of the TraC for the cleaning verification of ibuprofen was demonstrated, and it is recommended to implement the method at a first plant.
6

Les disponibilités de temps dans la construction des normes temporelles de travail

Martinez, Esteban 04 May 2007 (has links)
Les transformations contemporaines du temps de travail, saisies à travers la codification statistique, la formulation juridique ou des enquêtes empiriques (cadres de la banque, infirmières hospitalières, ouvriers du nettoyage), sont analysées en mobilisant le concept de disponibilités de temps. La coordination de l'activité dans la sphère professionnelle et dans ses relations avec la vie privée repose désormais davantage sur des formes de disponibilité temporelle que sur des cadres temporels formels. Cependant, que la catégorie du temps soit validée comme instrument de mesure du travail ou que le travail échappe à la prescription temporelle, le temps reste une condition de travail à partir de laquelle se marquent les différenciations sociale et sexuelle du salariat.
7

Mise en suspension par laser de poussières générées lors du fonctionnement des réacteurs de fusion / Laser-induced mobilization of dust produced during fusion reactors operation

Vatry, Aude 16 November 2010 (has links)
Lors du fonctionnement d’une machine de fusion, les interactions plasma-parois conduisent à des processus d’érosion des matériaux et à la production de particules. Ces poussières sont principalement composées de carbone et de tungstène. Pour des raisons de sureté et afin de garantir un fonctionnement optimum du réacteur, il est important de garder en quantité raisonnable les poussières dont la taille varie entre 10 nm et 100 $m. La mise en suspension de ces poussières est une étape préliminaire à leur récupération, et le laser est une technique prometteuse pour cette application. Afin d’optimiser le nettoyage, les mécanismes physiques à l’origine de l’éjection induite par laser de ces poussières ont été identifiés. Les agrégats sont directement ablatés par le laser et les gouttelettes métalliques sont éjectées intactes par une force électrostatique induite par les photoélectrons. Nous avons également caractérisé l’éjection des particules pour choisir un système de récupération adapté. / During tokamak operation, plasma-wall interactions lead to material erosion processand dusts production. These dusts are mainly composed by carbon and tungsten, with sizesranging from 10 nm to 100 $m. For safety reasons and to guarantee an optimum reactorfunctioning, the dusts have to be kept in reasonable quantity. The dusts mobilization is a firststep to collect them, and the laser is a promising technique for this application. To optimizethe cleaning, physical mechanisms responsible for dust ejection induced by laser have beenidentified. Some particles, such as aggregates, are directly ablated by the laser. The metaldroplets are ejected intact by an electrostatic force, induced by the photoelectrons. We alsocharacterized the particles ejection to choose an appropriate collection device.
8

Le nettoyage : une étape-clef pour une production durable par procédé à membrane : réflexion sur le lien entre conditions de production et nettoyabilité d'une membrane PES de l'industrie laitière / Cleaning in place, a main bottleneck of a sustainable production by membrane process : reflexion about the relation between conditions of production and cleanability of PES membrane of milk industry

Diagne, Ndeye Wemsy 12 December 2013 (has links)
Le nettoyage en place des membranes en industrie agro-alimentaire est une opération cruciale qui, outre les exigences de sécurité sanitaire des installations et des produits traités doit permettre de restaurer les performances de la filtration (sélectivité, flux) en éliminant le colmatage formé pendant l'étape de production. Malheureusement cette étape repose encore sur des bases empiriques et non optimisées. A cause d'un manque de notions fondamentales, elle est encore pressentie comme un frein à l'utilisation massive des procédés membranaires. Une démarche originale a été menée dans le cadre de cette thèse incluant la réflexion sur l'incidence des paramètres hydrodynamiques des conditions de production sur la cohésion du dépôt colmatant et plus particulièrement de sa fraction irréversible, dont la nettoyabilité est étudiée. Pour fonder cette démarche, une étude comparée du colmatage et du nettoyage au flux limite et au flux critique a été réalisée en intégrant le rôle de la physico-chimie et de l'hydrodynamique pendant la phase de production. cette étude s'inscrit dans un cadre d'éco-conception de procédé, avec une analyse de cycle de vie réalisée afin d'estimer l'impact environnemental de l'étape de nettoyage via divers scénarii simplifiés. / The cleaning in place of membranes in food-processing industry is crucial operation which, besides the requirements of sanitary safety of the installations and the treated products allows to restore the performances of the filtration (flux, selectivity) by removing the fouling formed during the production step. Unfortunately, this cleaning step still rests on empirical and not optimized bases. Because of a lack of fundamental notions, it is still anticipated as a brake in the massive use of the membrane processes. An original approach is led within the framework of this thesis including the reflexion on the incidence of the hydrodynamics parameters of the conditions of production on the cohesion of the fouling deposit and more particularly its irreversible fraction which this cleanability is studied. To establish this approach, a study compared by the fouling and by the cleaning with the limiting flux and with the critical flux is realized by integrating the role of the physic-chemistry and the hydrodynamics during the production step. This study joins in a frame of eco-design of process, with an analysis of life cycle realized to estimate the environmental impact of the cleaning step by diverse scenarios.
9

Nettoyage de corpus web pour le traitement automatique des langues / Cleaning web corpus for natural language processing

Manad, Otman 06 March 2018 (has links)
Le corpus est la matière première de la linguistique informatique et du traitement automatique du langage. Peu de langues disposent de corpus riches en ressources web (forums, blogs, etc.), et ce bien qu'elles soient parfois les seules disponibles. Or ces ressources contiennent beaucoup de bruit (menus, publicités, etc.). Le filtrage des données parasites et des répétitions nécessite un nettoyage à grand échelle que les chercheurs font en général à la main.Cette thèse propose un système automatique de constitution de corpus web nettoyés de leur bruit. Il est constitué de trois modules : (a) un module de construction de corpus en n'importe quelle langue et sur tout type de données, prévu pour être collaboratif et historisé ; (b) un module d'aspiration des pages web orienté sur les forums et des blogs ; (c) un module d'extraction de données pertinentes, utilisant des techniques de clustering selon différentes distances à partir de la structure de la page. Le système est évalué sous l'angle de l’efficacité de la suppression du bruit et du temps d’exécution. Nos expérimentations, faites sur quatre langues, sont évaluées à l'aide de notre propre corpus de référence. Pour mesurer la qualité, nous utilisons rappel, précision et F-mesure. Deux distances, la feature-distance et la distance de Jaro, donnent les meilleurs résultats, mais pas dans les mêmes contextes, la feature-distance ayant la meilleure qualité moyenne.Nous comparons notre méthode avec trois méthodes traitant du même problème que la nôtre, Nutch, BootCat et JusText. Les performances de notre système sont meilleures pour la qualité d’extraction, même si pour le temps de calcul, Nutch et BootCat dominent. / Corpora are the main material of computer linguistics and natural language processing. Not many languages have corpora made from web resources (forums, blogs, etc.), even those that do not have other resources. Web resources contain lots of noise (menus, ads, etc.). Filtering boilerplate and repetitive data requires a large-scale manual cleaning by the researcher.This thesis presents an automatic system that construct web corpus with a low level of noise.It consists of three modules : (a) one for building corpora in any language and any type of data, intended to be collaborative and preserving corpus history; (b) one for crawling web forums and blogs; (c) one for extracting relevant data using clustering techniques with different distances, from the structure of web page.The system is evaluated in terms of the efficacy of noise filtering and of computing time. Our experiments, made on four languages, are evaluated using our own gold standard corpus. To measure quality, we use recall, precision and F-measure. Feature-distance and Jaro distance give the best results, but not in the same contexts, feature-distance having the best average quality.We compare our method with three methods dealing with the same problem, Nutch, BootCat and JusText. The performance of our system is better as regards the extraction quality, even if for computing time, Nutch and BootCat dominate.
10

Jaunissement de la pierre par laser : origines et remèdes / Laser induced yellowing of stone : origins and remedies

Godet, Marie 07 November 2017 (has links)
Le nettoyage laser Nd:YAG Q-switched (1064 nm) confère souvent aux surfaces nettoyées un aspect plus jaune que les autres techniques de nettoyage. Cet effet jaune peut conduire à l’obtention de contrastes de couleur inesthétiques si différentes techniques de nettoyage sont utilisées sur un même ensemble architectural, comme c’est le cas par exemple pour le portail des Valois de la basilique Saint-Denis près de Paris. Une des hypothèses émises pour expliquer le phénomène est que le jaunissement laser serait lié à la présence de résidus d’irradiation nanométriques formés par interaction du faisceau laser avec la salissure, en particulier les croûtes noires gypseuses communément observées sur les monuments en pierre. Dans le cadre de cette thèse, une méthodologie analytique multi-échelle allant jusqu’à l’échelle nanométrique a été développée pour observer et caractériser les composés néoformés responsables de la coloration jaune. Des éprouvettes de croûtes modèles à base d’hématite et de croûtes reconstituées à partir de croûte noire naturelle ont été élaborées. La croûte noire naturelle a été caractérisée pour déterminer les composés susceptibles de réagir au faisceau laser et donc de contribuer au jaunissement. Des oxydes de fer (hématite, magnétite, maghémite) et des cendres volantes silico-alumineuses issues de la combustion du charbon ont ainsi pu être mis en évidence. La nature chimique et structurale des produits de l’irradiation laser des éprouvettes a ensuite été examinée à l’aide d’un panel de techniques incluant entre autres la microscopie électronique à transmission (MET) couplée à la diffraction électronique et aux spectroscopies de rayons X par dispersion d’énergie (EDX) et de perte d’énergie des électrons (EELS). Des nanostructures cristallisées sous forme de nano-sphères et de nano-résidus ont ainsi pu être observées. La caractérisation de la composition chimique à l’échelle nanométrique a permis de révéler la présence de fer dans toutes les nanostructures. Une étude approfondie de la couleur a en outre permis de relier les propriétés colorimétriques du processus de jaunissement à la nature des nano-composés néoformés par irradiation laser. D’autre part, le portail des Valois de la basilique Saint-Denis a été le sujet d’une étude de cas qui est venue complémenter la recherche tout en ancrant l’étude dans la réalité du monde de la conservation des monuments historiques. Enfin des essais de remédiation ont démontré les potentialités de l’utilisation d’un rayonnement UV pour atténuer ou ne pas produire de jaunissement. In fine, ce travail a permis de démontrer que le phénomène de jaunissement laser observé à l’échelle macroscopique est intimement lié à des transformations de matière à l‘échelle nanométrique, induites par l’interaction du rayonnement laser avec les oxydes de fer et les cendres volantes présents dans les encrassements. / Nd:YAG Q-Switched laser cleaning of soiled stone at 1064 nm can sometimes result in yellower appearances than other conventional cleaning techniques. This yellowing effect can lead to unsightly colour contrasts if different cleaning techniques are used on the same architectural complex, as is the case for the Valois Portal of the Saint-Denis basilica near Paris. One argument made to explain the phenomenon is that the laser yellowing is linked to the creation of nano-sized irradiation residues through the laser beam interaction with soiling matter such as black gypseous crusts. In this study, a multi-scale analytical method extending to the nanoscale has been used to observe and characterize the neo-formed compounds accountable for the yellow discoloration. Samples of model crusts containing hematite and reconstituted crusts prepared with natural black crust have been synthetized. The natural black crust has been characterized in order to identify the compounds that may react under the laser beam and thus contribute to the yellowing effect. Iron oxides (hematite, magnetite and maghemite) and aluminosilicate fly-ashes originating from coal combustion have been discovered. The chemical and structural nature of irradiation products has then been investigated by several techniques including in particular transmission electron microscopy (TEM) coupled with electronic diffraction and energy-dispersive X-ray (EDX) and electron energy-loss (EELS) spectroscopies. Iron containing nanostructures crystallized in the form of nano-spheres and nano-residues have been evidenced and characterized. By studying thoroughly the colour, the colorimetric properties of the yellowing process have been linked to the nature of the neo-formed compounds. Furthermore a case study on the Valois Portal has completed the research while setting it within the reality of the conservation world. Finally experiments with UV light have shown the promising potentiality of this tool as a remedy to the yellowing effect. In summary, this study has demonstrated that the yellowing phenomenon observed at the macroscale is intimately linked to matter transformations occurring at the nanoscale, induced by the interaction between the laser beam and the iron oxides and fly-ashes found in black crusts.

Page generated in 0.0553 seconds