Spelling suggestions: "subject:"[een] SIN"" "subject:"[enn] SIN""
631 |
Plataformes avançades en el Núvol per a la reproductibilitat d'experiments computacionalsGiménez Alventosa, Vicent 07 July 2022 (has links)
Tesis por compendio / [ES] La tesis presentada se enmarca dentro del ámbito de la ciencia computacional. Dentro de esta, se centra en el desarrollo de herramientas para la ejecución de experimentación científica computacional, el impacto de la cual es cada vez mayor en todos los ámbitos de la ciencia y la ingeniería. Debido a la creciente complejidad de los cálculos realizados, cada vez es necesario un mayor conocimiento de las técnicas y herramientas disponibles para llevar a cabo este tipo de experimentos, ya que pueden requerir, en general, una gran infraestructura computacional para afrontar los altos costes de cómputo. Más aún, la reciente popularización del cómputo en la Nube ofrece una gran variedad de posibilidades para configurar nuestras propias infraestructuras con requisitos específicos. No obstante, el precio a pagar es la complejidad de configurar dichas infraestructuras en este tipo de entornos. Además, el aumento en la complejidad de configuración de los entornos en la nube no hace más que agravar un problema ya existente en el ámbito científico, y es el de la reproducibilidad de los resultados publicados. La falta de documentación, como las versiones de software que se han usado para llevar a cabo el cómputo, o los datos requeridos, provocan que una parte significativa de los resultados de experimentos computacionales publicados no sean reproducibles por otros investigadores. Como consecuencia, se produce un derroche de recursos destinados a la investigación.
Como respuesta a esta situación, existen, y continúan desarrollándose, diferentes herramientas para facilitar procesos como el despliegue y configuración de infraestructura, el acceso a los datos, el diseño de flujos de cómputo, etc. con el objetivo de que los investigadores puedan centrarse en el problema a abordar. Precisamente, esta es la base de los trabajos desarrollados en la presente tesis, el desarrollo de herramientas para facilitar que el cómputo científico se beneficie de entornos de computación en la Nube de forma eficiente.
El primer trabajo presentado empieza con un estudio exhaustivo de las prestaciones d'un servicio relativamente nuevo, la ejecución serverless de funciones. En este, se determinará la conveniencia de usar este tipo de entornos en el cálculo científico midiendo tanto sus prestaciones de forma aislada, como velocidad de CPU y comunicaciones, como en conjunto mediante el desarrollo de una aplicación de procesamiento MapReduce para entornos serverless.
En el siguiente trabajo, se abordará una problemática diferente, y es la reproducibilidad de experimentos computacionales. Para conseguirlo, se presentará un entorno, basado en Jupyter, donde se encapsule tanto el proceso de despliegue y configuración de infraestructura computacional como el acceso a datos y la documentación de la experimentación. Toda esta información quedará registrada en el notebook de Jupyter donde se ejecuta el experimento, permitiendo así a otros investigadores reproducir los resultados simplemente compartiendo el notebook correspondiente.
Volviendo al estudio de las prestaciones del primer trabajo, teniendo en cuenta las medidas y bien estudiadas fluctuaciones de éstas en entornos compartidos, como el cómputo en la Nube, en el tercer trabajo se desarrollará un sistema de balanceo de carga diseñado expresamente para este tipo de entornos. Como se mostrará, este componente es capaz de gestionar y corregir de forma precisa fluctuaciones impredecibles en las prestaciones del cómputo en entornos compartidos.
Finalmente, y aprovechando el desarrollo anterior, se diseñará una plataforma completamente serverless encargada de repartir y balancear tareas ejecutadas en múltiples infraestructuras independientes. La motivación de este último trabajo viene dada por los altos costes computacionales de ciertos experimentos, los cuales fuerzan a los investigadores a usar múltiples infraestructuras que, en general, pertenecen a diferentes organizaciones. / [CA] La tesi presentada a aquest document s'emmarca dins de l'àmbit de la ciència computacional. Dintre d'aquesta, es centra en el desenvolupament d'eines per a l'execució d'experimentació científica computacional, la qual té un impacte cada vegada major en tots els àmbits de la ciència i l'enginyeria. Donada la creixent complexitat dels càlculs realitzats, cada vegada és necessari un major coneixement sobre les tècniques i eines disponibles per a dur a terme aquestes experimentacions, ja que poden requerir, en general, una gran infraestructura computacional per afrontar els alts costos de còmput. Més encara, la recent popularització del còmput en el Núvol ofereix una gran varietat de possibilitats per a configurar les nostres pròpies infraestructures amb requisits específiques. No obstant, el preu a pagar és la complexitat de configurar les esmenades infraestructures a aquest tipus d'entorns. A més, l'augment de la complexitat de configuració dels entorns de còmput no ha fet més que agreujar un problema ja existent a l'àmbit científic, i és la reproductibilitat de resultats publicats. La manca de documentació, com les versions del programari emprat per a dur a terme el còmput, o les dades requerides ocasionen que una part no negligible dels resultats d'experiments computacionals publicats no siguen reproduïbles per altres investigadors. Com a conseqüència, es produeix un malbaratament dels recursos destinats a la investigació.
Com a resposta a aquesta situació, existeixen, i continuen desenvolupant-se, diverses eines per facilitar processos com el desplegament i configuració d'infraestructura, l'accés a les dades, el disseny de fluxos de còmput, etc. amb l'objectiu de que els investigadors puguen centrar-se en el problema a abordar. Precisament, aquesta és la base dels treballs desenvolupats durant la tesi que segueix, el desenvolupar eines per a facilitar que el còmput científic es beneficiar-se d'entorns de computació en el Núvol d'una forma eficient.
El primer treball presentat comença amb un estudi exhaustiu de les prestacions d'un servei relativament nou, l'execució serverless de funcions. En aquest, es determinarà la conveniència d'emprar este tipus d'entorns en el càlcul científic mesurant tant les seues prestacions de forma aïllada, com velocitat de CPU i la velocitat de les comunicacions, com en conjunt a través del desenvolupament d'una aplicació de processament MapReduce per a entorns serverless.
Al següent treball, s'abordarà una problemàtica diferent, i és la reproductibilitat dels experiments computacionals. Per a aconseguir-ho, es presentarà una entorn, basat en Jupyter, on s'englobe tant el desplegament i configuració d'infraestructura computacional, com l'accés a les dades requerides i la documentació de l'experimentació. Tota aquesta informació quedarà registrada al notebook de Jupyter on s'executa l'experiment, permetent així a altres investigadors reproduir els resultats simplement compartint el notebook corresponent.
Tornant a l'estudi de les prestacions del primer treball, donades les mesurades i ben estudiades fluctuacions d'aquestes en entorns compartits, com en el còmput en el Núvol, al tercer treball es desenvoluparà un sistema de balanceig de càrrega dissenyat expressament per aquest tipus d'entorns. Com es veurà, aquest component és capaç de gestionar i corregir de forma precisa fluctuacions impredictibles en les prestacions de còmput d'entorns compartits.
Finalment, i aprofitant el desenvolupament anterior, es dissenyarà una plataforma completament serverless per a repartir i balancejar tasques executades en múltiples infraestructures de còmput independents. La motivació d'aquest últim treball ve donada pels alts costos computacionals de certes experimentacions, els quals forcen als investigadors a emprar múltiples infraestructures que, en general, pertanyen a diferents organitzacions. Es demostrarà la capacitat de la plataforma per balancejar treballs i minimitzar el malbaratament de recursos / [EN] This document is focused on computational science, specifically in the development of tools for executions of scientific computational experiments, whose impact has increased, and still increasing, in all scientific and engineering scopes. Considering the growing complexity of scientific calculus, it is required large and complex computational infrastructures to carry on the experimentation. However, to use this infrastructures, it is required a deep knowledge of the available tools and techniques to be handled efficiently. Moreover, the popularity of Cloud computing environments offers a wide variety of possible configurations for our computational infrastructures, thus complicating the configuration process. Furthermore, this increase in complexity has exacerbated the well known problem of reproducibility in science. The lack of documentation, as the used software versions, or the data required by the experiment, produces non reproducible results in computational experiments. This situation produce a non negligible waste of the resources invested in research.
As consequence, several tools have been developed to facilitate the deployment, usage and configuration of complex infrastructures, provide access to data, etc. with the objective to simplify the common steps of computational experiments to researchers. Moreover, the works presented in this document share the same objective, i.e. develop tools to provide an easy, efficient and reproducible usage of cloud computing environments for scientific experimentation.
The first presented work begins with an exhaustive study of the suitability of the AWS serverless environment for scientific calculus. In this one, the suitability of this kind of environments for scientific research will be studied. With this aim, the study will measure the CPU and network performance, both isolated and combined, via a MapReduce framework developed completely using serverless services.
The second one is focused on the reproducibility problem in computational experiments. To improve reproducibility, the work presents an environment, based on Jupyter, which handles and simplify the deployment, configuration and usage of complex computational infrastructures. Also, includes a straight forward procedure to provide access to data and documentation of the experimentation via the Jupyter notebooks. Therefore, the whole experiment could be reproduced sharing the corresponding notebook.
In the third work, a load balance library has been developed to address fluctuations of shared infrastructure capabilities. This effect has been wide studied in the literature and affects specially to cloud computing environments. The developed load balance system, as we will see, can handle and correct accurately unpredictable fluctuations in such environments.
Finally, based on the previous work, a completely serverless platform is presented to split and balance job executions among several shared, heterogeneous and independent computing infrastructures. The motivation of this last work is the huge computational cost of many experiments, which forces the researchers to use multiple infrastructures belonging, in general, to different organisations. It will be shown how the developed platform is capable to balance the workload accurately. Moreover, it can fit execution time constrains specified by the user. In addition, the platform assists the computational infrastructures to scale as a function of the incoming workload, avoiding an over-provisioning or under-provisioning. Therefore, the platform provides an efficient usage of the available resources. / This study was supported by the program “Ayudas para la contratación de personal investigador en formación de carácter predoctoral, programa VALi+d” under grant number ACIF/2018/148 from the Conselleria d’Educació of the Generalitat Valenciana. The authors would also like to thank the Spanish "Ministerio de Economía, Industria y Competitividad"for the project “BigCLOE” with reference number TIN2016-79951-R. / Giménez Alventosa, V. (2022). Plataformes avançades en el Núvol per a la reproductibilitat d'experiments computacionals [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184010 / Compendio
|
632 |
Evaluación de varias fuentes de proteína vegetal en dietas para camarón Litopenaeus vannameiMOLINA POVEDA, CESAR 05 May 2016 (has links)
[EN] The present study was designed to evaluate in independent trials the effect of replace protein fishmeal (HP) by four plant sources, lupine (Lupinus mutabilis Sweet), corn gluten (CGM), amaranth (Amaranthus caudatus L.) and quinoa (Chenopodium quinoa) on the growth of juvenile shrimp Litopenaeus vannamei. For this four sets of diets were developed. The first two containing 35% protein and 11% lipids were prepared to replace the 0, 25, 50, 75 and 100% of the protein from HP by protein lupine (LKM) or CGM. The other two series of isoproteic (30%) and isolipidic (9.5%) diets were formulated to replace 0, 15, 25, 35 and 45% protein HP by protein amaranth and quinoa. Only the contents of corn starch and fish oil were varied to maintain constant levels of protein and lipid in all the experimental diets. All diets had squid meal to provide attractability.
Depending on the test conducted eight (LKM and CGM) or seven (amaranth and quinoa) juveniles of about 1g were stocked randomly in aquariums (44 m-2 or 39 m-2) 50 L equipped with a flow-through water system using full-strength seawater. Six aquariums (replicates) were assigned to each of the treatments in a completely randomized design. The shrimp were fed ad libitum twice a day for about eight weeks. At the end of the growth trial, shrimp were fed experimental diets containing 0.5% of chromium oxide.
Overall survival in the study was higher than 74% and did not change significantly (p>0.05) when HP was replaced partially or completely by each of the sources evaluated. The results of this study showed that LKM can replace 50% of the protein of HP without significantly (p>0.05) reducing growth (6.7-7.0 g final weight). LKM inclusion in any of the tested levels resulted in a significantly (p<0.05) reduced the apparent digestibility of dry matter (ADMS) and apparent digestibility of crude protein (ADPC) of the feed.
The gradual increase of CGM in diets produced a significant (p<0.05) decrease of shrimp final weight (5.9 to 3.2 g) and growth rate (2.7 to 1.7% d-1) compared to those fed CGM 0 (7.1 g and 3.0% d-1). Feed Conversion Factor (FCA) was also significantly (p<0.05) affected by CGM level, diets CGM50, CGM75 and CGM100 had higher FCA than CGM0 and CGM25. The inclusion of CGM on any level tested resulted in a significant decrease in ADMS, from 77.9 to 66.0%, and ADPC, 80.5 to 52.0%, of the feed. The apparent digestibility of amino acids, except lysine, declined with the addition of CGM, reflecting the ADPC.
While those shrimps fed diets based on amaranth showed that the diet with 15% replacement obtained a better growth (p<0.05) after the control diet. Diets with replacement 15% and 25% reported significantly (p<0.05) better DAMS (79.7% and 71.2%) and ADPC (88.4% and 81.1%) than the diet with 35% and 45% substitution. The replacement of quinoa in any of the assessed levels have not demonstrated performance (p<0.05) lower than the control diet. The DAMS and ADPC for quinoa diets were statistically superior (p<0.05) than control diet.
These results show that lupine and quinoa have a very good potential as a protein source up to 50% and 45% respectively of the HP protein which is equivalent to a third of the total protein in the diet. The cost-benefit of including these ingredients needs to be evaluated. Lower values of corn gluten and amaranth on the HP could be due to low protein digestibility, imbalance of amino acids and / or the presence of antinutritional factors. / [ES] El presente estudio fue diseñado para evaluar en ensayos independientes el efecto de reemplazar la proteína de la harina de pescado (HP) por cuatro fuentes de origen vegetal, altramuz (Lupinus mutabilis Sweet), gluten de maíz (CGM), amaranto (Amaranthus caudatus L.) y quinua (Chenopodium quinoa) sobre el crecimiento de camarones juveniles Litopenaeus vannamei. Para esto se elaboraron cuatro series de dietas. Las dos primeras conteniendo 35% de proteína y 11% de lípidos fueron preparadas para sustituir el 0, 25, 50, 75 y 100% de la proteína proveniente de la HP por proteína de las harinas de altramuz (LKM) o CGM. Las otras dos series de dietas isoproteicas (30%) e isolipidicas (9,5%) fueron formuladas para reemplazar 0, 15, 25, 35 y 45% de la proteína de la HP por proteína de amaranto y quinua. Solamente los contenidos de almidón de maíz y aceite de pescado variaron para mantener constante los niveles de proteína y lípidos en todas las dietas experimentales. Todas las dietas tuvieron harina de calamar.
Dependiendo del ensayo realizado ocho (LKM y CGM) o siete (amaranto y quinua) juveniles de alrededor de 1g fueron sembrados aleatoriamente en los acuarios (44 m-2 o 39 m-2) de 50 l equipados con un sistema de recambio de agua de mar de flujo continuo. Seis acuarios (réplicas) fueron asignadas a cada uno de los tratamientos en un diseño completamente aleatorizado. Los camarones fueron alimentados ad libitum dos veces al día por aproximadamente ocho semanas. Al final del ensayo de crecimiento, los camarones fueron alimentados con las dietas experimentales conteniendo 0,5% de óxido de cromo.
La supervivencia en general del estudio fue superior a 74% y no varió significativamente (p>0,05) cuando la HP fue reemplazada parcial o totalmente por cada una de las fuentes evaluadas.
Los resultados de este estudio mostraron que LKM puede reemplazar el 50% de la proteína de la HP sin disminuir significativamente (p>0,05) el crecimiento (6,7-7,0 g peso final). La inclusión de LKM en cualquiera de los niveles ensayados resultaron en una significativamente (p<0,05) reducción de la digestibilidad aparente de materia seca (DAMS) y la digestibilidad aparente de proteína cruda (DAPC) del alimento.
El gradual incremento del CGM en las dietas produjo un significativo (p<0,05) decrecimiento del peso final (5,9 a 3,2 g) de los camarones y sus tasas de crecimiento (2,7 a 1,7% d-1) comparado a aquellos alimentados con 0 CGM (7,1 g y 3,0 % d-1). El Factor de Conversión Alimenticia (FCA) fue también significativamente (p<0,05) afectado por el nivel de CGM, las dietas CGM50, CGM75 y CGM100 tuvieron un más alto FCA que CGM0 y CGM25. La inclusión de CGM en cualquier nivel ensayado resultó en un significativo decrecimiento en DAMS, de 77,9 a 66,0%, y en DAPC, de 80,5 a 52,0%, del alimento. La digestibilidad aparente de aminoácidos, con la excepción de lisina, declinó con la incorporación de CGM, reflejando la ADPC.
En tanto que los camarones alimentados con las dietas a base de amaranto mostraron (p<0,05) que la dieta con 15% de reemplazo obtuvo un mejor crecimiento después de la dieta control. Las dietas con reemplazo de 15% y 25% registraron significativamente (p<0,05) una mejor DAMS (79,70% y 71,21%) y DAPC (88,39% y 81,10%) que las dieta con 35% y 45% de sustitución. El reemplazo de la quinua en cualquiera de los niveles evaluados no demostraron tener un rendimiento (p<0,05) inferior a la dieta control. La DAMS y DAPC para las dietas con quinua fueron estadísticamente superiores (p<0,05) a la dieta control.
Estos resultados muestran que el altramuz y quinua tienen un potencial muy bueno como fuente proteína hasta el 50% y 45% respectivamente de la proteína de la HP lo cual es equivalente a un tercio del total de la proteína presente en la dieta. Los valores más bajos del gluten de maíz y amaranto relativo a la HP podrían ser debido a la baja digestibilidad de la proteína, imbalance de aminoácidos y/o a la pres / [CA] El present estudi va ser dissenyat per a avaluar en assajos independents l'efecte de reemplaçar la proteïna de la farina de peix (HP) per quatre fonts d'origen vegetal, tramús (Lupinus mutabilis Sweet), gluten de dacsa (CGM), amarant (Amaranthus caudatus L.) i quinoa (Chenopodium quinoa) sobre el creixement de gambetes juvenils Litopenaeus vannamei. Per a açò es van elaborar quatre sèries de dietes. Les dos primeres contenint 35% de proteïna i 11% de lípids van ser preparades per a substituir el 0, 25, 50, 75 i 100% de la proteïna provinent de la HP per proteïna de les farines de tramús (LKM) o CGM. Les altres dos sèries de dietes isoproteicas (30%) i isolipidicas (9,5%) van ser formulades per a reemplaçar 0, 15, 25, 35 i 45% de la proteïna de la HP per proteïna d'amarant i quinoa. Només els continguts de midó de dacsa i oli de peix van variar per a mantindre constant els nivells de proteïna i lípids en totes les dietes experimentals. Totes les dietes van tindre farina de calamar per a proveir atractabilidad.
Depenent de l'assaig realitzat huit (LKM i CGM) o set (amarant i quinoa) juvenils d'al voltant de 1g van ser sembrats aleatòriament en els aquaris (44 m-2 o 39 m-2) de 50 l equipats amb un sistema de recanvi d'aigua de mar de flux continu. Sis aquaris (rèpliques) van ser assignades a cada un dels tractaments en un disseny completament aleatorizado. Les gambetes van ser alimentats ad libitum dos vegades al dia per aproximadament huit setmanes. Al final de l'assaig de creixement, les gambetes van ser alimentats amb les dietes experimentals contenint 0,5% d'òxid de crom.
La supervivència en general de l'estudi va ser superior a 74% i no va variar significativament (p>0,05) quan la HP va ser reemplaçada parcial o totalment per cada una de les fonts avaluades.
Els resultats d'este estudi van mostrar que LKM pot reemplaçar el 50% de la proteïna de la HP sense disminuir significativament (p>0,05) el creixement (6,7-7,0 g pes final). La inclusió de LKM en qualsevol dels nivells assajats van resultar en una significativament (p<0.05) reducció de la digestibilitat aparent de matèria seca (DAMS) i la digestibilitat aparent de proteïna crua (DAPC) de l'aliment.
El gradual increment del CGM en les dietes va produir un significatiu decreixement del pes final (5,9 a 3,2 g) de les gambetes i les seues taxes de creixement (2,7 a 1,7% d-1) comparat a aquells alimentats amb 0 CGM (7,1 g i 3,0 % d-1). El Factor de Conversió Alimentària (FCA) va ser també significativament (p<0.05) afectat pel nivell de CGM, les dietes CGM50, CGM75 i CGM100 van tindre un més alt FCA que CGM0 i CGM25. La inclusió de CGM en qualsevol nivell assajat va resultar en un significatiu decreixement en DAMS, de 77,9 a 66,0%, i en DAPC, de 80,5 a 52,0%, de l'aliment. La digestibilitat aparent d'aminoàcids, amb l'excepció de lisina, va declinar amb la incorporació de CGM, reflectint l'ADPC.
En tant que les gambetes alimentats amb les dietes a base d'amarant van mostrar que la dieta amb 15% de reemplaçament va obtindre un millor creixement després de la dieta control. Les dietes amb reemplaçament de 15% i 25% van registrar significativament una millor DAMS (79,70% i 71,21%) i DAPC (88,39% i 81,10%) que les dieta amb 35% i 45% de substitució. El reemplaçament de la quinoa en qualsevol dels nivells avaluats no van demostrar tindre un rendiment inferior a la dieta control. La DAMS i DAPC per a les dietes amb quinoa van ser estadísticament superiors a la dieta control.
Estos resultats mostren que el tramús i quinoa tenen un potencial molt bo com a font proteïna fins al 50% i 45% respectivament de la proteïna de la HP la qual cosa és equivalent a un terç del total de la proteïna present en la dieta. El cost-benefici d'incloure estos ingredients necessita ser avaluat. Els valors més baixos del gluten de dacsa i amarant relatiu a la HP podrien ser degut a la baixa digestibilitat de la proteïna, imbalance d'aminoàcids y/o a / Molina Poveda, C. (2016). Evaluación de varias fuentes de proteína vegetal en dietas para camarón Litopenaeus vannamei [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63666
|
633 |
Job shop smart manufacturing scheduling by deep reinforcement learning for Industry 4.0Serrano Ruiz, Julio César 24 January 2026 (has links)
Tesis por compendio / [ES] El paradigma de la Industria 4.0 (I4.0) gravita en gran medida sobre el potencial de las tecnologías de la información y la comunicación (TIC) para mejorar la competitividad y sostenibilidad de las industrias. El concepto de Smart Manufacturing Scheduling (SMS) surge y se inspira de ese potencial. SMS, como estrategia de transformación digital, aspira a optimizar los procesos industriales mediante la aplicación de tecnologías como el gemelo digital o digital twin (DT), el modelo de gestión zero-defect manufacturing (ZDM), y el aprendizaje por refuerzo profundo o deep reinforcement learning (DRL), con el propósito final de orientar los procesos de programación de operaciones hacia una automatización adaptativa en tiempo real y una reducción de las perturbaciones en los sistemas de producción.
SMS se basa en cuatro principios de diseño del espectro I4.0: automatización, autonomía, capacidad de acción en tiempo real e interoperabilidad. A partir de estos principios clave, SMS combina las capacidades de la tecnología DT para simular, analizar y predecir; la del modelo ZDM para prevenir perturbaciones en los sistemas de planificación y control de la producción; y la del enfoque de modelado DRL para mejorar la toma de decisiones en tiempo real. Este enfoque conjunto orienta los procesos de programación de operaciones hacia una mayor eficiencia y, con ello, hacia un mayor rendimiento y resiliencia del sistema productivo.
Esta investigación emprende, en primer lugar, una revisión exhaustiva del estado del arte sobre SMS. Con la revisión efectuada como referencia, la investigación plantea un modelo conceptual de SMS como estrategia de transformación digital en el contexto del proceso de programación del taller de trabajos o job shop. Finalmente, la investigación propone un modelo basado en DRL para abordar la implementación de los elementos clave del modelo conceptual: el DT del taller de trabajos y el agente programador. Los algoritmos que integran este modelo se han programado en Python y han sido validados contra varias de las más conocidas reglas heurísticas de prioridad. El desarrollo del modelo y los algoritmos supone una contribución académica y gerencial en el área de la planificación y control de la producción. / [CA] El paradigma de la Indústria 4.0 (I4.0) gravita en gran mesura sobre el potencial de les tecnologies de la informació i la comunicació (TIC) per millorar la competitivitat i la sostenibilitat de les indústries. El concepte d'smart manufacturing scheduling (SMS) sorgeix i inspira a partir d'aquest potencial. SMS, com a estratègia de transformació digital, aspira a optimitzar els processos industrials mitjançant l'aplicació de tecnologies com el bessó digital o digital twin (DT), el model de gestió zero-defect manufacturing (ZDM), i l'aprenentatge per reforçament profund o deep reinforcement learning (DRL), amb el propòsit final dorientar els processos de programació doperacions cap a una automatització adaptativa en temps real i una reducció de les pertorbacions en els sistemes de producció.
SMS es basa en quatre principis de disseny de l'espectre I4.0: automatització, autonomia, capacitat d¿acció en temps real i interoperabilitat. A partir d'aquests principis clau, SMS combina les capacitats de la tecnologia DT per simular, analitzar i predir; la del model ZDM per prevenir pertorbacions en els sistemes de planificació i control de la producció; i la de de l'enfocament de modelatge DRL per millorar la presa de decisions en temps real. Aquest enfocament conjunt orienta els processos de programació d'operacions cap a una eficiència més gran i, amb això, cap a un major rendiment i resiliència del sistema productiu.
Aquesta investigació emprèn, en primer lloc, una exhaustiva revisió de l'estat de l'art sobre SMS. Amb la revisió efectuada com a referència, la investigació planteja un model conceptual de SMS com a estratègia de transformació digital en el context del procés de programació del taller de treballs o job shop. Finalment, la investigació proposa un model basat en DRL per abordar la implementació dels elements claus del model conceptual: el DT del taller de treballs i l'agent programador. Els algorismes que integren aquest model s'han programat a Python i han estat validats contra diverses de les més conegudes regles heurístiques de prioritat. El desenvolupament del model i els algorismes suposa una contribució a nivell acadèmic i gerencial a l'àrea de la planificació i control de la producció. / [EN] The Industry 4.0 (I4.0) paradigm relies, to a large extent, on the potential of information and communication technologies (ICT) to improve the competitiveness and sustainability of industries. The smart manufacturing scheduling (SMS) concept arises and draws inspiration from this potential. As a digital transformation strategy, SMS aims to optimise industrial processes through the application of technologies, such as the digital twin (DT), the zero-defect manufacturing (ZDM) management model and deep reinforcement learning (DRL), for the ultimate purpose of guiding operations scheduling processes towards real-time adaptive automation and to reduce disturbances in production systems.
SMS is based on four design principles of the I4.0 spectrum: automation, autonomy, real-time capability and interoperability. Based on these key principles, SMS combines the capabilities of the DT technology to simulate, analyse and predict; with the ZDM model, to prevent disturbances in production planning and control systems; by the DRL modelling approach, to improve real-time decision making. This joint approach orients operations scheduling processes towards greater efficiency and, with it, a better performing and more resilient production system.
This research firstly undertakes a comprehensive review of the state of the art on SMS. By taking the review as a reference, the research proposes a conceptual model of SMS as a digital transformation strategy in the job shop scheduling process context. Finally, it proposes a DRL-based model to address the implementation of the key elements of the conceptual model: the job shop DT and the scheduling agent. The algorithms that integrate this model have been programmed in Python and validated against several of the most well-known heuristic priority rules. The development of the model and algorithms is an academic and managerial contribution in the production planning and control area. / This thesis was developed with the support of the Research Centre on
Production Management and Engineering (CIGIP) of the Universitat Politècnica
de València and received funding from: the European Union H2020 programme
under grant agreement No. 825631, “Zero Defect Manufacturing Platform
(ZDMP)”; the European Union H2020 programme under grant agreement No.
872548, "Fostering DIHs for Embedding Interoperability in Cyber-Physical
Systems of European SMEs (DIH4CPS)"; the European Union H2020
programme under grant agreement No. 958205, “Industrial Data Services for
Quality Control in Smart Manufacturing (i4Q)”; the European Union Horizon
Europe programme under grant agreement No. 101057294, “AI Driven
Industrial Equipment Product Life Cycle Boosting Agility, Sustainability and
Resilience” (AIDEAS); the Spanish Ministry of Science, Innovation and
Universities under grant agreement RTI2018-101344-B-I00, "Optimisation of
zero-defects production technologies enabling supply chains 4.0 (CADS4.0)";
the Valencian Regional Government, in turn funded from grant RTI2018-
101344-B-I00 by MCIN/AEI/10.13039/501100011033 and by “ERDF A way of
making Europe”, "Industrial Production and Logistics optimization in Industry
4.0" (i4OPT) (Ref. PROMETEO/2021/065); and the grant PDC2022-133957-
I00, “Validation of transferable results of optimisation of zero-defect enabling
production technologies for supply chain 4.0” (CADS4.0-II) funded by
MCIN/AEI/10.13039/501100011033 and by European Union Next
GenerationEU/PRTR. / Serrano Ruiz, JC. (2024). Job shop smart manufacturing scheduling by deep reinforcement learning for Industry 4.0 [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202871 / Compendio
|
634 |
Distributed Computing Solutions for High Energy Physics Interactive Data AnalysisPadulano, Vincenzo Eduardo 04 May 2023 (has links)
[ES] La investigación científica en Física de Altas Energías (HEP) se caracteriza por desafíos computacionales complejos, que durante décadas tuvieron que ser abordados mediante la investigación de técnicas informáticas en paralelo a los avances en la comprensión de la física. Uno de los principales actores en el campo, el CERN, alberga tanto el Gran Colisionador de Hadrones (LHC) como miles de investigadores cada año que se dedican a recopilar y procesar las enormes cantidades de datos generados por el acelerador de partículas. Históricamente, esto ha proporcionado un terreno fértil para las técnicas de computación distribuida, conduciendo a la creación de Worldwide LHC Computing Grid (WLCG), una red global de gran potencia informática para todos los experimentos LHC y del campo HEP. Los datos generados por el LHC hasta ahora ya han planteado desafíos para la informática y el almacenamiento. Esto solo aumentará con futuras actualizaciones de hardware del acelerador, un escenario que requerirá grandes cantidades de recursos coordinados para ejecutar los análisis HEP. La estrategia principal para cálculos tan complejos es, hasta el día de hoy, enviar solicitudes a sistemas de colas por lotes conectados a la red. Esto tiene dos grandes desventajas para el usuario: falta de interactividad y tiempos de espera desconocidos. En años más recientes, otros campos de la investigación y la industria han desarrollado nuevas técnicas para abordar la tarea de analizar las cantidades cada vez mayores de datos generados por humanos (una tendencia comúnmente mencionada como "Big Data"). Por lo tanto, han surgido nuevas interfaces y modelos de programación que muestran la interactividad como una característica clave y permiten el uso de grandes recursos informáticos.
A la luz del escenario descrito anteriormente, esta tesis tiene como objetivo aprovechar las herramientas y arquitecturas de la industria de vanguardia para acelerar los flujos de trabajo de análisis en HEP, y proporcionar una interfaz de programación que permite la paralelización automática, tanto en una sola máquina como en un conjunto de recursos distribuidos. Se centra en los modelos de programación modernos y en cómo hacer el mejor uso de los recursos de hardware disponibles al tiempo que proporciona una experiencia de usuario perfecta. La tesis también propone una solución informática distribuida moderna para el análisis de datos HEP, haciendo uso del software llamado ROOT y, en particular, de su capa de análisis de datos llamada RDataFrame. Se exploran algunas áreas clave de investigación en torno a esta propuesta. Desde el punto de vista del usuario, esto se detalla en forma de una nueva interfaz que puede ejecutarse en una computadora portátil o en miles de nodos informáticos, sin cambios en la aplicación del usuario. Este desarrollo abre la puerta a la explotación de recursos distribuidos a través de motores de ejecución estándar de la industria que pueden escalar a múltiples nodos en clústeres HPC o HTC, o incluso en ofertas serverless de nubes comerciales. Dado que el análisis de datos en este campo a menudo está limitado por E/S, se necesita comprender cuáles son los posibles mecanismos de almacenamiento en caché. En este sentido, se investigó un sistema de almacenamiento novedoso basado en la tecnología de almacenamiento de objetos como objetivo para el caché.
En conclusión, el futuro del análisis de datos en HEP presenta desafíos desde varias perspectivas, desde la explotación de recursos informáticos y de almacenamiento distribuidos hasta el diseño de interfaces de usuario ergonómicas. Los marcos de software deben apuntar a la eficiencia y la facilidad de uso, desvinculando la definición de los cálculos físicos de los detalles de implementación de su ejecución. Esta tesis se enmarca en el esfuerzo colectivo de la comunidad HEP hacia estos objetivos, definiendo problemas y posibles soluciones que pueden ser adoptadas por futuros investigadores. / [CA] La investigació científica a Física d'Altes Energies (HEP) es caracteritza per desafiaments computacionals complexos, que durant dècades van haver de ser abordats mitjançant la investigació de tècniques informàtiques en paral·lel als avenços en la comprensió de la física. Un dels principals actors al camp, el CERN, acull tant el Gran Col·lisionador d'Hadrons (LHC) com milers d'investigadors cada any que es dediquen a recopilar i processar les enormes quantitats de dades generades per l'accelerador de partícules. Històricament, això ha proporcionat un terreny fèrtil per a les tècniques de computació distribuïda, conduint a la creació del Worldwide LHC Computing Grid (WLCG), una xarxa global de gran potència informàtica per a tots els experiments LHC i del camp HEP. Les dades generades per l'LHC fins ara ja han plantejat desafiaments per a la informàtica i l'emmagatzematge. Això només augmentarà amb futures actualitzacions de maquinari de l'accelerador, un escenari que requerirà grans quantitats de recursos coordinats per executar les anàlisis HEP. L'estratègia principal per a càlculs tan complexos és, fins avui, enviar sol·licituds a sistemes de cues per lots connectats a la xarxa. Això té dos grans desavantatges per a l'usuari: manca d'interactivitat i temps de espera desconeguts. En anys més recents, altres camps de la recerca i la indústria han desenvolupat noves tècniques per abordar la tasca d'analitzar les quantitats cada vegada més grans de dades generades per humans (una tendència comunament esmentada com a "Big Data"). Per tant, han sorgit noves interfícies i models de programació que mostren la interactivitat com a característica clau i permeten l'ús de grans recursos informàtics. A la llum de l'escenari descrit anteriorment, aquesta tesi té com a objectiu aprofitar les eines i les arquitectures de la indústria d'avantguarda per accelerar els fluxos de treball d'anàlisi a HEP, i proporcionar una interfície de programació que permet la paral·lelització automàtica, tant en una sola màquina com en un conjunt de recursos distribuïts. Se centra en els models de programació moderns i com fer el millor ús dels recursos de maquinari disponibles alhora que proporciona una experiència d'usuari perfecta. La tesi també proposa una solució informàtica distribuïda moderna per a l'anàlisi de dades HEP, fent ús del programari anomenat ROOT i, en particular, de la seva capa d'anàlisi de dades anomenada RDataFrame. S'exploren algunes àrees clau de recerca sobre aquesta proposta. Des del punt de vista de l'usuari, això es detalla en forma duna nova interfície que es pot executar en un ordinador portàtil o en milers de nodes informàtics, sense canvis en l'aplicació de l'usuari. Aquest desenvolupament obre la porta a l'explotació de recursos distribuïts a través de motors d'execució estàndard de la indústria que poden escalar a múltiples nodes en clústers HPC o HTC, o fins i tot en ofertes serverless de núvols comercials. Atès que sovint l'anàlisi de dades en aquest camp està limitada per E/S, cal comprendre quins són els possibles mecanismes d'emmagatzematge en memòria cau. En aquest sentit, es va investigar un nou sistema d'emmagatzematge basat en la tecnologia d'emmagatzematge d'objectes com a objectiu per a la memòria cau. En conclusió, el futur de l'anàlisi de dades a HEP presenta reptes des de diverses perspectives, des de l'explotació de recursos informàtics i d'emmagatzematge distribuïts fins al disseny d'interfícies d'usuari ergonòmiques. Els marcs de programari han d'apuntar a l'eficiència i la facilitat d'ús, desvinculant la definició dels càlculs físics dels detalls d'implementació de la seva execució. Aquesta tesi s'emmarca en l'esforç col·lectiu de la comunitat HEP cap a aquests objectius, definint problemes i possibles solucions que poden ser adoptades per futurs investigadors. / [EN] The scientific research in High Energy Physics (HEP) is characterised by complex computational challenges, which over the decades had to be addressed by researching computing techniques in parallel to the advances in understanding physics. One of the main actors in the field, CERN, hosts both the Large Hadron Collider (LHC) and thousands of researchers yearly who are devoted to collecting and processing the huge amounts of data generated by the particle accelerator. This has historically provided a fertile ground for distributed computing techniques, which led to the creation of the Worldwide LHC Computing Grid (WLCG), a global network providing large computing power for all the experiments revolving around the LHC and the HEP field. Data generated by the LHC so far has already posed challenges for computing and storage. This is only going to increase with future hardware updates of the accelerator, which will bring a scenario that will require large amounts of coordinated resources to run the workflows of HEP analyses. The main strategy for such complex computations is, still to this day, submitting applications to batch queueing systems connected to the grid and wait for the final result to arrive. This has two great disadvantages from the user's perspective: no interactivity and unknown waiting times. In more recent years, other fields of research and industry have developed new techniques to address the task of analysing the ever increasing large amounts of human-generated data (a trend commonly mentioned as "Big Data"). Thus, new programming interfaces and models have arised that most often showcase interactivity as one key feature while also allowing the usage of large computational resources.
In light of the scenario described above, this thesis aims at leveraging cutting-edge industry tools and architectures to speed up analysis workflows in High Energy Physics, while providing a programming interface that enables automatic parallelisation, both on a single machine and on a set of distributed resources. It focuses on modern programming models and on how to make best use of the available hardware resources while providing a seamless user experience. The thesis also proposes a modern distributed computing solution to the HEP data analysis, making use of the established software framework called ROOT and in particular of its data analysis layer implemented with the RDataFrame class. A few key research areas that revolved around this proposal are explored. From the user's point of view, this is detailed in the form of a new interface to data analysis that is able to run on a laptop or on thousands of computing nodes, with no change in the user application. This development opens the door to exploiting distributed resources via industry standard execution engines that can scale to multiple nodes on HPC or HTC clusters, or even on serverless offerings of commercial clouds. Since data analysis in this field is often I/O bound, a good comprehension of what are the possible caching mechanisms is needed. In this regard, a novel storage system based on object store technology was researched as a target for caching.
In conclusion, the future of data analysis in High Energy Physics presents challenges from various perspectives, from the exploitation of distributed computing and storage resources to the design of ergonomic user interfaces. Software frameworks should aim at efficiency and ease of use, decoupling as much as possible the definition of the physics computations from the implementation details of their execution. This thesis is framed in the collective effort of the HEP community towards these goals, defining problems and possible solutions that can be adopted by future researchers. / Padulano, VE. (2023). Distributed Computing Solutions for High Energy Physics Interactive Data Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193104
|
635 |
Regeneration-Dostoyevskij's ideology, with a glance at Gide's paradoxical "adaptation"McCreath, Agneta Antonia 09 1900 (has links)
St. John 12:24, used by Dostoyevskij as an epigraph to his last and highly
acclaimed novel BpaTbJI KapaMa30BbI (The Brothers Karamazov), served as an
inspiration for Andre Gide. The title of the latter's contentious
autobiography Si le grain ne meurt (If it die ... ), is part of the same biblical verse.
The significance of Dostoyevskij's epigraph and Gide's title are critically
examined with regard to ideologies expressed in their literary works.
Analogies and contrasts are scrutinised: considerable similarities but more
discrepancies are discerned. Intense crises in Dostoyevskij's life led to an
upward movement, reflected in his oeuvre, reaching out toward Christ's
message as revealed by St. John 12:24. On the other hand, Gide started his
career imbued with the above message, but gradually he deviated from it and
died an atheist. His fascination with Dostoyevskij prompted him to write a
profound biography on the great Russian, containing a perceptive article on
The Brothers Karamazov when this novel was still practically unknown in the
West. Dostoyevskij's pre-eminence as ideological author, psychologist,
philosopher and artist is highlighted while Gide is disclosed as the moralistic
immoralist of his time.
The thesis suggested here is that Dostoyevskij's ideology of self-abnegation in
order to be regenerated into eternal life challenged Gide to reject this concept. Therein lies his paradoxical "adaptation".
The purpose is to uncover the religious perceptions in Dostoyevskij's four
major novels, to establish that his fictional characters, though never used as mouthpieces for the author, represent his universal philosophy and transmit
the author's quest for truth to the reader, and finally to examine Gide's
reaction to Dostoyevskij's influence / Classics & Modern European Languages / D. Litt. et Phil. (Russian)
|
636 |
Global DiscontentsKhatri, Priyadarshini A 01 January 2005 (has links)
My creative project explores toys as means to express economic issues of globalization. By exploiting the educational and imaginative aspects of toys for adults and children, I intend to reflect on the impact and pressures of globalization on employment, technology and environment. In creating these toys I hope to make a visual statement concerning critical issues of human survival, sustainability and the divisive side of globalization.
|
637 |
Figura rerum : 'the pattern of the glory' : the theological contributions of Charles WilliamsBlair, Paul S. January 2014 (has links)
This thesis seeks to show that Charles Williams makes a significant contribution to theology, and it demonstrates the nature of that contribution. A pattern of theological themes centering on the Incarnation, emphasizing the humanity of Christ, is repeated throughout his works. For Williams, human beings are images of the coinherent Godhead. His theological anthropology further develops through his understanding of imaging, as shown for instance in the Incarnation, and in Dante's characterization of Beatrice as a God bearer. His view of images is built from Coleridge's understanding of the nature of a symbol. This picture of imaging is widely applied, first and foremost to relationships of love, seen as potential incarnate images of grace. Williams seeks to extend his picture to all relationships and, further, to whatever man must do to go beyond himself to an encounter with God. He believes that man is responsible for his brother, in practice by bearing his brother's burdens, with substitutionary acts of vicarious love. A further part of his thinking then views people as living in coinherent relationships, and the universe as a web of coinherent relations. He draws his examples of natural coinherent relations from the world of commerce with its exchange and substitution of labors and from the child living within its mother, and builds a picture of what he calls the City, a broader coinherent society. Coinherence begins and flows from the Trinity and the Incarnation and then is found in relationships between God and man: in the Church, in the future City of God, and in all Creation. The Fall brings about the breakdown of the coinherence of God and man and man and man, and that breakdown is a central characteristic of sin. Williams believes that a regenerated coinherence in Christ brings about a renewal of mankind.
|
638 |
Rizika podnikání v ČLR / Risks of entrepreneurship in PRCZnamenáčková, Lenka January 2010 (has links)
PRC is no longer seen only as a "world factory". It gains on importace as an global trading partner and many foreign companies try to succeed in Chinese market as importers of their products. Also Czech businesses have already penetrated Chinese market, invested there or are seriously considering expansion to the market. Main objectives of the thesis are to review and characterize main risks, obstacles and barriers which Czech entrepreneurs have to deal with when entering the Chinese market and suggestions how to obviate them.
|
639 |
Penser le mal moral, une généalogie de la volonté moderne / Thought about evil a genealogy of modern willTauty, Anne-Charlotte 20 September 2016 (has links)
Le mal est par sa nature un scandale car il se définit par ce qui ne devrait pas être à l’opposé du bien qui se présente comme ce qui doit être. Cette affirmation, qui relève de la tautologie, marque la réalité éprouvée face au mal. Il a d’abord été une évidence criante : comment réagir face aux maux de l’existence humaine ? Ainsi le mal est inscrit dans l’histoire de la pensée et commence pour notre travail avec le platonisme. Avant la conceptualisation platonicienne, le mal est une donnée factuelle de la vie avec laquelle il faut composer. Les figures divines sont ambivalentes à l’image des hommes et alternent vices et vertus. Platon postule une entité divine unique, omnisciente, omnipotente et bienveillante. Ce dieu devient intelligence, calcul et raison : le monde devient une création parfaite, belle et ordonnée et non plus le théâtre d’un affrontement entre les diverses passions des dieux. Le mal se transforme alors en un enjeu métaphysique : comment concilier cette perfection avec l’émergence du mal ? Il faut désormais expliquer et tenter de justifier la violence et les crimes. S’il est possible de proposer une théodicée qui rende le mal physique et métaphysique nécessaire, légitimer la méchanceté se révèle plus ardu. Les penseurs du platonisme, du néoplatonisme et du stoïcisme vont tenter d’apporter une première réponse au mal moral. Dans leur sillage, une rupture conceptuelle advient et révolutionne le concept : le christianisme invente le péché. En devenant péché, le mal se retrouve désormais sous la responsabilité de l’homme coupable. Le mal entre dans le giron de la liberté : il est voulu, consenti. A la suite des penseurs chrétiens, certains philosophes continueront ce travail d’élucidation de la volonté du mal. L’objectif est de retracer l’histoire de ces systèmes conceptuels qui s’entremêlent et se répondent les uns aux autres. Le mal moral se construit dans cette progression qui a des conséquences anthropologiques importantes : l’homme se pense à travers le mal. La méchanceté n’est donc pas seulement un problème à résoudre, elle devient le paradigme à travers lequel définir l’homme. Notre problématique est de montrer comment la question de la méchanceté est à la base du problème de la morale et comment elle conditionne notre représentation de la nature de la volonté humaine. Cette évolution s’est nouée lors d’étapes clés de la pensée philosophique. En effet, si dans toute philosophie morale, le concept du mal est évoqué, il n’est pas en général le centre de l’argumentaire. Le premier moment est celui de la pensée antique. Platon fait naître Dieu et le monde dans l’histoire des concepts puis se retrouve face l’énigme de nos crimes. La théodicée mise en place et qui sera reprise par Plotin et les Stoïciens ne cessera de nier l’existence d’un instinct pervers. Le mal voulu est une absurdité. L’irruption de la faute chrétienne bouleverse la donne. Saint Augustin en sera le théoricien le plus investi affectivement. Ayant expérimenté une double conversion dans sa vie spirituelle, il théorise une méchanceté issue de notre faiblesse, de notre faute première. Le mal est voulu car il n’est plus possible de vouloir autre chose. Saint Anselme reprend également le dogme de la chute mais lui apporte une dimension logique et sémantique en proposant une méchanceté égoïste. Le mal est certes voulu mais par dédain du bien. Notre dernière étape est kantienne. Le mal radical est le concept qui permet enfin de penser une volonté normale qui voudrait le mal simplement parce qu’elle a en elle cette possibilité et la liberté fondamentale de le choisir. Nous pourrons donc constater le chemin parcouru entre notre point de départ et notre point d’arrivée et comment cette problématisation du mal fait apparaître une généalogie de la volonté. Au fil de la pensée, elle passe de l’ombre à la lumière, n’étant jamais aussi présente que quand elle se retrouve confrontée aux obstacles. Penser le mal moral c’est faire l’archéologie de la volonté. / Evil provokes scandal by nature because it is what it should not be unlike good which is what it has to be. This tautological assertion expresses our feelings toward evil. It was first perfectly obvious : how must we face human pain ? Evil is a part of thinking’s history : our study starts with Platonism. Before his work, evil is just a fact of life you have to live with. The gods of Antiquity are like men : good or bad. The God of Plato is the one, omniscient, all-powerful and kindly. God is just intelligence, calculation and reason : the world he created is beautiful, ordered and perfect and it is no longer the place for the vices of ancient gods. Evils turns into a metaphysical issue : how can be the world perfect despite evil ? We have now to explain, to justify violence and crimes. Theodicy can justify pain and illness. It does not work with wickedness. Platonism, Neo-Platonism and Stoicism tried to answer this question. Following them, a conceptual break happens : Christendom invented sin. When evil became sin, man became liable and guilty. It is now a matter of liberty : man wants evil. After them, some philosophers will keep to work on the subject of the bad will. Our purpose is to find the story of these concepts and to connect thoughts between themselves. Evil has been made by this story and brings many anthropological consequences : man understands himself through evil. Wickedness is not just a matter to solve, wickedness becomes a way to define mankind. We want to show that wickedness issue is the foundations of morality and how it makes us see and think human will. Several stages occurred in this philosophical evolution. Every ethic deals with evil, not all put it at the heart of their system. Our first stage is Antiquity. Plato brings the ideas of God and perfect world in philosophy but faces the riddle of our crimes. His theodicy adopted by Plotinus and Stoics will always refuse pervert instinct in man. A man who want evil is nonsense. Christian sin appearance changes everything. Augustine will be his strongest defender. By living a double spiritual conversion, he understands wickedness as weakness due to original sin. Man want evil because he is no longer able to will something else. Anselmus follows the dogma of the fall but puts logical and semantic dimension in it and presents a self-interested wickedness. Man wants evil not for itself, man does not want enough good. Our last stage is Kant. Radical will is the first concept which allows to conceive a normal bad will which would evil just because it is one of his options and it has the liberty to do so. We can see the difference between our starting point and our arrival. We see now how the concept of will has grew up and changed. Little by little, will comes from darkness to light. The more will faces obstacles, the more it is obvious. Thinking on evil is the archaeology of the will.
|
640 |
Etude de la violation de la symétrie CP dans les canaux charmonium-K^*(892) par une analyse angulaire complète dépendante du temps (expérience BaBar)T'Jampens, Stéphane 18 December 2002 (has links) (PDF)
Les travaux présentés dans cette thèse décrivent l'analyse angulaire complète dépendante du temps du canal vecteur-vecteur B_d^0 -> J/Psi (K_S^0 Pi^0)*0. Après un rappel consacré à la violation de CP dans le système des mésons B est traitée la phénoménologie des canaux vecteur-vecteur du type charmonium-K*(892). La méthode pour la mesure des amplitudes de transversité des canaux B -> J/Psi K*(892), basée sur l'utilisation d'un pseudo-maximum de vraisemblance, est ensuite exposée. Les résultats obtenus avec 81.9 fb-1 de données collectées par le détecteur BABAR au pic de la résonance Upsilon(4S) sont |A_0|^2 = 0.565 +- 0.011 +- 0.004, |A_para|^2 = 0.206 +- 0.016 +- 0.007, |A_perp|^2 = 0.228 +- 0.016 +- 0.007, delta_para = -2.766 +- 0.105 +- 0.040 et delta_perp = 2.935 +- 0.067 +- 0.040. A noter que (delta_para, delta_perp) -> (-delta_para, Pi - delta_perp) est aussi une solution. Les phases fortes delta_para et delta_perp sont à > 3 sigma de factorisation. L'analyse de l'asymétrie avant-arrière en fonction de la masse K Pi a révélé la présence d'une onde S cohérente qui interfère avec le K*(892). C'est la première mise en évidence de la présence de cette onde dans le système K Pi provenant de la désintégration d'un méson B. La particularité du canal B_d^0 -> J/Psi (K_S^0 Pi^0)*0 est d'avoir une distribution qui dépend de la différence des temps propres des 2 mésons B provenant de la désintégration Upsilon(4S) -> B_d^0 Bbar_d^0 mais aussi des trois angles de transversité, permettant de mesurer sin 2beta mais aussi cos 2beta. Les résultats obtenus avec un ajustement par maximum de vraisemblance sont sin 2beta = -0.10 et cos 2beta = 3.32 avec les amplitudes de transversité fixées aux valeurs précédentes. L'autre solution pour les phases fortes conduit à la même valeur de sin 2beta mais change le signe de cos 2beta. Des considérations théoriques basées sur la conservation de l'hélicité du quark favorisent le choix des phases fortes données ci-dessus conduisant au signe positif pour cos 2beta. Ce signe de cos 2beta est celui prédit par le Modèle Standard.
|
Page generated in 0.0611 seconds