141 |
High Performance Scientific Computing over Hybrid Cloud PlatformsCalatrava Arroyo, Amanda 16 December 2016 (has links)
Tesis por compendio / Scientific applications generally require large computational requirements, memory and data management for their execution. Such applications have traditionally used high-performance resources, such as shared memory supercomputers, clusters of PCs with distributed memory, or resources from Grid infrastructures on which the application needs to be adapted to run successfully. In recent years, the advent of virtualization techniques, together with the emergence of Cloud Computing, has caused a major shift in the way these applications are executed. However, the execution management of scientific applications on high performance elastic platforms is not a trivial task.
In this doctoral thesis, Elastic Cloud Computing Cluster (EC3) has been developed. EC3 is an open-source tool able to execute high performance scientific applications by creating self-managed cost-efficient virtual hybrid elastic clusters on top of IaaS Clouds. These self-managed clusters have the capability to adapt the size of the cluster, i.e. the number of nodes, to the workload, thus creating the illusion of a real cluster without requiring an investment beyond the actual usage. They can be fully customized and migrated from one provider to another, in an automatically and transparent process for the users and jobs running in the cluster.
EC3 can also deploy hybrid clusters across on-premises and public Cloud resources, where on-premises resources are supplemented with public Cloud resources to accelerate the execution process. Different instance types and the use of spot instances combined with on-demand resources are also cluster configurations supported by EC3. Moreover, using spot instances, together with checkpointing techniques, the tool can significantly reduce the total cost of executions while introducing automatic fault tolerance. EC3 is conceived to facilitate the use of virtual clusters to users, that might not have an extensive knowledge about these technologies, but they can benefit from them. Thus, the tool offers two different interfaces for its users, a web interface where EC3 is exposed as a service for non-experienced users and a powerful command line interface.
Moreover, this thesis explores the field of light-weight virtualization using containers as an alternative to the traditional virtualization solution based on virtual machines. This study analyzes the suitable scenario for the use of containers and proposes an architecture for the deployment of elastic virtual clusters based on this technology. Finally, to demonstrate the functionality and advantages of the tools developed during this thesis, this document includes several use cases covering different scenarios and fields of knowledge, such as structural analysis of buildings, astrophysics or biodiversity. / Las aplicaciones científicas generalmente precisan grandes requisitos de cómputo, memoria y gestión de datos para su ejecución. Este tipo de aplicaciones tradicionalmente ha empleado recursos de altas prestaciones, como supercomputadores de memoria compartida, clústers de PCs de memoria distribuida, o recursos provenientes de infraestructuras Grid, sobre los que se adaptaba la aplicación para que se ejecutara satisfactoriamente. El auge que han tenido las técnicas de virtualización en los últimos años, propiciando la aparición de la computación en la nube (Cloud Computing), ha provocado un importante cambio en la forma de ejecutar este tipo de aplicaciones. Sin embargo, la gestión de la ejecución de aplicaciones científicas sobre plataformas de computación elásticas de altas prestaciones no es una tarea trivial.
En esta tesis doctoral se ha desarrollado Elastic Cloud Computing Cluster (EC3), una herramienta de código abierto capaz de llevar a cabo la ejecución de aplicaciones científicas de altas prestaciones creando para ello clústers virtuales, híbridos y elásticos, autogestionados y eficientes en cuanto a costes, sobre plataformas Cloud de tipo Infraestructura como Servicio (IaaS). Estos clústers autogestionados tienen la capacidad de adaptar su tamaño, es decir, el número de nodos, a la carga de trabajo, creando así la ilusión de un clúster real sin requerir una inversión por encima del uso actual. Además, son completamente configurables y pueden ser migrados de un proveedor a otro de manera automática y transparente a los usuarios y trabajos en ejecución en el cluster.
EC3 también permite desplegar clústers híbridos sobre recursos Cloud públicos y privados, donde los recursos privados son complementados con recursos Cloud públicos para acelerar el proceso de ejecución. Otras configuraciones híbridas, como el empleo de diferentes tipos de instancias y el uso de instancias puntuales combinado con instancias bajo demanda son también soportadas por EC3. Además, el uso de instancias puntuales junto con técnicas de checkpointing permite a EC3 reducir significantemente el coste total de las ejecuciones a la vez que proporciona tolerancia a fallos. EC3 está concebido para facilitar el uso de clústers virtuales a los usuarios, que, aunque no tengan un conocimiento extenso sobre este tipo de tecnologías, pueden beneficiarse fácilmente de ellas. Por ello, la herramienta ofrece dos interfaces diferentes a sus usuarios, una interfaz web donde se expone EC3 como servicio para usuarios no experimentados y una potente interfaz de línea de comandos.
Además, esta tesis doctoral se adentra en el campo de la virtualización ligera, mediante el uso de contenedores como alternativa a la solución tradicional de virtualización basada en máquinas virtuales. Este estudio analiza el escenario propicio para el uso de contenedores y propone una arquitectura para el despliegue de clusters virtuales elásticos basados en esta tecnología. Finalmente, para demostrar la funcionalidad y ventajas de las herramientas desarrolladas durante esta tesis, esta memoria recoge varios casos de uso que abarcan diferentes escenarios y campos de conocimiento, como estudios estructurales de edificios, astrofísica o biodiversidad. / Les aplicacions científiques generalment precisen grans requisits de còmput, de memòria i de gestió de dades per a la seua execució. Este tipus d'aplicacions tradicionalment hi ha empleat recursos d'altes prestacions, com supercomputadors de memòria compartida, clústers de PCs de memòria distribuïda, o recursos provinents d'infraestructures Grid, sobre els quals s'adaptava l'aplicació perquè s'executara satisfactòriament. L'auge que han tingut les tècniques de virtualitzaciò en els últims anys, propiciant l'aparició de la computació en el núvol (Cloud Computing), ha provocat un important canvi en la forma d'executar este tipus d'aplicacions. No obstant això, la gestió de l'execució d'aplicacions científiques sobre plataformes de computació elàstiques d'altes prestacions no és una tasca trivial.
En esta tesi doctoral s'ha desenvolupat Elastic Cloud Computing Cluster (EC3), una ferramenta de codi lliure capaç de dur a terme l'execució d'aplicacions científiques d'altes prestacions creant per a això clústers virtuals, híbrids i elàstics, autogestionats i eficients quant a costos, sobre plataformes Cloud de tipus Infraestructura com a Servici (IaaS). Estos clústers autogestionats tenen la capacitat d'adaptar la seua grandària, es dir, el nombre de nodes, a la càrrega de treball, creant així la il·lusió d'un cluster real sense requerir una inversió per damunt de l'ús actual. A més, són completament configurables i poden ser migrats d'un proveïdor a un altre de forma automàtica i transparent als usuaris i treballs en execució en el cluster.
EC3 també permet desplegar clústers híbrids sobre recursos Cloud públics i privats, on els recursos privats són complementats amb recursos Cloud públics per a accelerar el procés d'execució. Altres configuracions híbrides, com l'us de diferents tipus d'instàncies i l'ús d'instàncies puntuals combinat amb instàncies baix demanda són també suportades per EC3. A més, l'ús d'instàncies puntuals junt amb tècniques de checkpointing permet a EC3 reduir significantment el cost total de les execucions al mateix temps que proporciona tolerància a fallades. EC3e stà concebut per a facilitar l'ús de clústers virtuals als usuaris, que, encara que no tinguen un coneixement extensiu sobre este tipus de tecnologies, poden beneficiar-se fàcilment d'elles. Per això, la ferramenta oferix dos interfícies diferents dels seus usuaris, una interfície web on s'exposa EC3 com a servici per a usuaris no experimentats i una potent interfície de línia d'ordres.
A més, esta tesi doctoral s'endinsa en el camp de la virtualitzaciò lleugera, per mitjà de l'ús de contenidors com a alternativa a la solució tradicional de virtualitzaciò basada en màquines virtuals. Este estudi analitza l'escenari propici per a l'ús de contenidors i proposa una arquitectura per al desplegament de clusters virtuals elàstics basats en esta tecnologia. Finalment, per a demostrar la funcionalitat i avantatges de les ferramentes desenrotllades durant esta tesi, esta memòria arreplega diversos casos d'ús que comprenen diferents escenaris i camps de coneixement, com a estudis estructurals d'edificis, astrofísica o biodiversitat. / Calatrava Arroyo, A. (2016). High Performance Scientific Computing over Hybrid Cloud Platforms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/75265 / Compendio
|
142 |
[en] METHOD FOR AUTOMATIC DETECTION OF STAMPS IN SCANNED DOCUMENTS USING DEEP LEARNING AND SYNTHETIC DATA GENERATION BY INSTANCE AUGMENTATION / [pt] MÉTODO PARA DETECÇÃO AUTOMÁTICA DE CARIMBOS EM DOCUMENTOS ESCANEADOS USANDO DEEP LEARNING E GERAÇÃO DE DADOS SINTÉTICOS ATRAVÉS DE INSTANCE AUGMENTATIONTHALES LEVI AZEVEDO VALENTE 11 August 2022 (has links)
[pt] Documentos digitalizados em ambientes de negócios substituíram grandes
volumes de papéis. Profissionais autorizados usam carimbos para certificar
informações críticas nesses documentos. Muitas empresas precisam verificar o
carimbo adequado de documentos de entrada e saída. Na maioria das situações de
inspeção, as pessoas realizam inspeção visual para identificar carimbos. Assim
sendo, a verificação manual de carimbos é cansativa, suscetível a erros e ineficiente
em termos de tempo gasto e resultados esperados. Erros na verificação manual de
carimbos podem gerar multas de órgãos reguladores, interrupção de operações e até
mesmo comprometer fluxos de trabalho e transações financeiras. Este trabalho
propõe dois métodos que combinados podem resolver esse problema,
automatizando totalmente a detecção de carimbos em documentos digitalizados do
mundo real. Os métodos desenvolvidos podem lidar com conjuntos de dados
contendo muitos tipos de carimbos de tamanho de amostra pequena, com múltiplas
sobreposições, combinações diferentes por página e dados ausentes. O primeiro
método propõe uma arquitetura de rede profunda projetada a partir da relação entre
os problemas identificados em carimbos do mundo real e os desafios e soluções da
tarefa de detecção de objetos apontados na literatura. O segundo método propõe um
novo pipeline de aumento de instâncias de conjuntos de dados de carimbos a partir
de dados reais e investiga se é possível detectar tipos de carimbos com amostras
insuficientes. Este trabalho avalia os hiperparâmetros da abordagem de aumento de
instâncias e os resultados obtidos usando um método Deep Explainability. Foram
alcançados resultados de última geração para a tarefa de detecção de carimbos
combinando com sucesso esses dois métodos, alcançando 97.3 por cento de precisão e
93.2 por cento de recall. / [en] Scanned documents in business environments have replaced large volumes
of papers. Authorized professionals use stamps to certify critical information in
these documents. Many companies need to verify the adequate stamping of
incoming and outgoing documents. In most inspection situations, people perform a
visual inspection to identify stamps. Therefore, manual stamp checking is tiring,
susceptible to errors, and inefficient in terms of time spent and expected results.
Errors in manual checking for stamps can lead to fines from regulatory bodies,
interruption of operations, and even compromise workflows and financial
transactions. This work proposes two methods that combined can address this
problem, by fully automating stamp detection in real-world scanned documents.
The developed methods can handle datasets containing many small sample-sized
types of stamps, multiples overlaps, different combinations per page, and missing
data. The first method proposes a deep network architecture designed from the
relationship between the problems identified in real-world stamps and the
challenges and solutions of the object detection task pointed out in the literature.
The second method proposes a novel instance augmentation pipeline of stamp
datasets from real data to investigate whether it is possible to detect stamp types
with insufficient samples. We evaluate the hyperparameters of the instance
augmentation approach and the obtained results through a Deep Explainability
method. We achieve state-of-the-art results for the stamp detection task by
successfully combining these two methods, achieving 97.3 percent of precision and
93.2 percent of recall.
|
143 |
Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited AnnotationsAmor del Amor, María Rocío del 27 November 2023 (has links)
Tesis por compendio / [ES] En los últimos años, el aprendizaje profundo (DL) se ha convertido en una de
las principales áreas de la inteligencia artificial (IA), impulsado principalmente
por el avance en la capacidad de procesamiento. Los algoritmos basados en
DL han logrado resultados asombrosos en la comprensión y manipulación de
diversos tipos de datos, incluyendo imágenes, señales de habla y texto.
La revolución digital del sector sanitario ha permitido la generación de nuevas
bases de datos, lo que ha facilitado la implementación de modelos de DL bajo
el paradigma de aprendizaje supervisado. La incorporación de estos métodos
promete mejorar y automatizar la detección y el diagnóstico de enfermedades,
permitiendo pronosticar su evolución y facilitar la aplicación de intervenciones
clínicas de manera más efectiva.
Una de las principales limitaciones de la aplicación de algoritmos de DL
supervisados es la necesidad de grandes bases de datos anotadas por expertos,
lo que supone una barrera importante en el ámbito médico. Para superar este
problema, se está abriendo un nuevo campo de desarrollo de estrategias de
aprendizaje no supervisado o débilmente supervisado que utilizan los datos
disponibles no anotados o débilmente anotados. Estos enfoques permiten
aprovechar al máximo los datos existentes y superar las limitaciones de la
dependencia de anotaciones precisas.
Para poner de manifiesto que el aprendizaje débilmente supervisado puede
ofrecer soluciones óptimas, esta tesis se ha enfocado en el desarrollado de
diferentes paradigmas que permiten entrenar modelos con bases de datos
débilmente anotadas o anotadas por médicos no expertos. En este sentido, se
han utilizado dos modalidades de datos ampliamente empleadas en la literatura
para estudiar diversos tipos de cáncer y enfermedades inflamatorias: datos
ómicos e imágenes histológicas. En el estudio sobre datos ómicos, se han
desarrollado métodos basados en deep clustering que permiten lidiar con las
altas dimensiones inherentes a este tipo de datos, desarrollando un modelo predictivo sin la necesidad de anotaciones. Al comparar el método propuesto
con otros métodos de clustering presentes en la literatura, se ha observado una
mejora en los resultados obtenidos.
En cuanto a los estudios con imagen histológica, en esta tesis se ha abordado
la detección de diferentes enfermedades, incluyendo cáncer de piel (melanoma
spitzoide y neoplasias de células fusocelulares) y colitis ulcerosa. En este
contexto, se ha empleado el paradigma de multiple instance learning (MIL)
como línea base en todos los marcos desarrollados para hacer frente al
gran tamaño de las imágenes histológicas. Además, se han implementado
diversas metodologías de aprendizaje, adaptadas a los problemas específicos
que se abordan. Para la detección de melanoma spitzoide, se ha utilizado
un enfoque de aprendizaje inductivo que requiere un menor volumen de
anotaciones. Para abordar el diagnóstico de colitis ulcerosa, que implica la
identificación de neutrófilos como biomarcadores, se ha utilizado un enfoque de
aprendizaje restrictivo. Con este método, el coste de anotación se ha reducido
significativamente al tiempo que se han conseguido mejoras sustanciales en los
resultados obtenidos. Finalmente, considerando el limitado número de expertos
en el campo de las neoplasias de células fusiformes, se ha diseñado y validado
un novedoso protocolo de anotación para anotaciones no expertas. En este
contexto, se han desarrollado modelos de aprendizaje profundo que trabajan
con la incertidumbre asociada a dichas anotaciones.
En conclusión, esta tesis ha desarrollado técnicas de vanguardia para abordar
el reto de la necesidad de anotaciones precisas que requiere el sector médico.
A partir de datos débilmente anotados o anotados por no expertos, se han
propuesto novedosos paradigmas y metodologías basados en deep learning para
abordar la detección y diagnóstico de enfermedades utilizando datos ómicos
e imágenes histológicas. / [CA] En els últims anys, l'aprenentatge profund (DL) s'ha convertit en una de les
principals àrees de la intel·ligència artificial (IA), impulsat principalment per
l'avanç en la capacitat de processament. Els algorismes basats en DL han
aconseguit resultats sorprenents en la comprensió i manipulació de diversos
tipus de dades, incloent-hi imatges, senyals de parla i text.
La revolució digital del sector sanitari ha permés la generació de noves
bases de dades, la qual cosa ha facilitat la implementació de models de
DL sota el paradigma d'aprenentatge supervisat. La incorporació d'aquests
mètodes promet millorar i automatitzar la detecció i el diagnòstic de malalties,
permetent pronosticar la seua evolució i facilitar l'aplicació d'intervencions
clíniques de manera més efectiva.
Una de les principals limitacions de l'aplicació d'algorismes de DL supervisats
és la necessitat de grans bases de dades anotades per experts, la qual cosa
suposa una barrera important en l'àmbit mèdic. Per a superar aquest
problema, s'està obrint un nou camp de desenvolupament d'estratègies
d'aprenentatge no supervisat o feblement supervisat que utilitzen les dades
disponibles no anotades o feblement anotats. Aquests enfocaments permeten
aprofitar al màxim les dades existents i superar les limitacions de la
dependència d'anotacions precises.
Per a posar de manifest que l'aprenentatge feblement supervisat pot oferir
solucions òptimes, aquesta tesi s'ha enfocat en el desenvolupat de diferents
paradigmes que permeten entrenar models amb bases de dades feblement
anotades o anotades per metges no experts. En aquest sentit, s'han utilitzat
dues modalitats de dades àmpliament emprades en la literatura per a estudiar
diversos tipus de càncer i malalties inflamatòries: dades ómicos i imatges
histològiques. En l'estudi sobre dades ómicos, s'han desenvolupat mètodes
basats en deep clustering que permeten bregar amb les altes dimensions
inherents a aquesta mena de dades, desenvolupant un model predictiu sense la
necessitat d'anotacions. En comparar el mètode proposat amb altres mètodes
de clustering presents en la literatura, s'ha observat una millora en els resultats
obtinguts.
Quant als estudis amb imatge histològica, en aquesta tesi s'ha abordat la
detecció de diferents malalties, incloent-hi càncer de pell (melanoma spitzoide
i neoplàsies de cèl·lules fusocelulares) i colitis ulcerosa. En aquest context,
s'ha emprat el paradigma de multiple instance learning (MIL) com a línia
base en tots els marcs desenvolupats per a fer front a la gran grandària de
les imatges histològiques. A més, s'han implementat diverses metodologies
d'aprenentatge, adaptades als problemes específics que s'aborden. Per a la
detecció de melanoma spitzoide, s'ha utilitzat un enfocament d'aprenentatge
inductiu que requereix un menor volum d'anotacions. Per a abordar el
diagnòstic de colitis ulcerosa, que implica la identificació de neutròfils com
biomarcadores, s'ha utilitzat un enfocament d'aprenentatge restrictiu. Amb
aquest mètode, el cost d'anotació s'ha reduït significativament al mateix
temps que s'han aconseguit millores substancials en els resultats obtinguts.
Finalment, considerant el limitat nombre d'experts en el camp de les neoplàsies
de cèl·lules fusiformes, s'ha dissenyat i validat un nou protocol d'anotació
per a anotacions no expertes. En aquest context, s'han desenvolupat models
d'aprenentatge profund que treballen amb la incertesa associada a aquestes
anotacions.
En conclusió, aquesta tesi ha desenvolupat tècniques d'avantguarda per a
abordar el repte de la necessitat d'anotacions precises que requereix el sector
mèdic. A partir de dades feblement anotades o anotats per no experts,
s'han proposat nous paradigmes i metodologies basats en deep learning per a
abordar la detecció i diagnòstic de malalties utilitzant dades *ómicos i imatges
histològiques. Aquestes innovacions poden millorar l'eficàcia i l'automatització
en la detecció precoç i el seguiment de malalties. / [EN] In recent years, deep learning (DL) has become one of the main areas of
artificial intelligence (AI), driven mainly by the advancement in processing
power. DL-based algorithms have achieved amazing results in understanding
and manipulating various types of data, including images, speech signals and
text.
The digital revolution in the healthcare sector has enabled the generation
of new databases, facilitating the implementation of DL models under the
supervised learning paradigm. Incorporating these methods promises to
improve and automate the detection and diagnosis of diseases, allowing
the prediction of their evolution and facilitating the application of clinical
interventions with higher efficacy.
One of the main limitations in the application of supervised DL algorithms is
the need for large databases annotated by experts, which is a major barrier
in the medical field. To overcome this problem, a new field of developing
unsupervised or weakly supervised learning strategies using the available
unannotated or weakly annotated data is opening up. These approaches make
the best use of existing data and overcome the limitations of reliance on precise
annotations.
To demonstrate that weakly supervised learning can offer optimal solutions,
this thesis has focused on developing different paradigms that allow training
models with weakly annotated or non-expert annotated databases. In this
regard, two data modalities widely used in the literature to study various
types of cancer and inflammatory diseases have been used: omics data and
histological images. In the study on omics data, methods based on deep
clustering have been developed to deal with the high dimensions inherent to
this type of data, developing a predictive model without requiring annotations.
In comparison, the results of the proposed method outperform other existing
clustering methods.
Regarding histological imaging studies, the detection of different diseases has
been addressed in this thesis, including skin cancer (spitzoid melanoma and
spindle cell neoplasms) and ulcerative colitis. In this context, the multiple
instance learning (MIL) paradigm has been employed as the baseline in
all developed frameworks to deal with the large size of histological images.
Furthermore, diverse learning methodologies have been implemented, tailored
to the specific problems being addressed. For the detection of spitzoid
melanoma, an inductive learning approach has been used, which requires a
smaller volume of annotations. To address the diagnosis of ulcerative colitis,
which involves the identification of neutrophils as biomarkers, a constraint
learning approach has been utilized. With this method, the annotation cost
has been significantly reduced while achieving substantial improvements in the
obtained results. Finally, considering the limited number of experts in the field
of spindle cell neoplasms, a novel annotation protocol for non-experts has been
designed and validated. In this context, deep learning models that work with
the uncertainty associated with such annotations have been developed.
In conclusion, this thesis has developed cutting-edge techniques to address
the medical sector's challenge of precise data annotation. Using weakly
annotated or non-expert annotated data, novel paradigms and methodologies
based on deep learning have been proposed to tackle disease detection and
diagnosis in omics data and histological images. These innovations can improve
effectiveness and automation in early disease detection and monitoring. / The work of Rocío del Amor to carry out this research and to elaborate this
dissertation has been supported by the Spanish Ministry of Universities under
the FPU grant FPU20/05263. / Amor Del Amor, MRD. (2023). Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited Annotations [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200227 / Compendio
|
144 |
Réel et représentation à l'épreuve de la fiction dans l'oeuvre de Michael Haneke / Reality and representation : the fiction subjected to their test : in the Work of Michael HanekeBoneva, Ralitza 16 March 2012 (has links)
Notre étude se propose de montrer qu'au cours des deux dernières décennies, des années 1989-2009, avec les films de Michael Haneke réalisés pour le cinéma, des innovations décisives apparaissent dans la fiction de nos jours. Des formes nouvelles bouleversent le récit, révélant ce qui, dans la fiction conventionnelle, est devenu stéréotype et mettent en cause la représentation. Des nouveaux rapports entre réel et représentation, entre visible, invisible et insupportable à voir, entre instance énonciative et spectateur entrent en jeu. De nouveaux possibles s'ouvrent sur la voie du développement de la fiction cinématographique et élargissent ses possibilités d'investigation du réel sur l'écran. / Our study suggests that during the last two decades, 1989-2009, with Michael Haneke's movies realized for the cinema, decisive innovations appear in the contemporary fiction. New forms upset the narrative, dispute the representation, and reveal what in the conventional fiction became stereotype. New reports between reality and representation, between visible, invisible and unbearable to see, between the instance of the statement and the spectator come into play. New possibilities open on the way to the development of the film fiction. They widen the possibilities for investigation of the reality on the screen.
|
145 |
日本刑事控訴審(第二審)之研究 / The Study of the Second Instance in Japanese Criminal Procedure陳立祺, Chen, Li-Chi Unknown Date (has links)
本文以「日本刑事控訴審(第二審)之研究」為主題,嘗試將日本刑事第二審制度為廣泛之介紹,分別自控訴審之審級構造類型、制度沿革、控訴程式、控訴理由、法院審理及裁判等為探討,並試圖探尋日本實務運作經驗及遭遇之難題。
日本刑事第二審(控訴審)於第二次世界大戰後,自「覆審制」改為「事後審制」,其構造係採「嚴格事後審說」見解,即以第一審判決時為控訴審審理之基準時。法定控訴理由則包括訴訟程序違背法令、判決內容錯誤、再審及判決後刑之廢止、變更或大赦等。控訴法院就案件之終結方式,雖有控訴不受理、公訴不受理、撤銷原判決等三類,惟實務運作此等程序時,仍有細微差異。而在運作50餘年後,控訴審卻漸有續審化現象:控訴法院逕為事實調查、9成5以上撤銷案件自為判決、以撤銷自判為原則性運作等,學者認為:日本傳統思想、實務運作習慣、現行條文規定、法院組織構造、訴訟經濟、學說影響以及控訴審濫為自判等等,均可能為續審化之成因。
鑑於日本經驗,我國刑事訴訟第二審倘欲採行「事後審制」,除可參酌日本現行控訴審規定,調整草案內容外,有關審級構造中「事後審制」之原則與例外,第二審法院事實調查之權限以及自行判決之範疇等等,均為修法時應考量之方向。
|
146 |
Cloud Computing Pricing and Deployment Efforts : Navigating Cloud Computing Pricing and Deployment Efforts: Exploring the Public-Private Landscape / Prissättning och Implementeringsinsatser för Molntjänster : Att Navigera Molntjänsters Prissättning och Implementeringsinsatser: Utforska det Offentlig-Privata LandskapetKristiansson, Casper, Lundström, Fredrik January 2023 (has links)
The expanding adoption of cloud computing services by businesses has transformed IT infrastructure and data management in the computing space. Cloud computing offers advantages such as availability, scalability, and cost-effectiveness, making it a favored choice for businesses of all sizes. The aim of this thesis is to compare private and public cloud computing services in terms of pricing and implementation effort as well as comparing the cloud providers to each other. The top three cloud providers that will be examined are Google GCP, Microsoft Azure, and Amazon AWS. The study examines different pricing models and evaluates their effectiveness in different business scenarios. In addition, the thesis also discusses the challenges associated with building and maintaining private infrastructure and the deployment of applications to cloud computing service are examined. The research methodology involves data collection, analysis, and a case study of developing and deploying a ticketing system application on different cloud platforms. The ticket system helps to provide a realistic example and investigation of the cloud providers. The findings will help companies make informed decisions regarding the selection of the most appropriate cloud computing service based on pricing models and implementation efforts. The thesis provides valuable information on private and public cloud computing and recommends appropriate pricing models for different scenarios. This study adds to existing knowledge by analyzing current pricing models and deployment concepts in cloud computing. The thesis does not propose new solutions but follows a structured format compiling information on private, and public cloud computing and a comprehensive review of cloud computing pricing models and marketing efforts. / Den växande adoptionen av molntjänster inom företag har förändrat IT-infrastrukturen och datahanteringen inom datorområdet. Molntjänster erbjuder fördelar såsom tillgänglighet, skalbarhet och kostnadseffektivitet, vilket gör det till ett populärt val för företag i alla storlekar. Syftet med denna avhandling är att jämföra privata och offentliga molntjänster med avseende på prissättning och implementeringsinsatser samt att jämföra molnleverantörerna med varandra. De tre främsta molnleverantörerna som kommer att undersökas är Google GCP, Microsoft Azure och Amazon AWS. Studien undersöker olika prismodeller och utvärderar deras effektivitet i olika affärsscenarier. Dessutom diskuterar avhandlingen också utmaningarna med att bygga och underhålla privat infrastruktur samt implementeringen av applikationer till molntjänster. Forskningsmetodologin omfattar datainsamling, analys och en fallstudie av utveckling och implementering av ett support system på olika molnplattformar. Supportsystemet hjälper till att ge ett realistiskt exempel och undersökning av molnleverantörerna. Resultaten kommer att hjälpa företag att fatta informerade beslut när det gäller valet av lämpligaste molntjänst baserat på prismodeller och implementeringsinsatser. Avhandlingen tillhandahåller värdefull information om privat och offentlig molntjänst och rekommenderar lämpliga prismodeller för olika scenarier. Denna studie bidrar till befintlig kunskap genom att analysera nuvarande prismodeller och implementeringskoncept inom molntjänster. Avhandlingen föreslår inga nya lösningar, men följer en strukturerad format genom att sammanställa information om privat och offentlig molntjänst samt en omfattande översikt av prismodeller och marknadsinsatser inom molntjänster.
|
147 |
XBRL在營利事業所得稅申報之應用張翠珊, Tsui-Shan Chang Unknown Date (has links)
XBRL是一種以XML為基礎所發展出來的一種語言,用來規範網路財務資訊揭露而產生的資料交換標準,同時也是提升財務資訊透明化的推手。XBRL使資訊可以更快速地流通,改善資訊處理的速度。
本論文的研究目的,在於透過XBRL之應用,來建立公司營利事業所得稅申報書之各個項目的分類標準,並設計一套以XBRL為基礎之營利事業所得稅申報系統。就營利事業而言,XBRL可以協助企業稅務部門取得資料,讓營利事業所得稅申報上所需的部份資料,可以直接從總帳資料庫轉入產生,讓企業在稅務資料處理上可以減少作業成本,降低人為錯誤的可能性,減少重覆手動輸入資料,讓報稅工作更為快速、有效率,透過網路傳輸報稅檔案,節省了報稅人在報稅期間必須親自稅捐稽徵機關排隊等待報稅的時間。就稅捐稽徵機關而言,所有的企業按同一套XBRL標準來報稅,可簡化稅務處理工作,更者,可將取得之資料進行分析,找出異常並加以審查,且若未來XBRL能順利推廣,營利事業之總帳系統與申報營業稅之資料均以XBRL編製而成,則因為所有檔案型態一致,稅捐稽徵機關在進行調帳查閱時,可以大大減少查核的人力及成本,可以增加查核的效率。
本論文將建立起一套符合中華民國稅法與相關法令規定之營利事業所得稅之XBRL 分類標準,並利用該分類標準之架構,設計出一套能符合現行法令規定且以XBRL為基礎之營利事業所得稅申報之程式軟體。本論文會將虛擬資料輸入已建好之程式,來進行實際展示如何產生以XBRL為格式之營利事業所得稅申報電子檔,以作為未來企業運用時之參考。另外,針對國稅局方面,本論文亦設計一驗證程式,讓國稅局能夠對所收到之營利事業所得稅申報檔進行資料正確性之檢查及驗證。 / XBRL is an XML-based, royalty-free, and open standard, used to stipulate the data exchange standard in the Internet. XBRL can substantially help improve the transparency of financial information, and communicate the information chain more fluently, and expedite the data processing.
The objective of this thesis is to establish the XBRL taxonomy for the returns of Business Income Tax in Taiwan, and to design the XBRL-based application software for filing the Business Income Tax returns. By establishing the XBRL taxonomy, it can help the tax department to retrieve tax return data from corporations more efficiently. Since the data for filing tax returns can also be retrieved directly from the general ledger database, the benefits of promoting the XBRL-based tax return filing system would include saving operation costs, reducing the possibility of errors, avoiding re-keying data, and filing tax returns faster and more efficiently.
For the National Tax Administration, the XBRL-based filing system can simplify the paper work on processing tax returns. Further, National Tax Administration can utilize the program to directly analyze the electronic tax data, diagnosing the abcdrmal financial relationships, and devise more efficient audit program. In the future, if the data of corporations’ general ledger and business tax are all prepared in XBRL, National Tax Administration can directly trace from tax return data to firms’ financial statements and thus increase the efficiency and effectiveness of tax audit.
To facilitate building the XBRL-based tax return filing system, this thesis establishes a set of XBRL taxonomy for Business Income Tax return in Taiwan, and use the taxonomy to design a XBRL-based application software for Business Income Tax returns. This thesis also demonstrates the application of this software using virtual financial data to generate the XBRL-format Business Income Tax return data. Further, this study also designs a software that can be used by National Tax Administration to verify the tax return data received from corporate taxpayers.
|
148 |
Generic instance segmentation for object-oriented bin-picking / Segmentation en instances génériques pour le dévracage orienté objetGrard, Matthieu 20 May 2019 (has links)
Le dévracage robotisé est une tâche industrielle en forte croissance visant à automatiser le déchargement par unité d’une pile d’instances d'objet en vrac pour faciliter des traitements ultérieurs tels que la formation de kits ou l’assemblage de composants. Cependant, le modèle explicite des objets est souvent indisponible dans de nombreux secteurs industriels, notamment alimentaire et automobile, et les instances d'objet peuvent présenter des variations intra-classe, par exemple en raison de déformations élastiques.Les techniques d’estimation de pose, qui nécessitent un modèle explicite et supposent des transformations rigides, ne sont donc pas applicables dans de tels contextes. L'approche alternative consiste à détecter des prises sans notion explicite d’objet, ce qui pénalise fortement le dévracage lorsque l’enchevêtrement des instances est important. Ces approches s’appuient aussi sur une reconstruction multi-vues de la scène, difficile par exemple avec des emballages alimentaires brillants ou transparents, ou réduisant de manière critique le temps de cycle restant dans le cadre d’applications à haute cadence.En collaboration avec Siléane, une entreprise française de robotique industrielle, l’objectif de ce travail est donc de développer une solution par apprentissage pour la localisation des instances les plus prenables d’un vrac à partir d’une seule image, en boucle ouverte, sans modèles d'objet explicites. Dans le contexte du dévracage industriel, notre contribution est double.Premièrement, nous proposons un nouveau réseau pleinement convolutionnel (FCN) pour délinéer les instances et inférer un ordre spatial à leurs frontières. En effet, les méthodes état de l'art pour cette tâche reposent sur deux flux indépendants, respectivement pour les frontières et les occultations, alors que les occultations sont souvent sources de frontières. Plus précisément, l'approche courante, qui consiste à isoler les instances dans des boîtes avant de détecter les frontières et les occultations, se montre inadaptée aux scénarios de dévracage dans la mesure où une région rectangulaire inclut souvent plusieurs instances. A contrario, notre architecture sans détection préalable de régions détecte finement les frontières entre instances, ainsi que le bord occultant correspondant, à partir d'une représentation unifiée de la scène.Deuxièmement, comme les FCNs nécessitent de grands ensembles d'apprentissage qui ne sont pas disponibles dans les applications de dévracage, nous proposons une procédure par simulation pour générer des images d'apprentissage à partir de moteurs physique et de rendu. Plus précisément, des vracs d'instances sont simulés et rendus avec les annotations correspondantes à partir d'ensembles d'images de texture et de maillages auxquels sont appliquées de multiples déformations aléatoires. Nous montrons que les données synthétiques proposées sont vraisemblables pour des applications réelles au sens où elles permettent l'apprentissage de représentations profondes transférables à des données réelles. A travers de nombreuses expériences sur une maquette réelle avec robot, notre réseau entraîné sur données synthétiques surpasse la méthode industrielle de référence, tout en obtenant des performances temps réel. L'approche proposée établit ainsi une nouvelle référence pour le dévracage orienté-objet sans modèle d'objet explicite. / Referred to as robotic random bin-picking, a fast-expanding industrial task consists in robotizing the unloading of many object instances piled up in bulk, one at a time, for further processing such as kitting or part assembling. However, explicit object models are not always available in many bin-picking applications, especially in the food and automotive industries. Furthermore, object instances are often subject to intra-class variations, for example due to elastic deformations.Object pose estimation techniques, which require an explicit model and assume rigid transformations, are therefore not suitable in such contexts. The alternative approach, which consists in detecting grasps without an explicit notion of object, proves hardly efficient when the object geometry makes bulk instances prone to occlusion and entanglement. These approaches also typically rely on a multi-view scene reconstruction that may be unfeasible due to transparent and shiny textures, or that reduces critically the time frame for image processing in high-throughput robotic applications.In collaboration with Siléane, a French company in industrial robotics, we thus aim at developing a learning-based solution for localizing the most affordable instance of a pile from a single image, in open loop, without explicit object models. In the context of industrial bin-picking, our contribution is two-fold.First, we propose a novel fully convolutional network (FCN) for jointly delineating instances and inferring the spatial layout at their boundaries. Indeed, the state-of-the-art methods for such a task rely on two independent streams for boundaries and occlusions respectively, whereas occlusions often cause boundaries. Specifically, the mainstream approach, which consists in isolating instances in boxes before detecting boundaries and occlusions, fails in bin-picking scenarios as a rectangle region often includes several instances. By contrast, our box proposal-free architecture recovers fine instance boundaries, augmented with their occluding side, from a unified scene representation. As a result, the proposed network outperforms the two-stream baselines on synthetic data and public real-world datasets.Second, as FCNs require large training datasets that are not available in bin-picking applications, we propose a simulation-based pipeline for generating training images using physics and rendering engines. Specifically, piles of instances are simulated and rendered with their ground-truth annotations from sets of texture images and meshes to which multiple random deformations are applied. We show that the proposed synthetic data is plausible for real-world applications in the sense that it enables the learning of deep representations transferable to real data. Through extensive experiments on a real-world robotic setup, our synthetically trained network outperforms the industrial baseline while achieving real-time performances. The proposed approach thus establishes a new baseline for model-free object-oriented bin-picking.
|
149 |
Oralidade e escrita no processo civil / Oralité et écriture dans le procés civilIura, Alexandre Miura 02 May 2012 (has links)
O objetivo principal desta dissertação é apresentar a Oralidade e a Escrita no Processo Civil sob a ótica do Gerenciamento de Processos. Deste modo, é negada que a oralidade constitua um princípio formador do Direito Processual Civil, destacando-se que se trata de uma escolha técnica dada ao órgão jurisdicional visando maior eficiência. É questionada a funcionalidade das audiências e da prova oral. É enfatizado que o papel da conciliação é promover o acesso à justiça, e não reduzir gastos públicos. De outro lado, é sustentado que a garantia de um processo justo é compatível com um procedimento escrito. À guisa de conclusão, é afirmado que a oralidade não pode ser tratada exclusivamente no plano dos princípios. Com o consenso das partes, pode o juiz customizar as audiências e a colheita das provas visando dar maior eficiência ao processo. / This essay overriding objective is to present Orality and Writing in Civil Procedure in a Case Management view. By doing so, it is denied that orality constitutes a formative principle of Civil Procedure, rather than a technical choice given to the court in order to bring more efficiency to the procedure. The oral hearing and proof gathering functionality is also questioned. It is emphasized that the role of conciliation is to improve access to justice and it is not its aim to reduce public expenses. In another hand, its sustained that the guarantee of a fair public hearing is compatible with a writing procedure. As a conclusion, it is said that orality and writing cannot be treated exclusively as a matter of principle. With the consent of the parties, the judge can customize the hearings and proof taking, giving more efficiency to the civil procedure.
|
150 |
A hermenêutica filosófica como possibilidade de controle da estandardização do direito: uma solução possível (salvamento) para as súmulas (comuns e vinculantes), repercussão geral e recursos repetitivosSausen, Dalton 07 July 2011 (has links)
Submitted by Mariana Dornelles Vargas (marianadv) on 2015-04-14T13:36:39Z
No. of bitstreams: 1
hermeneutica_filosofica.pdf: 886897 bytes, checksum: 60f224d81e101abbedf2d450f59badb6 (MD5) / Made available in DSpace on 2015-04-14T13:36:39Z (GMT). No. of bitstreams: 1
hermeneutica_filosofica.pdf: 886897 bytes, checksum: 60f224d81e101abbedf2d450f59badb6 (MD5)
Previous issue date: 2011-07-07 / Nenhuma / O presente estudo analisa as condições de possibilidade da hermenêutica filosófica para o controle da estandardização do direito e uma solução possível para as súmulas (comuns e vinculantes), repercussão geral e recursos repetitivos. Para tanto, investiga, num primeiro momento, o próprio constituir da estandardização do direito, sendo apontadas, nesse sentido, evidências, contingências e sintomas desse fenômeno, que tem o seu desvelar consubstanciado no precedente como ideal de um mundo jurídico homogeneizado. Em seguida, no segundo capítulo, aponta constatações e superações que se fazem necessárias em face do condicionamento discursivo decorrente dos significantes. Nesse aspecto, promove análise das súmulas, repercussão geral e recursos repetitivos, com o escopo de identificar para que e a quem servem esses mecanismos, e, ainda, se são eles elementos de estandardização e bloqueio de acesso à justiça, ou soluções razoáveis/possíveis para desafogar o sistema jurídico brasileiro, bem como analisa o controle social exercido pelo STF e STJ sob a perspectiva do componente ideológico dos significantes. Desata, também, reflexão acerca da necessidade da superação do mito do dado como condição de possibilidade para a (re)introdução da faticidade no mundo jurídico, bem como promove investigação em relação à primazia do discurso do Outro no sentido comum teórico, sua correlação com o paradigma vigente, sua gênese e, ainda, destaca o que é preciso mudar em face desse fenômeno. Na última parte do trabalho, a partir da justificação do porquê da adoção da hermenêutica filosófica, da explicitação do papel desvelador da fenomenologia hermenêutica e da importância da salvaguarda da pré-compreensão, tradição, coerência e integridade, sugere, como condição de possibilidade para o controle da estandardização do direito e o resgate hermenêutico das súmulas, repercussão geral e recursos repetitivos, a aplicação da teoria construída por Lenio Luiz Streck, que tem como pressupostos o mínimo é e o grau de objetivação abrangente. / This study examines the conditions of the philosophical hermeneutic possibility for the control of the standardization of Law and a possible solution to the summaries (common and binding), general repercussion and recurrent appeal. For such, it investigates, firstly, the very form of standardization of Law, pointing out in that sense, evidences, contingencies and symptoms of this phenomenon, which has its uncovering, consubstantiate in the previous ideal of a homogenized legal world. Following, the second chapter points to findings and conclusions that are necessary in the face of the discursive conditioning resulting from the significants. In this respect, it promotes the analysis of summaries, general repercussion and recurrent appeal with the aim to identify to what and to whom those mechanisms serve, and if they are elements of standardization and prevention of access to justice, or reasonable /possible solutions to help the Brazilian legal system to flow more smoothly, it analyzes the social control exercised by the STF and STJ from the perspective of the ideological component of the significants. It also unties a reflection on the necessity of overcoming the myth of the given as a condition of possibility for the (re) introduction of the instance in the legal world, and it promotes an investigation in relation to the primacy of the discourse of the Other in the theorist common sense, its correlation with the current paradigm, its genesis, and it also highlights the need for change in the face of this phenomenon. In the final section of the work, from the justification of reason for the adoption of philosophical hermeneutics, the explicit role of the uncovering of the hermeneutic phenomenology and the importance of safeguarding the pre-understanding, tradition, consistency and integrity, it is suggested, as a condition of possibility for the control and standardization of the Law and the of hermeneutical redemption of the summaries, general repercussion and recurrent appeal, the application of the theory built by Lenio Luiz Streck, whose assumptions is minimum is and degree of objectification comprehensive.
|
Page generated in 0.0802 seconds