WorldCat Identities

Antoniu, Gabriel

Overview
Works: 36 works in 42 publications in 2 languages and 279 library holdings
Genres: Conference papers and proceedings 
Roles: Thesis advisor, Author, Other, Opponent, Publishing director
Publication Timeline
.
Most widely held works by Gabriel Antoniu
ScienceCloud'12 : the 3rd Workshop on Scientific Cloud Computing : June 18, 2012, Delft, The Netherlands by Yogesh Simmhan( )

1 edition published in 2012 in English and held by 238 WorldCat member libraries worldwide

Gestion des données dans les grilles de calcul : support pour la tolérance aux fautes et la cohérence des données by Sébastien Monnet( Book )

2 editions published in 2006 in French and held by 3 WorldCat member libraries worldwide

La gestion du partage de données pour les applications s'exécutant sur les grilles de calcul est un défi. Ce travail de doctorat s'intéresse aux problématiques liées à la conception d'un service de partage de données pour les grilles. Nous nous sommes concentrés sur la gestion de la cohérence et de la persistance des données en environnement dynamique. Dans un tel contexte, assurer la persistance nécessite la mise en place de mécanismes de tolérance aux fautes. Nous proposons une approche pour gérer conjointement ces deux aspects via une architecture logicielle multi-protocole permettant de coupler différents protocoles de cohérence avec différents mécanismes de tolérance aux fautes. Nous proposons une conception hiérarchique de cette architecture, adaptée à la topologie réseau des grilles. Ces contributions ont été mises en œuvre au sein du service de partage de données pour grilles JuxMem et expérimentées sur la grille expérimentale Grid'5000
JuxMem : un service de partage transparent de données pour grilles de calcul fondé sur une approche pair-à-pair by Mathieu Jan( Book )

2 editions published in 2006 in French and held by 3 WorldCat member libraries worldwide

La gestion transparente et efficace des données partagées par des processus applicatifs s'exécutant sur des grilles de calcul est un défi. La contribution de ce travail de doctorat est de spécifier le concept de service de partage de données pour grilles, afin d'intégrer aux modèles de programmation actuels un modèle d'accès transparent aux données. Notre proposition s'inspire essentiellement des systèmes à mémoire virtuellement partagée (MVP) et des systèmes pair-à-pair (P2P). Cette approche hybride a pour objectif de conserver les points forts des systèmes à MVP grâce à une organisation fondée sur les points forts des systèmes P2P. Afin de valider notre concept, nous proposons une architecture appelée JuxMem. Sa mise en oeuvre a été validée par son intégration dans deux modèles de programmation utilisés pour programmer les grilles: le modèle Grid-RPC et les modèles à base de composants logiciels. Les bénéfices de notre approche ont été évalués sur la grille expérimentale Grid'5000
CoRDAGe : un service générique de co-déploiement et redéploiement d'applications sur grilles by Loïc Cudennec( Book )

2 editions published in 2009 in French and held by 3 WorldCat member libraries worldwide

Les grilles informatiques sont constituées de plusieurs milliers de ressources physiques hétérogènes et réparties dans des domaines d'administration différents. Ceci rend l'utilisation des grilles très difficile, notamment pour déployer une application et prendre en compte la dynamicité de l'infrastructure. La contribution de ce travail de doctorat est de proposer un modèle permettant de prendre en charge le déploiement d'applications distribuées, de manière dynamique et transparente pour l'utilisateur. Ce modèle s'adapte aux spécificités de chaque application, sans pour autant être intrusif lors de leur conception. Afin de valider notre modèle, nous proposons une architecture appelée CoRDAGe. Elle a été utilisée pour prendre en charge le service de partage de données JuxMem et le système de fichiers Gfarm sur la plate-forme expérimentale Grid'5000
A practical example of convergence of P2P and grid computing: an evaluation of JXTA's communication performance on grid networking infrastructures by Gabriel Antoniu( Book )

1 edition published in 2005 in English and held by 2 WorldCat member libraries worldwide

Modèles et protocoles de cohérence de données, décision et optimisation à la compilation pour des architectures massivement parallèles. by Safae Dahmani( )

1 edition published in 2015 in French and held by 2 WorldCat member libraries worldwide

Manycores architectures consist of hundreds to thousands of embedded cores, distributed memories and a dedicated network on a single chip. In this context, and because of the scale of the processor, providing a shared memory system has to rely on efficient hardware and software mechanisms and data consistency protocols. Numerous works explored consistency mechanisms designed for highly parallel architectures. They lead to the conclusion that there won't exist one protocol that fits to all applications and hardware contexts. In order to deal with consistency issues for this kind of architectures, we propose in this work a multi-protocol compilation toolchain, in which shared data of the application can be managed by different protocols. Protocols are chosen and configured at compile time, following the application behaviour and the targeted architecture specifications. The application behaviour is characterized with a static analysis process that helps to guide the protocols assignment to each data access. The platform offers a protocol library where each protocol is characterized by one or more parameters. The range of possible values of each parameter depends on some constraints mainly related to the targeted platform. The protocols configuration relies on a genetic-based engine that allows to instantiate each protocol with appropriate parameters values according to multiple performance objectives. In order to evaluate the quality of each proposed solution, we use different evaluation models. We first use a traffic analytical model which gives some NoC communication statistics but no timing information. Therefore, we propose two cycle- based evaluation models that provide more accurate performance metrics while taking into account contention effect due to the consistency protocols communications.We also propose a cooperative cache consistency protocol improving the cache miss rate by sliding data to less stressed neighbours. An extension of this protocol is proposed in order to dynamically define the sliding radius assigned to each data migration. This extension is based on the mass-spring physical model. Experimental validation of different contributions uses the sliding based protocols versus a four-state directory-based protocol
Making a DSM consistency protocol hierarchy-aware : an efficient synchronization scheme by Gabriel Antoniu( Book )

2 editions published in 2003 in English and held by 2 WorldCat member libraries worldwide

Contribution to High Performance Computing and Big Data Infrastructure Convergence by Michael Mercier( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

La quantité de données produites dans le monde scientifique comme dans le monde commercial, est en constante augmentation. Le domaine du traitement de donnée à large échelle, appelé “Big Data”, a été inventé pour traiter des données sur de larges infrastructures informatiques distribuées. Mais l'intégration de système Big Data sur des machines de calcul intensif pose de nombreux problèmes. En effet, les gestionnaires de ressources ainsi que les systèmes de fichier de super calculateurs ne sont pas penser pour ce type de travail. Le sujet de cette thèse est de trouver la meilleure approche pour faire interagir ces deux gestionnaires de ressources et de traiter les différents problèmes soulevés par les mouvements de données et leur ordonnancement
Développement d'un système in situ à base de tâches pour un code de dynamique moléculaire classique adapté aux machines exaflopiques by Estelle Dirand( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

The exascale era will widen the gap between data generation rate and the time to manage their output and analysis in a post-processing way, dramatically increasing the end-to-end time to scientific discovery and calling for a shift toward new data processing methods. The in situ paradigm proposes to analyze data while still resident in the supercomputer memory to reduce the need for data storage. Several techniques already exist, by executing simulation and analytics on the same nodes (in situ), by using dedicated nodes (in transit) or by combining the two approaches (hybrid). Most of the in situ techniques target simulations that are not able to fully benefit from the ever growing number of cores per processor but they are not designed for the emerging manycore processors.Task-based programming models on the other side are expected to become a standard for these architectures but few task-based in situ techniques have been developed so far. This thesis proposes to study the design and integration of a novel task-based in situ framework inside a task-based molecular dynamics code designed for exascale supercomputers. We take benefit from the composability properties of the task-based programming model to implement the TINS hybrid framework. Analytics workflows are expressed as graphs of tasks that can in turn generate children tasks to be executed in transit or interleaved with simulation tasks in situ. The in situ execution is performed thanks to an innovative dynamic helper core strategy that uses the work stealing concept to finely interleave simulation and analytics tasks inside a compute node with a low overhead on the simulation execution time.TINS uses the Intel® TBB work stealing scheduler and is integrated into ExaStamp, a task-based molecular dynamics code. Various experiments have shown that TINS is up to 40% faster than state-of-the-art in situ libraries. Molecular dynamics simulations of up to 2 billions particles on up to 14,336 cores have shown that TINS is able to execute complex analytics workflows at a high frequency with an overhead smaller than 10%
Méthodes In-Situ et In-Transit : vers un continuum entre les applications interactives et offines à grande échelle by Matthieu Dreher( )

1 edition published in 2015 in French and held by 2 WorldCat member libraries worldwide

Parallel simulations have become a powerwul tool in several scientific areas. To simulate complex phenomena, these simulations are running on large parallel machines. The computational power available on those machines has increased a lot in the last years allowing to simulate very large models. Unfortunately, the I/O capabilities necessary to save the data produced by simulation has not grown at the same pace. Nowadays, it is already difficult to save all the needed data and to have enough computational power to analyse them afterwards. At the exascale time frame, it is expected that less than 1% of the total data produced by simulations will be saved. Yet, these data may lead to major discoveries. In-situ analytics are a promising solution to this problem. The idea is to treat the data while the simulation is still running and the data are in memory. This way, the I/O bottleneck is avoided and the computational power avaible on parallel machines can be used as well for analytics. In this thesis, we propose to use the dataflow paradigm to enable the construction of complex in-situ applications. We rely on the FlowVR middleware which is designed to couple parallel heterogeneous codes by creating communication channels between them to form a graph. FlowVR is flexible enough to allow several placement strategies on simulation nodes, dedicated cores or dedicated nodes. Moreover, in-situ analytics are executed asynchronously leading to a low impact on the simulation performances. To demonstrate the flexibility of our approach, we used Gromacs, a commonly used parallel molecular dynamic simulation package, as application target. With the help of biology experts, we have built several realistic applications. The first one is allowing a user to steer a molecular simulation toward a desired state. To do so, we have couple Gromacs with a live viewer and an haptic device. The user can then apply forces to drive molecular systems of more than 1 million atoms. Our second application focus on long simulation running in batch mode on supercomputers. We replace the native writing method of Gromacs by two methods in our infrastructure. We also propose a implemented a flexible rendering algorithm able to able to various placement strategies. Finally, we study the possible usage o biologists with our infrastructure. We propose a unifed framework able to run treatments on interactive simulation, long simulations and in post-process
Large-scale memory sharing on peer-to-peer networks by Gabriel Antoniu( Book )

2 editions published in 2002 in English and held by 2 WorldCat member libraries worldwide

BlobSeer : towards efficient data storage management for large-scale, distributed systems by Bogdan Nicolae( Book )

2 editions published in 2010 in French and held by 2 WorldCat member libraries worldwide

With data volumes increasing at a high rate and the emergence of highly scalable infrastructures (cloud computing, petascale computing), distributed management of data becomes a crucial issue that faces many challenges. This thesis brings several contributions in order to address such challenges. First, it proposes a set of principles for designing highly scalable distributed storage systems that are optimized for heavy data access concurrency. In particular, it highlights the potentially large benefits of using versioning in this context. Second, based on these principles, it introduces a series of distributed data and metadata management algorithms that enable a high throughput under concurrency. Third, it shows how to efficiently implement these algorithms in practice, dealing with key issues such as high-performance parallel transfers, efficient maintainance of distributed data structures, fault tolerance, etc. These results are used to build BlobSeer, an experimental prototype that is used to demonstrate both the theoretical benefits of the approach in synthetic benchmarks, as well as the practical benefits in real-life, applicative scenarios: as a storage backend for MapReduce applications, as a storage backend for deployment and snapshotting of virtual machine images in clouds, as a quality-of-service enabled data storage service for cloud applications. Extensive experimentations on the Grid'5000 testbed show that BlobSeer remains scalable and sustains a high throughput even under heavy access concurrency, outperforming by a large margin several state-of-art approaches
Vers une dissémination efficace de données volumineuses sur des réseaux wi-fi denses by Lyes Hamidouche( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

Face à la prolifération des technologies mobiles et à l'augmentation du volume des données utilisées par les applications mobiles, les périphériques consomment de plus en plus de bande passante. Dans cette thèse, nous nous concentrons sur les réseaux Wi-Fi denses comme cela peut être le cas lors d'événements à grande échelle (ex: conférences, séminaire, etc.) où un serveur doit acheminer des données à un grand nombre de périphériques dans une fenêtre temporelle réduite. Dans ce contexte, la consommation de bande passante et les interférences engendrées par les téléchargements parallèles d'une donnée volumineuse par plusieurs périphériques connectés au même réseau dégradent les performances. Les technologies de communication Device-to-Device (D2D) comme Bluetooth ou Wi-Fi Direct permettent de mieux exploiter les ressources du réseau et d'améliorer les performances pour offrir une meilleure qualité d'expérience (QoE) aux utilisateurs. Dans cette thèse nous proposons deux approches pour l'amélioration des performances de la dissémination de données. La première approche, plus adaptée à une configuration mobile, consiste à utiliser des connexions D2D en point-à-point sur une topologie plate pour les échanges de données. Nos évaluations montrent que notre approche permet de réduire les temps de dissémination jusqu'à 60% par rapport à l'utilisation du Wi-Fi seul. De plus, nous veillons à avoir une répartition équitable de la charge énergétique sur les périphériques afin de préserver les batteries les plus faibles du réseau. Nous avons pu voir qu'avec la prise en compte de l'autonomie des batteries et de la bande passante, la sollicitation des batteries les plus faibles peut être réduite de manière conséquente. La deuxième approche, plus adaptée à des configurations statiques, consiste à mettre en place des topologies hiérarchiques dans lesquelles on regroupe les périphériques par clusters. Dans chaque cluster, un périphérique est élu pour être le relais des données qu'il recevra depuis le serveur et qu'il transmettra à ses voisins. Cette approche permet de gérer plus efficacement les interférences en adaptant la puissance du signal afin de limiter la portée des clusters. Dans ce cas, nous avons observé jusqu'à 30 % de gains en temps de dissémination. Dans la continuité des travaux de cette thèse, nous discutons de plusieurs perspectives qu'il serait intéressant d'entreprendre par la suite, notamment l'adaptation automatique du protocole de dissémination à l'état du réseau et l'utilisation simultanée des deux types de topologie plate et hiérarchique
How to bring together fault tolerance and data consistency to enable grid data sharing by Gabriel Antoniu( Book )

1 edition published in 2005 in English and held by 1 WorldCat member library worldwide

Going large-scale in P2P experiments using the JXTA distributed framework by Gabriel Antoniu( Book )

1 edition published in 2004 in English and held by 1 WorldCat member library worldwide

JUXMEM : weaving together the P2P and DSM paradigms to enable a Grid Data-sharing service by Gabriel Antoniu( Book )

1 edition published in 2004 in English and held by 1 WorldCat member library worldwide

DRUIDE 2004 : École thématique sur la DistRibUtion de Données à grande Échelle, 24-28 mai 2004, Domaine de Port-aux-Rocs, Le Croisic by DistRibUtion de Données à grande Échelle( Book )

1 edition published in 2004 in French and held by 1 WorldCat member library worldwide

Enabling transparent data sharing in component models( Book )

1 edition published in 2005 in English and held by 1 WorldCat member library worldwide

Performance evaluation of JXTA communication layers : extended version by Gabriel Antoniu( Book )

1 edition published in 2005 in English and held by 1 WorldCat member library worldwide

Extending the entry consistency model to enable efficient visualization for code-coupling grid applications( Book )

1 edition published in 2005 in English and held by 1 WorldCat member library worldwide

 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.44 (from 0.37 for Modèles e ... to 1.00 for ScienceClo ...)

Languages
English (14)

French (12)