The OCLC Research WorldCat Identities project is ending. The work provided valuable insight into how to mine bibliographic data for insight into the People and Organizations that create and serve as subjects library materials. The findings demonstrated the power of data mining over the world’s largest set of bibliographic metadata and highlighted the value of collaborative collective cataloging. The WorldCat Identities data has positively impacted OCLC’s work to build the WorldCat Entities application and the 150 million Person and Work descriptions accessible through it. This work will continue to build our entity ecosystem to support the future knowledge work of librarians.

The WorldCat Identities web application will be retired and shut down in the coming months and the data is no longer being updated. The most recent version of the data is from July of 2022. As OCLC continues to build out the WorldCat Entities ecosystem, please use it as a source for persistent Person identifiers.

WorldCat Identities

Raffin, Bruno

Works: 23 works in 26 publications in 2 languages and 37 library holdings
Roles: Thesis advisor, Opponent, Other, Author
Publication Timeline
Most widely held works by Bruno Raffin
Méthodes In-Situ et In-Transit : vers un continuum entre les applications interactives et offines à grande échelle by Matthieu Dreher( )

1 edition published in 2015 in French and held by 2 WorldCat member libraries worldwide

Parallel simulations have become a powerwul tool in several scientific areas. To simulate complex phenomena, these simulations are running on large parallel machines. The computational power available on those machines has increased a lot in the last years allowing to simulate very large models. Unfortunately, the I/O capabilities necessary to save the data produced by simulation has not grown at the same pace. Nowadays, it is already difficult to save all the needed data and to have enough computational power to analyse them afterwards. At the exascale time frame, it is expected that less than 1% of the total data produced by simulations will be saved. Yet, these data may lead to major discoveries. In-situ analytics are a promising solution to this problem. The idea is to treat the data while the simulation is still running and the data are in memory. This way, the I/O bottleneck is avoided and the computational power avaible on parallel machines can be used as well for analytics. In this thesis, we propose to use the dataflow paradigm to enable the construction of complex in-situ applications. We rely on the FlowVR middleware which is designed to couple parallel heterogeneous codes by creating communication channels between them to form a graph. FlowVR is flexible enough to allow several placement strategies on simulation nodes, dedicated cores or dedicated nodes. Moreover, in-situ analytics are executed asynchronously leading to a low impact on the simulation performances. To demonstrate the flexibility of our approach, we used Gromacs, a commonly used parallel molecular dynamic simulation package, as application target. With the help of biology experts, we have built several realistic applications. The first one is allowing a user to steer a molecular simulation toward a desired state. To do so, we have couple Gromacs with a live viewer and an haptic device. The user can then apply forces to drive molecular systems of more than 1 million atoms. Our second application focus on long simulation running in batch mode on supercomputers. We replace the native writing method of Gromacs by two methods in our infrastructure. We also propose a implemented a flexible rendering algorithm able to able to various placement strategies. Finally, we study the possible usage o biologists with our infrastructure. We propose a unifed framework able to run treatments on interactive simulation, long simulations and in post-process
Analyzing the memory behavior of parallel scientific applications by David Beniamine( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Depuis plusieurs décennies, afin de réduire la consommation énergétique des processeurs, les constructeurs fabriquent des ordinateurs de plus en plus parallèles.Dans le même temps, l'écart de fréquence entre les processeurs et la mémoire a significativement augmenté.Pour compenser cet écart, les processeurs modernes embarquent une hiérarchie de caches complexe.Développer un programme efficace sur de telles machines est une tâche complexe.Par conséquent, l'analyse de performance est devenue une étape majeure lors du développement d'applications requérant des performances.La plupart des outils d'analyse de performances se concentrent sur le point de vue du processeur.Ces outils voient la mémoire comme une entité monolithique et sont donc incapable de comprendre comment elle est accédée.Cependant, la mémoire est une ressource critique et les schémas d'accès à cette dernière peuvent impacter les performances de manière significative.Quelques outils permettant l'analyse de performances mémoire existent, cependant ils sont basé sur un échantillon age à large grain.Par conséquent, ces outils se concentrent sur une petite partie de l'Exécution et manquent le comportement global de l'application.De plus, l'échantillonnage à large granularité ne permet pas de collecter des schémas d'accès.Dans cette thèse, nous proposons deux outils différences pour analyser le comportement mémoire d'une application.Le premier outil est conçu spécifiquement pour pour les machines NUMA (Not Uniform Memory Accesses) et fournit plusieurs visualisations du schéma global de partage de chaque structure de données entre les flux d'ExécutionLe deuxième outil collecte des traces mémoires a grain fin avec information temporelles.Nous proposons de visualiser ces traces soit à l'aide d'un outil générique de gestion de traces soit en utilisant une approche programmatique basé sur R.De plus nous évaluons ces deux outils en les comparant a des outils existant de trace mémoire en terme de performances, précision et de complétude
Téléprésence, immersion et interactions pour le reconstruction 3D temps-réel by Benjamin Petit( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

Online immersive and collaborative 3D environments are emerging very fast. They raise the issues of sensation of presence within virtual worlds, immersion and interaction capabilities. Multi-camera 3D systems allow to extract geometrical information (3D model) of the observed scene using the photometric information. It enables calculation of a numerical textured model in real-time, which is then used to ensure the user's presence in cyberspace. In this thesis we have studied how to pair the ability of presence, obtained from such a system, with visual immersion and co-located interactions. This led to the realization of an application that combines a head mounted display, an optical tracking system and a multi-camera system. Thus, the user can view his 3D model correctly aligned with his own body and mixed with virtual objects. We also have implemented an experimental telepresence application featuring three sites (Bordeaux, Grenoble, Orleans) that allows multiple users to meet in 3D and collaborate remotely. Textured 3D model gives a very strong sense of presence of each other and strengthens the physical interactions, thanks to body language and facial expressions. Finally, we studied how to extract 3D velocity information from the cameras images; using 2D optical flow and 2D and 3D correspondences, we can estimate the dense displacement of the 3D model. This data extend the interaction capabilities by enriching the 3D model
Parallélisation sur un moteur exécutif à base de tâches des méthodes itératives pour la résolution de systèmes linéaires creux sur architecture multi et many coeurs : application aux méthodes de types décomposition de domaines multi-niveaux by Adrien Roussel( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Numerical methods in reservoir engineering simulations lead to the resolution of unstructured, large and sparse linear systems. The performances of iterative methods employed in simulator to solve these systems are crucial in order to consider many more scenarios.In this work, we present a way to implement efficient parallel iterative methods on top of a task-based runtime system. It enables to simplify the development of methods while keeping control on parallelism management. We propose a linear algebra API which aims to implicitly express task dependencies: the semantic is sequential while the parallelism is implicit.We have extended the HARTS runtime system to monitor executions to better exploit NUMA architectures. Moreover, we implement a scheduling policy which exploits data locality for task placement. We have extended the API for KNL many-core systems while considering the various memory banks available. This work has led to the optimization of the SpMV kernel, one of the most time consuming operation in iterative methods.This work has been evaluated on iterative methods, and particularly on one method coming from domain decomposition. Hence, we demonstrate that the API enables to reach good performances on both multi-core and many-core architectures
Analyse des synchronisations dans un programme parallèle ordonnancé par vol de travail. Applications à la génération déterministe de nombres pseudo-aléatoires. by Stefano Drimon Kurz Mor( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

We present two contributions to the field of parallel programming.The first contribution is theoretical: we introduce SIPS analysis, a novel approach to estimate the number of synchronizations performed during the execution of a parallel algorithm.Based on the concept of logical clocks, it allows us: on one hand, to deliver new bounds for the number of synchronizations, in expectation; on the other hand, to design more efficient parallel programs by dynamic adaptation of the granularity.The second contribution is pragmatic: we present an efficient parallelization strategy for pseudorandom number generation, independent of the number of concurrent processes participating in a computation.As an alternative to the use of one sequential generator per process, we introduce a generic API called Par-R, which is designed and analyzed using SIPS.Its main characteristic is the use of a sequential generator that can perform a ``jump-ahead'' directly from one number to another on an arbitrary distance within the pseudorandom sequence.Thanks to SIPS, we show that, in expectation, within an execution scheduled by work stealing of a "very parallel" program (whose depth or critical path is subtle when compared to the work or number of operations), these operations are rare.Par-R is compared with the parallel pseudorandom number generator DotMix, written for the Cilk Plus dynamic multithreading platform.The theoretical overhead of Par-R compares favorably to DotMix's overhead, what is confirmed experimentally, while not requiring a fixed generator underneath
Contribution to High Performance Computing and Big Data Infrastructure Convergence by Michael Mercier( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

The amount of data produced, either in the scientific community and the commercial world, is constantly growing. The field of Big Data has emerged to handle a large amount of data on distributed computing infrastructures. High-Performance Computer (HPC) infrastructures are made for intensive parallel computations. The HPC community is also facing more and more data because of new high definition sensors and large physics apparatus. The convergence of the two fields is currently happening. In fact, the HPC community is already using Big Data tools, but they are not integrated correctly, especially at the level of the file system and the Resources and Job Management System (RJMS).In order to understand how we can leverage HPC clusters for Big Data usage, and what are the challenges for the HPC infrastructures, we have studied multiple aspects of the convergence: we have made a survey on the software provisioning methods, with a focus on data-intensive applications. We also propose a new RJMS collaboration technique called BeBiDa which is based on 50 lines of code whereas similar solutions use at least 1000x more. We evaluate this mechanismon real conditions and in a simulation with our simulator Batsim
Algorithmes et structures de données parallèles pour applications interactives by Julio Toss( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

La quête de performance a été une constante à travers l'histoire des systèmes informatiques.Il y a plus d'une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d'épuisement pour satisfaire les exigences de performance.Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes.Avec l'adoption généralisée d'ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s'adapter à ces nouvelles architectures.Cependant, dans des applications non conventionnelles, avec des exigences d'interactivité et de temps réel, la parallélisation efficace est encore un défi majeur.L'exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l'entrée de l'utilisateur dans une itération de calcul de la boucle de simulation.Le même type de contrainte apparaît dans les applications d'analyse de données en continu.Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d'analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé.La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache.Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l'indexation statique des données ne conduisent pas aux performances souhaitées.Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes: la première dans le domaine de la simulation physique interactive et la seconde sur l'analyse des données en continu.Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille.Pour le problème d'analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire
Multi-scale interaction techniques for the interactive visualization of execution traces by Rémy Dautriche( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Développer des applications de streaming multimedia pour systèmes embarqués devient une tâche de plus en plus complexe. De nouveaux standards multimedia apparaissent régulièrement sur le marché pour supporter de meilleures résolutions et délivrer du contenu multimedia de meilleure qualité. Une conséquence est la complexification des plateformes matérielles et du développement logiciel. La méthode traditionnelle de débogage pour les applications de streaming multimedia est l'utilisation de traces d'exécution. Cependant, la quantité de données générée par les logiciels modernes augmente et les outils existants ne passent pas à l'échelle, ne permettent plus un débogage efficace. Dans cette thèse, nous nous focalisons sur de nouvelles techniques de visualisation enrichies par des résultats d'algorithmes de fouille de données afin de permettre une analyse efficace des traces d'exécution.Nous commençons par présenter les Slick Graphs, une technique de découpage et de lissage pour la visualisation de séries temporelles. Les Slick Graphs minimisent les artéfacts introduits par les techniques de lissage traditionnelles en utilisant le plus petit intervalle possible: les pixels. A travers une étude utilisateur, nous montrons que les Slick Graphs sont significativement plus rapides et plus précis avec des données périodiques. Nous proposons ensuite un nouveau système de visualisation interactive, TraceViz, pour explorer les traces d'exécution à différents niveaux de détails. Avec TraceViz, nous introduisons aussi un back-end permettant l'exploration interactive de trace d'exécution de taille importante. Nous fournissons une analyse de performance montrant que le back-end de TraceViz délivre des performances significativement meilleures que les back-end utilisés dans les outils de débogage disponibles aujourd'hui.Les traces contiennent aussi de nombreuses informations importantes qui peuvent être calculées avec des algorithmes de fouille de données comme par exemple l'existence de séquences d'événements répétées au cours de la trace ou des comportements périodiques. Cependant, même si les techniques de fouille de données permettent d'avoir une meilleure compréhension des traces d'exécution, leurs résultats sont difficiles à exploiter dû au grand nombre de motifs à examiner un par un manuellement. Nous proposons une nouvelle méthode d'analyse visuelle qui permet de visualiser les structures cachées dans une traces comme les séquences répétées et la périodicité d'un ensemble d'événements, permettant de rapidement avoir une compréhension fine de la trace. Enfin, nous montrons aussi comment notre méthode peut être appliquées à différents types de données, autres que les traces d'exécution
A Runtime System for Data-Flow Task Programming on Multicore Architectures with Accelerators by Joao Vicente Ferreira Lima( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

In this thesis, we propose to study the issues of task parallelism with data dependencies onmulticore architectures with accelerators. We target those architectures with the XKaapiruntime system developed by the MOAIS team (INRIA Rhône-Alpes).We first studied the issues on multi-GPU architectures for asynchronous execution andscheduling. Work stealing with heuristics showed significant performance results, but didnot consider the computing power of different resources. Next, we designed a schedulingframework and a performance model to support scheduling strategies over XKaapi runtime.Finally, we performed experimental evaluations over the Intel Xeon Phi coprocessor innative execution.Our conclusion is twofold. First we concluded that data-flow task programming canbe efficient on accelerators, which may be GPUs or Intel Xeon Phi coprocessors. Second,the runtime support of different scheduling strategies is essential. Cost models providesignificant performance results over very regular computations, while work stealing canreact to imbalances at runtime
Un modele structure de communication et de synchronisation pour le parallelisme de taches by Bruno Raffin( Book )

2 editions published in 1997 in French and held by 2 WorldCat member libraries worldwide

PaVo un tri parallèle adaptatif by Marie Durand( )

1 edition published in 2013 in French and held by 2 WorldCat member libraries worldwide

Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire
FlowVR : calculs interactifs et visualisation sur grappe by Jérémie Allard( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

This thesis combines high performance computing and virtual reality to design parallel com ponents coupling methods inside distributed interactive applications. A new coupling model designed with modularity, simplicity, efficiency and extensibility criteria is presented. Applications are constructed following a two phases process : programming reusable parallel components, and defining the application as a data-flow graph with filtering and synchronisation mechanisms, expressing advanced collective communication schemes and coupling policies. An extension of this work is presented for distributed rendering. Using a modular scene description based on independent shader-based primitives, filtering networks are designed to efficiently combine multiple graphics streams up to the rendering nodes. This framework scales weIl and allow the creation of new applications, exploiting the graphics cards' power to remove computations from CPUs which reducing network communications. Several innovative applications are created using these tools. They inc1udes parallel computer vision algorithms, immersing the user inside a virtual world, which can then interact with objects controlled by several distributed physical simulations (carving, collisions, fluids)
Un modèle de structure de données Cache-aware pour un parallélisme et un équilibrage dynamique de la charge by Marwa Sridi( )

1 edition published in 2016 in French and held by 2 WorldCat member libraries worldwide

The current parallel architectures integrate processors with many cores to shared memory growing and responding to specific usage constraints, particularly in the cache management. To take advantage of this power, a unique distributed memory parallelism, to manage the inter-node communications is not directly adapted to the characteristics of multi-core architectures. In addition, the shared memory computing environments offer techniques for balancing the load among available cores more appropriate than those in a distributed memory context.Thus, programming models like OpenMP and KAAPI is a tailored response to the specific characteristics of these architectures.Given these issues, we are interested in developing a hardware-aware approach taking into consideration the hierarchical organization of parallel architectures with shared memory. Our approach provides an optimization model for the use of storage space in this context of parallelism.To prove the pertinence of this approach, we have implemented it in the fast dynamic simulation software EUROPLEXUS of fluids and structures, focusing on the shared memory parallelism complementary to the distributed memory approach developed elsewhere. Because of its wide range of applications, EUROPLEXUS is characterized by a very rich data structure and very complex dependencies among its routines. We focused on accelerating the main loop iterating over the mesh elements. The heterogeneity of the formulations and the materials of the elements that can co-exist in the same simulated model generates a large variability between the costs of the iterations of this loop. A first parallelization of the loop with the XKAAPI library based on a dynamic workstealing scheduling has been implemented. However, despite the acceleration achieved by the parallel implementation, performance has been restrained by frequent and dispersed access costs to a complex data structure. This makes the implementation of the code difficult to optimize. Because of this structure, much of the execution time has elapsed in cache misses. The work is based on the implementation of a model approximating the data structure that ensures a better access locality. It mainly consists in moving from the global data structure in which the physical fields are stored in separate tables to a structure based on the storage of data in independent structures called groups. These groups contain the data relating to a number of elements in the local tables. This number is an adjustable parameter depending on the size of the cache levels. Specifically, this method returns to the nest of the elementary loop in a loop iterating on groups. The iterations among the groups are distributed over the cores of the architecture.The execution of the inner loop is sequentially by core. The best results are obtained for groups of the L2 cache size. For this particular size, the use of a dynamic load balancing in XKAAPI allowed us to double the acceleration of the elementary loop compared to the reference version of the code. The second part of this thesis is based on the parallelization of elementary loop inside the already parallelized loop. We demonstrated that this second level of parallelism is less efficient than the single. However, this nested parallelism might be interesting on Intel Xeon Phi architectures incorporating hyper-threaded cores at their calculation units
Développement d'un système in situ à base de tâches pour un code de dynamique moléculaire classique adapté aux machines exaflopiques by Estelle Dirand( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

The exascale era will widen the gap between data generation rate and the time to manage their output and analysis in a post-processing way, dramatically increasing the end-to-end time to scientific discovery and calling for a shift toward new data processing methods. The in situ paradigm proposes to analyze data while still resident in the supercomputer memory to reduce the need for data storage. Several techniques already exist, by executing simulation and analytics on the same nodes (in situ), by using dedicated nodes (in transit) or by combining the two approaches (hybrid). Most of the in situ techniques target simulations that are not able to fully benefit from the ever growing number of cores per processor but they are not designed for the emerging manycore processors.Task-based programming models on the other side are expected to become a standard for these architectures but few task-based in situ techniques have been developed so far. This thesis proposes to study the design and integration of a novel task-based in situ framework inside a task-based molecular dynamics code designed for exascale supercomputers. We take benefit from the composability properties of the task-based programming model to implement the TINS hybrid framework. Analytics workflows are expressed as graphs of tasks that can in turn generate children tasks to be executed in transit or interleaved with simulation tasks in situ. The in situ execution is performed thanks to an innovative dynamic helper core strategy that uses the work stealing concept to finely interleave simulation and analytics tasks inside a compute node with a low overhead on the simulation execution time.TINS uses the Intel® TBB work stealing scheduler and is integrated into ExaStamp, a task-based molecular dynamics code. Various experiments have shown that TINS is up to 40% faster than state-of-the-art in situ libraries. Molecular dynamics simulations of up to 2 billions particles on up to 14,336 cores have shown that TINS is able to execute complex analytics workflows at a high frequency with an overhead smaller than 10%
Simulations physiques interactives sur des architectures multi-core et multi-GPU by Everton Hermann( Book )

2 editions published in 2010 in English and held by 1 WorldCat member library worldwide

La simulation physique interactive est une composante clé pour les environnements virtuels. Toutefois, la quantité de calcul ainsi que la complexité du code augmente rapidement avec la variété, le nombre et la taille des objets simulés. Au cours de cette thèse nous avons étudié les différents moyens d'améliorer l'interactivité, et en même temps de minimiser l'impact sur le code de simulation. En premier lieu nous avons développé une nouvelle approche de détection de collisions pour les objets déformables qui est rapide et plus robuste que les approches traditionnelles de détection par proximité. Pour tirer profit des machines multi-core, nous proposons une approche de parallélisation qui repose sur un parallélisme des tâches. Avant l'éxecution d'un pas de temps nous extrayons un graphe de dépendance de tâche qui est partitionné pour définir la répartition des tâches entre les processeurs. Cette approche a un faible impact sur les algorithmes de simulation physique étant donné que le parallélisme est obtenu en changeant uniquement le code d'orchestration du lancement des tâches. Finalement, nous avons étendu nos travaux aux architectures multi-CPU et multi-GPU. L'utilisation de ces ressources de manière efficace et transparente est un enjeu de taille. Nous proposons un schéma de parallélisation pour l'équilibrage dynamique de charge entre plusieurs CPUs et GPUs. Nous nous appuyons sur une approche à deux niveaux associant un partitionement du graphe de tâches et l'équilibrage de charge par l'utilisation du vol de travail guidé par des critères d'affinité entre processeurs. Ces critères visent à limiter les migrations de taches entre les unités de calcul, et de favoriser l' association de petites tâches sur les processeurs et des grandes sur les GPU pour tirer parti de l'hétérogénéité
Tracking sans marqueur de modèles physiques modulaires et articulés : vers une interface tangible pour la manipulation de simulations moléculaires by F. X Martínez( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Les modèles physiques moléculaires sont depuis longtemps utilisés dans le domaine de la biologie structurale et de la chimie. Malgré l'apparition de représentations numériques qui offrent une grande variété de visualisations moléculaires dynamiques et permettent notamment d'analyser visuellement les résultats de simulations, les modèles physiques moléculaires sont encore fréquemment utilisés. En effet, la manipulation directe et la construction manuelle de modèles physiques moléculaires facilitent l'élaboration et la mémorisation d'une représentation mentale des structures moléculaires 3D. Les techniques d'interaction avec des objets 3D n'atteignent pas encore la finesse et la richesse de perception et de manipulation des modèles physiques. Par ailleurs, l'interaction avec des représentations moléculaires virtuelles est rendue particulièrement difficile car les structures moléculaires sont très complexes du fait de leur taille, de leur caractère tridimensionnel et de leur flexibilité, auquel s'ajoutent la quantité et la variété des informations qui les caractérisent. Pour aborder la problématique de l'interaction avec ces structures moléculaires, nous proposons dans cette thèse de concevoir une interface tangible moléculaire combinant les avantages des représentations physiques et virtuelles. Pour réaliser une interface tangible flexible et modulaire, à l'image des biomolécules à manipuler, ce travail de thèse a dû relever plusieurs défis scientifiques avec pour contrainte majeure le fait de proposer une approche se passant de marqueurs et dispositif de capture 3D complexe. La première étape fut de choisir, concevoir et fabriquer un modèle physique permettant la manipulation de molécules avec de nombreux degrés de libertés. La seconde étape consistait à créer un modèle numérique permettant de reproduire le comportement mécanique du modèle physique. Enfin, il a fallu concevoir des méthodes de recalage utilisant des techniques de traitement d'image en temps réel pour que le modèle physique puisse contrôler, par couplage, son avatar virtuel. En terme de traitement d'image, de nouvelles méthodes ont été conçues implémentées et évaluées afin d'une part, d'identifier et de suivre les atomes dans l'espace image et d'autre part, d'alimenter la méthode de reconstruction 3D avec un faible nombre de points. L'une de nos contributions a été d'adapter la méthode de Structure from Motion en incluant des connaissances biochimiques pour guider la reconstruction. Par ailleurs, la visualisation conjointe de modèles physiques de molécules et de leur avatar virtuel dynamique, parfois co-localisé dans un contexte de réalité augmentée, a été abordée. Pour cela, des méthodes de visualisation haute performance adaptées à ce contexte ont été conçues afin d'améliorer la perception des formes et cavités, caractéristiques importantes des molécules biologiques. Par exemple, l'occultation ambiante ou le raycasting de sphères avec des ombres portées dynamiques permettent d'augmenter un modèle physique en tenant compte de l'illumination réelle pour une meilleure intégration en réalité augmentée. Les retombées de ce travail en terme d'usage sont nombreuses dans le domaine de la recherche et de la pédagogie en biologie moléculaire, comme dans le domaine de la conception de médicaments et plus particulièrement du Rational Drug Design. L'expert doit être au centre de la tâche de conception de médicament pour la rendre plus efficace et rationnelle, à l'image du succès du jeu sérieux Fold'It, auquel s'ajoute le bénéfice de l'utilisation d'interface tangible capable de manipuler les nombreux degrés de liberté intrinsèques des biomolécules
interactive molecular dynamics software development : Application to biomolecule folding. by Sébastien Doutreligne( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

Le repliement de biomolécules à partir de méthodes computationelles reste un grand défi. Plus particulièrement, les simulations de dynamique moléculaire tout-atomes sont intrinsèquement longues et ne permettent pas encore d'atteindre l'échelle de temps de la microseconde de façon courante. En général, un approche gros-grain est préférée pour simuler des systèmes plus grands et des échelles de temps plus longues. Les approches automatiques comme la dynamique moléculaire ne tiennent pas compte de l'expertise de l'investigateur. Ce travail de thèse explore le repliement des biomolécules au moyen de simulations de dynamique moléculaire interactives avec les modèles gros-grains OPEP et HiRE-RNA, respectivement dédiés aux acides aminés et nucléiques. Les simulations interactives sont comme les simulations classiques, mais permettent en plus à l'utilisateur d'appliquer des forces sur une sélection d'atomes et d'observer la réaction du système en direct pendant que la simulation tourne depuis un logiciel de visualisation moléculaire. Des développements logiciels dédiés ont été faits dans un de ces programmes, UnityMol, couplé aux simulations gros-grain OPEP et HiRE-RNA. Ce travail est complété par une incursion dans la biologie intégrative. L'utilisation de modèles théoriques et expérimentaux est proposée sous deux formes: l'introduction de biais dans les simulations pour les faire converger plus rapidement vers des résultats plausibles et le guidage des utilisateurs au cours de sessions interactives. Cette réflexion montre la complémentarité des méthodes théoriques et des méthodes expérimentales pour l'étude des biomolécules. Quelques essais de repliement ont été menés par des simulations interactives avec nos outils. Une approche dite collaborative (ou plus généralement “crowdsourcing”) au repliement de molécules d'ARN gros-grains avec le modèle HiRE-RNA fut menée. Le repliement de peptides a suivi dans une configuration de laboratoire avec OPEP. En complément, des aspects de réalité virtuelle et des améliorations de performance du logiciel de simulation de réseaux de ressorts BioSpring ont été explorés
Parallélisation de simulations physiques utilisant un modéle de Boltzmann mullti-phases et multi-composants en vue d'un épandage de GNL sur sol by Julien Duchateau( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

This thesis has for goal to define and develop solutions in order to achieve physical simulations on large simulation domains such as industrial sites (Dunkerque LNG Terminal). The simulation model is based on the lattice Boltzmann method (LBM) and allows to treat several simulation cases. The use of several computing architectures are studied in this work. The use of a multicore central processing unit (CPU) and also several graphics processing units (GPUS) is considered. An efficient parllelization of the simulation model is obtained by the use of several GPUS able to calculate in parallel. A progressive mesh algorithm is also defined in order to automatically mesh the simulation domain according to fluids propagation. Its integration on a multi-GPU architecture is studied. Finally, an "out-of-core" method is introduced in order to handle cases that require more memory than all GPUS have. Indeed, GPU memory is generally significantly inferior to the CPU memory. The definition of an exchange system between GPUS and the CPU is therefore essential
Calcul haute performance pour l'analyse topologique de données par ensembles de niveaux by Charles Gueunet( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Topological Data Analysis requires efficient algorithms to deal with the continuously increasing size and level of details of data sets. In this manuscript, we focus on three fundamental topological abstractions based on level sets: merge trees, contour trees and Reeb graphs. We propose three new efficient parallel algorithms for the computation of these abstractions on multi-core shared memory workstations. The first algorithm developed in the context of this thesis is based on multi-thread parallelism for the contour tree computation. A second algorithm revisits the reference sequential algorithm to compute this abstraction and is based on local propagations expressible as parallel tasks. This new algorithm is in practice twice faster in sequential than the reference algorithm designed in 2000 and offers one order of magnitude speedups in parallel. A last algorithm also relying on task-based local propagations is presented, computing a more generic abstraction: the Reeb graph. Contrary to concurrent approaches, these methods provide the augmented version of these structures, hence enabling the full extend of level-set based analysis. Algorithms presented in this manuscript result today in the fastest implementations available to compute these abstractions. This work has been integrated into the open-source platform: the Topology Toolkit (TTK)
Visualisation interactive de simulations à grand nombre d'atomes en physique des matériaux by Simon Latapie( )

1 edition published in 2009 in French and held by 1 WorldCat member library worldwide

The need for more computing power for scientific applications leads supercomputer manufacturers to rely on more and more parallel architectures, such as cluster or MPP systems, increasing the number of processing units. The correlative adjustment of computing software - simulation codes - to massive parallelism leads to larger and larger datasets. More specifically, in molecular dynamics simulations applied to material physics, particle sets are typically composed of millions to hundreds of millions of particles, which raises important postprocessing issues. Most current visualization solutions do not scale up to interactively handle such an amount of information. The goal of this thesis is to design and implement a post-processing solution which is able to handle .dense. sets with a very large number of particles (for example, a molecular dynamics simulation result with several millions of atoms). This solution will have to be adaptive enough to run either on a desktop environment, or on a simple collaborative and immersive configuration, such as a tiled display, possibly with some virtual reality devices (such as stereo displays and 3D interaction peripherals). Moreover, this solution will have to maximize the interactivity, i.e. to increase the reactivity of the system against the user commands, to improve data exploration stages. We propose a solution optimized for dense particle systems visualization, improving both interaction and interactivity : - regarding interaction, a new simple and efficient way of exploring a scientific simulation is proposed. We developed and tested .FlowMenu3D., a 3D extension of the .FlowMenu. concept, an octagonal menu previously designed for 2D environments. - regarding interactivity, we propose an optimized architecture for dense particle systems rendering. The system relies on VTK visualization framework and a parallel hydrid sort-first/sort-last renderer. The existing Ice-T component is augmented with spatial data partitioning as well as statistical (Monte Carlo) occlusion mechanisms. GPU shaders eventually improve the performance and quality of rendering, using spheres as basic primitives
moreShow More Titles
fewerShow Fewer Titles
Audience Level
Audience Level
  General Special  
Audience level: 0.00 (from 0.00 for Contributi ... to 0.00 for Contributi ...)

English (12)

French (11)