A la suite du colloque ‘Getting Ready to do Science with LSST Data’ qui s’est tenu à Lyon, du 12 au 16 juin derniers, William O’Mullane, chef de projet, en charge du traitement des données de LSST, revient sur l’importance de la gestion des données du télescope et sur le rôle que la France joue dans ce domaine.
Vous venez de prendre la responsabilité de la gestion des données pour LSST. Quelles sont vos priorités pour les mois voire les années à venir ?
A court terme, d’ici le mois de juillet, nous avons une revue à mener au niveau de l’agence de financement du projet. A moyen terme, nous avons besoin de vérifier et valider les besoins en termes de gestion de données grâce à plusieurs séries de tests et mises en situation. Cela devrait nous permettre d’être en ordre de marche, au niveau des structures de données et de l’infrastructure, afin de faire face aux défis du “commissionning”1 et de préparer la phase d’opération du télescope.
Quels sont, selon vous, les principaux défis à relever en termes de gestion de données pour le projet LSST ?
Tout d’abord, il y a le plus évident : le volume de données. Transférer 20 téraoctets de données depuis le Chili chaque nuit est loin d‘être trivial. Nous devons aussi faire face aux défis inhérents à tout projet de longue durée qui nécessite de déterminer les technologies sur lesquelles nous pouvons compter sur le long terme. Cela demande un effort d’évaluer de nouvelles choses et de décider s’il y a un bénéfice à les utiliser sur le long terme. Du point de vue du calcul, nous devons faire en sorte que le code ‘multi-threadé’ nous permette de tirer profit de processeurs plus lents mais avec plus de cœurs. Dans le cas contraire, nous pourrions en arriver à calculer de plus en plus lentement à chaque génération de processeurs ! En ce qui concerne le traitement des données, les alertes prévues pour être lancées en moins d’une minute constituent là aussi un vrai défi. Les estimations de PSF2 très précises, la détermination de la forme des galaxies peu lumineuses et le ‘deblending’3 sont aussi sur ma liste des points à suivre. Enfin, la communication est un défi important dans tout projet organisé de façon distribuée. Le traitement des données pour LSST ne fait pas exception : une orientation claire et un management transparent font en ce sens partie des pré-requis.
Comment envisagez-vous les contributions française et européenne dans LSST ?
L’apport de l’IN2P3 est très important puisqu’il va fournir des ressources de traitement considérables pour LSST. La collaboration avec l’IN2P3 sur la construction de la caméra et le logiciel Qserv est aussi très appréciée. Il sera très important pour LSST d’avoir des centres européens à même de fournir un support de premier niveau pour nos collaborateurs. Le récent colloque organisé à Lyon est exactement ce que j’attends comme type de support. Il y a également beaucoup de sujets qui seront intéressants à discuter ensemble et bien sûr des expérimentations sur différentes techniques seront à mener de concert.
Que retirez-vous du colloque ‘Getting Ready to do Science with LSST Data’ qui s’est tenu récemment à Lyon ?
Nouvellement arrivé dans LSST, j’ai beaucoup appris sur les principales difficultés que nous avons à gérer dans le traitement des données de LSST. Le bon côté des choses c’est que j’ai aussi vu différentes solutions pour surmonter certaines d’entre elles. Le temps pris avec des collègues, et en particulier avec ceux de l’IN2P3, pour évaluer certains problèmes fut une excellente chose. Les collaborations sont construites sur la confiance. Cela passe par l’organisation de ce type de réunions et sur une bonne connaissance des gens qui en sont membres.
1 Le ‘commissionning’ est la phase de test qui précède la mise en service du télescope.
2 La PSF (ou Point Spread Function) caractérise l’étalement de l’image d’une étoile ponctuelle en raison des imperfections de l’instrument et de la turbulence atmosphérique.
3 Le deblending est la séparation de galaxies dont les images se superposent.