Content:

Dienstag
04.01.2022

Digital

Wenn Supercomputer zu viel selbständig denken: 34 Millionen Dateien von 14 Forschungsgruppen sind verschwunden...           (Bild: Kyoto University)

Wenn Supercomputer zu viel selbständig denken: 34 Millionen Dateien von 14 Forschungsgruppen sind verschwunden... (Bild: Kyoto University)

Eigentlich wollte HPE nur ein Backup-Script «leserlicher» machen. Stattdessen löschte es wichtige Forschungsdaten und deren Backups, wie die IT-Plattform golem.de publik gemacht hat.

Damit hat die Kyoto-Universität in Japan Ende 2021 rund 77 Terabyte an Forschungsdaten verloren. Der Grund: Ein Script-Update hat die Backups von den Servern gelöscht. Betroffen sind 34 Millionen Dateien von 14 Forschungsgruppen. Etwa ein Drittel der Gruppen wird ihre Daten wohl nie wieder sehen, bestätigt die Universität. Der Vorfall ereignete sich zwischen dem 14. und 16. Dezember.

Der Grund für die Mega-Panne liegt beim Betreiber des in der Universität genutzten Supercomputers: Hewlett Packard Enterprise, beziehungsweise die japanische Sparte Hewlett Packard Japan GK. Der Konzern soll dabei ein Update für ein Backup-Script verteilt haben, das Log-Dateien nach zehn Tagen automatisch löscht. Dabei sollte nur dessen Sichtbarkeit und Nachvollziehbarkeit durch neue Variablennamen verbessert werden. Stattdessen habe das Script aber beim Aufspielen ein anderes, laufendes Bash-Script überschrieben.

HP Japan übernehme laut eigenen Aussagen die volle Verantwortung für den Vorfall. Das bestätigt der Konzern in einem Brief an die Universität, die das Schreiben öffentlich gemacht hat.

Forschungsgruppen seien in Zukunft dazu angehalten, wichtige Daten auch auf anderen Systemen zu speichern.