Bachelor/Master Thesis: Security of Neural Network Hardware Accelerators

Description

Hardware security contains side-channel and fault attacks, which have recently been extended to accelerators for machine learning, which are very often accelerated in FPGAs or dedicated TPUs (Tensor Processing Unit), already available in various cloud platforms.

Compared to cryptographic algorithms, the target of an attacker changes from secret keys to other data, which can be both private data, but also the neural network model itself and thus company's trade secrets. Furthermore, the results of machine learning will often have safety-relevant impacts such as in Medicine or autonomous Driving. Thus, it is very important to also protect neural network accelerators on the hardware level.

In this project, we will both analyze new side-channel and fault attack threats to neural network hardware, as well as optimize neural networks to be less prone against such attacks. For the work you would be doing, you will assist us both on hardware and machine learning tasks. We assume that most students will not have an entire focus on either hardware or machine learning (mainly neural networks), so we will try to find an according task to fit your skills and still allow you to learn about the part you are less experienced with.

If you got interested, please just contact us via mail. We will then meet with you to discuss possible directions for the thesis and find a specific topic together with you.

Beschreibung

Mittlerweile umfasst die Hardwaresicherheit auch Seitenkanal- und Fehlerangriffe auf Beschleuniger für maschinelles Lernen, die sehr oft in FPGAs oder speziellen TPUs (Tensor Processing Units) beschleunigt werden, die bereits in verschiedenen Cloud-Plattformen verfügbar sind.

Im Vergleich zu kryptografischen Algorithmen ist ein neues Ziel für Angreifer nicht mehr die geheimen Schlüssel, sondern die verarbeiteten Daten als auch das neuronale Netz selbst. Somit handelt es sich dabei um private Daten oder Betriebsgeheimnisse. Außerdem haben die Ergebnisse des maschinellen Lernens oft sicherheitsrelevante Auswirkungen, z.B. im Bereich Medizin oder autonomes Fahren. Daher ist es sehr wichtig, Beschleuniger für neuronale Netze auch auf Hardware-Ebene zu schützen.

In diesem Projekt werden wir sowohl neue Bedrohungen durch Seitenkanal- und Fehlerangriffe auf die Hardware neuronaler Netze analysieren, als auch neuronale Netze so optimieren, dass sie weniger anfällig für derartige Angriffe sind. Bei dem Projekt fallen sowohl Hardware- als auch Machine-Learning Aufgaben an. Wir gehen davon aus, dass die meisten Studenten weder einen vollständigen Fokus auf Hardware noch auf maschinelles Lernen (hauptsächlich neuronale Netze) haben werden, daher werden wir versuchen, eine entsprechende Aufgabe zu finden, die den Fähigkeiten entspricht und trotzdem erlaubt, etwas über den anderen Teil zu lernen, in dem weniger Kenntnisse bestehen.

Bei Interesse, kontaktiere uns einfach per Mail. Dann können wir gemeinsam im Gespräch ein mögliches Thema für die Abschlussarbeit finden.

Minimum Requirements

 - Elementary knowledge in hardware design, neural networks, security

 - Intermediate or advanced knowledge in one of the three aspects

Preferred Additional Skills or Knowledge

Verilog, C, Pytorch, ONNX, AMD/Xilinx Vivado, VHDL, Statistics, other machine learning methods

Contact

Dennis Gnad, dennis.gnad@kit.edu