Security of Neural Network Hardware Accelerators
-
chair:
CDNC
- Kontaktperson:
Description
Hardware security contains side-channel and fault attacks, which have recently been extended to accelerators for machine learning, which are very often accelerated in FPGAs or dedicated TPUs (Tensor Processing Unit), already available in various cloud platforms.
Compare to cryptographic algorithms, the target of an attacker changes from secret keys to other data, which can be both private data, but also the neural network model itself and thus company's trade secrets. Furthermore, the results of machine learning will often have safety-relevant impacts such as in Medicine or autonomous Driving. Thus, it is very important to also protect neural network accelerators on the hardware level.
In this project, we will both analyze new side-channel and fault attack threats to neural network hardware, as well as optimize neural networks to be less prone against such attacks. For the work you would be doing, you will assist us both on hardware and machine learning tasks. We assume that most students will not have an entire focus on either hardware or machine learning (mainly neural networks), so we will try to find an according task to fit your skills and still allow you to learn about the part you are less experienced with.
If you got interested, please just contact us via mail and write a few lines about:
- Introduce yourself and main focus of study
- Which semester and relevant courses (if any)
- Which prior knowledge you have on either hardware or neural networks, including the tools and languages you have used before
Beschreibung
Mittlerweile umfasst die Hardwaresicherheit auch Seitenkanal- und Fehlerangriffe auf Beschleuniger für maschinelles Lernen, die sehr oft in FPGAs oder speziellen TPUs (Tensor Processing Units) beschleunigt werden, die bereits in verschiedenen Cloud-Plattformen verfügbar sind.
Im Vergleich zu kryptografischen Algorithmen ist ein neues Ziel für Angreifer nicht mehr die geheimen Schlüssel, sondern die verarbeiteten Daten als auch das neuronale Netz selbst. Somit handelt es sich dabei um private Daten oder Betriebsgeheimnisse. Außerdem haben die Ergebnisse des maschinellen Lernens oft sicherheitsrelevante Auswirkungen, z.B. im Bereich Medizin oder autonomes Fahren. Daher ist es sehr wichtig, Beschleuniger für neuronale Netze auch auf Hardware-Ebene zu schützen.
In diesem Projekt werden wir sowohl neue Bedrohungen durch Seitenkanal- und Fehlerangriffe auf die Hardware neuronaler Netze analysieren, als auch neuronale Netze so optimieren, dass sie weniger anfällig für derartige Angriffe sind. Bei dem Projekt fallen sowohl Hardware- als auch Machine-Learning Aufgaben an. Wir gehen davon aus, dass die meisten Studenten weder einen vollständigen Fokus auf Hardware noch auf maschinelles Lernen (hauptsächlich neuronale Netze) haben werden, daher werden wir versuchen, eine entsprechende Aufgabe zu finden, die den Fähigkeiten entspricht und trotzdem erlaubt, etwas über den anderen Teil zu lernen, in dem weniger Kenntnisse bestehen.
Bei Interesse, kontaktiere uns einfach per Mail und schreibe ein paar Zeilen zu:
- Hauptfokus des Studiums
- Welches Semester und welche relevanten Kurse wurden absolviert (falls vorhanden)
- Welche Vorkenntnisse im Bezug auf Hardware oder neuronale Netze vorhanden sind, einschließlich der Tools und (Programmier-)Sprachen
Minimum Requirements
- Elementary knowledge on both hardware design and neural networks
- Intermediate or advanced knowledge on one of the two aspects
Preferred Additional Skills or Knowledge
Verilog, C, Pytorch, ONNX, AMD/Xilinx Vivado, VHDL, Statistics, other machine learning methods
Contact
Vincent Meyers, vincent.meyers@kit.edu