Neural Network Acceleration on FPGAs

Content

Neural networks are applied in a variety of domains, even critical application scenarios in transportation and medicine. Important aspects of accelerating neural networks in various application domains are performance, latency, reliability, and energy footprint. Dedicated hardware can have advantages in all of these domains over a traditional CPU and also GPU
implementations. In this regard, Field-Programmable Gate Arrays (FPGAs; reconfigurable hardware) have shown to be an efficient and versatile solution for accelerating quantized neural networks, which are compact representations of neural network models. Their benefits are proven by the use in Microsoft Azure ML, Amazon AWS and other cloud platforms.
This module will teach students how to implement neural networks on reconfigurable hardware using an established framework, and also looks into relevant practical details when optimizing the network for hardware deployment.

Language of instructionEnglish
Organisational issues

Die Veranstaltung Neural Network Acceleration on FPGAs (WS 25/26) findet ab dem 04.11.2025 alle zwei Wochen dienstags von 14:00 bis 15:30 Uhr statt. Die Veranstaltung findet im Gebäude 07.21, Gebäudeteil A, 3.OG, Praktikumsraum A.3.24 statt. Es gilt eine Anwesenheitspflicht.

Die Teilnehmerzahl ist begrenzt, weshalb eine Registrierung über das Campussystem erforderlich ist. Die Anwesenheit ist obligatorisch.

Wichtige Informationen zur Registrierung:

  • Die Anzahl der Plätze ist limitiert und die Anmeldung erfolgt nach dem Prinzip "Wer zuerst kommt, mahlt zuerst".
  • Stellen Sie sicher, dass Sie sich so früh wie möglich anmelden.
  • Wir können nur Anmeldungen mit den korrekten Unterlagen oder aus dem Online-System (https://campus.studium.kit.edu/exams/index.php) berücksichtigen.
  • Startdatum: 04.11.2025
  • Wochentag: Dienstag
  • Uhrzeit: 14:00-17:15
  • Raum: 07.21, 3.OG, A.3.24
  • Registrierung: Pflicht im Campussystem