Studienprojekte
Eigene Ideen lassen sich gleich direkt im Studium verwirklichen. Mit den Studienprojekten entwickeln unsere Studierenden digitale Smart Systems aller Art in kleinen Teams mit 4 bis 6 Personen: selbstorganisierend, agil und crossfunctional.
Neben den eigenen Ideen unserer Studierenden kommen auch IT-Firmen mit spannenden Projektideen zu uns. So sammelt man nicht nur wichtige Praxiserfahrung sondern bekommt auch wertvolle Kontakte in die Wirtschaft.
Semantische Positionsbestimmung
Ein intelligentes System zur Lokalisierung und semantische Positionsbestimmung von Objekten
> mehr
Batteriemanagement-System
Batterie-Management-System basierend auf Einzelzell-Überwachung mit drahtloser Kommunikation, selbstversorgend und mit Funktechnik NFC.
> mehr
Digital Protocol Generator
Mit Software in C++ und Hardware (FPGA) definierte Kommunikationsschnittstellen wie SPI (Serial Peripheral Interface) testen
> mehr
Spydoor - Der Intelligente Türspion
Die intelligente Türklingel setzt auf künstliche Intelligenz, Computer Vision und Sprachausgabe und sagt uns, wer vor der Tür steht.
> mehr
Smart AI Sensor for Lane Detection
Fahrspurerkennung mittels Künstlicher Intelligenz in Hardware auf Basis eines programmierbaren Logikchips (FPGA).
> mehr
Smart Textiles
Entwicklung eines Testsystems für intelligente Textilien, um Stoffproben der Kleidungsindustrie auf Zug und Druck zu belasten.
> mehr
Digitales Notenblatt
Das richtige Notenblatt für jedes Musikstück - ganz einfach auf Knopfdruck.
> mehr
Tragbares Notrufsystem für Extremsportler
Prototyp-Entwicklung aus Hard- und Software für ein Satelliten-basiertes Notrufsystem.
> mehr
Autonomous Driving (Infineon)
Mit Radarsensoren, Kamerasystem und Steuerungssoftware zum selbstfahrenden Fahrzeug.
> mehr
Digitalfunkstrecke mit GNURadio
Signalverarbeitung mittels Open-Source-Software zur digitalen Übertragung von Audio und Video.
> mehr
Selfbalancing Stick
Sensorgesteuertes Pendel mit Neigungskorrektur und elektron. angesteuerte Schwungmassen.
> mehr
Digital Substation
Moderne Digitaltechnik für flexiblere Infrastruktur im Energiemanagement von Umspannwerken.
> mehr
Universellen Funkübertragung mittels SDR
Wie sich mit Software Defined Radio (SDR) verschiedene Funkstandards wie Wifi und LTE in einem Gerät integrieren lassen.
> mehr
Audio Signal Processing - System on Chip (SoC)
Signalverarbeitung am eigenen FPGA-Board in Hardware.
> mehr
SiRet4
Im Projekt SiRet4 wird ein, in einem vorangegangen Studienprojekt konzeptioniertes Prototyping-Framework für die Entwicklung von ereignisbasierten Stereo-Vision-Algorithmen, erweitert und verbessert um Verfahren und Algorithmen der Bildverarbeitung anhand realistischer Messwerten bzw. Aufnahmen zu untersuchen und deren Echtzeitfähigkeit zu bewerten. Die Verifikation der Ergebnisse dieser Stereo-Algorithmen ist ein wichtiger Punkt, daher werden die berechneten Tiefenkarten mit den Daten eines Referenzsystems, einer Microsoft Kinect, korreliert und so die Genauigkeit der entwickelten Stereo-Algorithmen überprüft. Dazu werden bekannte Verfahren aus der Point Cloud Library (PCL) verwendet.
Ausgangssituation / Motivation / Einleitung
In vielen Anwendungen in der Robotik, Industrie oder im Automotivbereich spielt Bildverarbeitung in Echtzeit eine große Rolle, wobei die algorithmische Komplexität und die großen Datenmengen die möglichst schnell verarbeitet werden müssen ein großes Problem darstellen. Im Unterschied zu herkömmlichen bildgebenden Sensoren liefert ein ereignisbasierter Sensor, eine Silicon-Retina, nur dann Daten, wenn in einem Pixel eine Änderung der Helligkeit detektiert wird, d.h. es werden keine Bilder geliefert sondern lediglich Intensitätsänderungen (Events) zur Verfügung gestellt, wodurch die gelieferte Datenmenge variabel und in der Regel deutlich kleiner und die Geschwindigkeit wesentlich höher ist als bei normalen bildgebenden Sensoren. Allerdings müssen Algorithmen zur Kantendetektion, Tiefenschätzung, oder Strukturerkennung an diese Eigenschaften entsprechend angepasst bzw. neu entwickelt werden um das Verhalten solcher ereignisgesteuerte Sensoren ausnutzen zu können.
Ziel
Vorrangiges Ziel war die Weiterentwicklung und Verbesserung des Prototyping-Frameworks in MATLAB hinsichtlich Bedienbarkeit (einfaches wechseln und konfigurieren der vorhanden Algorithmen über die GUI), eine einfache Schnittstelle für die Integration neuer Algorithmen und die Implementierung einer modularen Schnittstelle für die Anbindung verschiedener Silicon Retina Sensoren mit unterschiedlichen Datenformaten und Auflösungen, sowie die offline Simulation aufgenommener Datensätze und die Entwicklung von Funktionen zum Aufbereiten dieser Bilddaten (z.B. erstellen von kurzen Sequenzen). Zusätzlich wurde ein Konzept zur Verifikation der Tiefendaten erarbeitet, indem die 3D-Punktwolken beider Kamerasysteme - Kinect und Silicon Retina - mit der PCL korreliert und dargestellt werden.
Ergebnisse
Nach der Überarbeitung des Frameworks wurden zwei ereignisbasierte Stereo-Vision Algorithmen erweitert und integriert und ihre Funktion anhand erster Simulationen überprüft. Die Software für die Datenaufnahme wurde ebenfalls neu implementiert und kann wahlweise über eine GUI in C# oder über MATLAB gesteuert werden. Für die Darstellung der 3D-Punktwolken wurde eine Software basierend auf die PCL erstellt, wobei die Registrierung der 3D-Daten beider Kamerasysteme in einem nächsten Schritt erfolgen wird.