Studienprojekte
Eigene Ideen lassen sich gleich direkt im Studium verwirklichen. Mit den Studienprojekten entwickeln unsere Studierenden digitale Smart Systems aller Art in kleinen Teams mit 4 bis 6 Personen: selbstorganisierend, agil und crossfunctional.
Neben den eigenen Ideen unserer Studierenden kommen auch IT-Firmen mit spannenden Projektideen zu uns. So sammelt man nicht nur wichtige Praxiserfahrung sondern bekommt auch wertvolle Kontakte in die Wirtschaft.
Semantische Positionsbestimmung
Ein intelligentes System zur Lokalisierung und semantische Positionsbestimmung von Objekten
> mehr
Batteriemanagement-System
Batterie-Management-System basierend auf Einzelzell-Überwachung mit drahtloser Kommunikation, selbstversorgend und mit Funktechnik NFC.
> mehr
Digital Protocol Generator
Mit Software in C++ und Hardware (FPGA) definierte Kommunikationsschnittstellen wie SPI (Serial Peripheral Interface) testen
> mehr
Spydoor - Der Intelligente Türspion
Die intelligente Türklingel setzt auf künstliche Intelligenz, Computer Vision und Sprachausgabe und sagt uns, wer vor der Tür steht.
> mehr
Smart AI Sensor for Lane Detection
Fahrspurerkennung mittels Künstlicher Intelligenz in Hardware auf Basis eines programmierbaren Logikchips (FPGA).
> mehr
Smart Textiles
Entwicklung eines Testsystems für intelligente Textilien, um Stoffproben der Kleidungsindustrie auf Zug und Druck zu belasten.
> mehr
Digitales Notenblatt
Das richtige Notenblatt für jedes Musikstück - ganz einfach auf Knopfdruck.
> mehr
Tragbares Notrufsystem für Extremsportler
Prototyp-Entwicklung aus Hard- und Software für ein Satelliten-basiertes Notrufsystem.
> mehr
Autonomous Driving (Infineon)
Mit Radarsensoren, Kamerasystem und Steuerungssoftware zum selbstfahrenden Fahrzeug.
> mehr
Digitalfunkstrecke mit GNURadio
Signalverarbeitung mittels Open-Source-Software zur digitalen Übertragung von Audio und Video.
> mehr
Selfbalancing Stick
Sensorgesteuertes Pendel mit Neigungskorrektur und elektron. angesteuerte Schwungmassen.
> mehr
Digital Substation
Moderne Digitaltechnik für flexiblere Infrastruktur im Energiemanagement von Umspannwerken.
> mehr
Universellen Funkübertragung mittels SDR
Wie sich mit Software Defined Radio (SDR) verschiedene Funkstandards wie Wifi und LTE in einem Gerät integrieren lassen.
> mehr
Audio Signal Processing - System on Chip (SoC)
Signalverarbeitung am eigenen FPGA-Board in Hardware.
> mehr
SiRet6
Aufbauend auf vorangegangene Studienprojekte wird im Projekt SiRet6 ein bereits vorhandenes Prototyping-Framework für ereignisgesteuerte Stereo-Vision-Aglorithmen um weitere Verfahren zur Berechnung von Tiefenkarten ergänzt. Dabei werden nicht nur Stereo-Vision-Algorithmen sonderen auch Methoden zur Verbesserung der Qualität der Tiefenkarten entwickelt und an realistischen Messwerten untersucht und deren Echtzeitfähigkeit bewertet. Ein weiterer wichtiger Punkt ist die Verifikation der berechneten Tiefenkarten, wozu die aufgenommene Szene entsprechend vermessen werden muss. Dazu soll ein Microsoft-Kinect Sensor in das Framework integriert werden, der die Groundtruth-Daten generiert. Für die Verifikation müssen diese Daten mit den Event-Daten der Retinae abgeglichen werden, wofür ein Verfahren entwickelt wird, um die beiden Bilddatenströme zeitlich zu synchronisieren.
Ausgangssituation / Motivation / Einleitung
Ereignisbasierte Bildverarbeitung und hier speziell Stereo-Vision, ist Gegenstand einer Forschungskooperation zwischen dem Austrian Institute of Technologie (AIT), dem Software Competence Center Hagenberg (SCCH), der Universität Zürich (UZH und ETH) und den Studiengängen HSD und ESD. Im Unterschied zu herkömmlichen bildgebenden Sensoren liefert ein ereignisbasierter Sensor, eine Silicon-Retina, nur dann Daten, wenn die Intensität des Lichts in einem Pixel einen gewissen Schwellwert über- bzw. unterschreitet, d.h. es werden keine Bilder geliefert sondern lediglich Intensitätsänderungen (Events) zur Verfügung gestellt, wodurch die gelieferte Datenmenge variabel und in der Regel deutlich kleiner als bei normalen bildgebenden Sensoren ist. Daher werden diese Sensoren bei sehr zeitkritischen Anwendungen eingesetzt. Die Retinae die uns zur Verfügung stehen, haben eine Auflösung von 128x128 Pixeln und liefert eine durchschnittliche Datenmenge von 30 Mbit/s. Anhand dieser Event-Daten muss das Bild rekonstruiert und entsprechende Algorithmen realisiert werden. Im Fall eines Stereo-Vision-Systems wird eine Szene mit zwei Kameras von zwei unterschiedlichen Blickwinkeln aus aufgenommen. Dies ermöglicht die Berechnung räumlicher Information, wie z.B. Tiefenkarten bzw. die Entfernung von Objekten aus den Bilddaten.
Ziel
Im Projekt werden aufbauend ein bereits vorhandenes Prototyping-Framework, neue Verfahren und Methoden für Stereo-Vision Algorithmen unter Verwendung von Silicon Retina Sensoren entwickelt und an realistischen Messwerten untersucht, um deren Echtzeitfähigkeit zu bewerteten. Dazu wird zunächst eine Messkampagne mit dem bestehenden System geplant und durchgeführt. Anhand dieser Messdaten werden die neuen Algorithmen evaluiert und in das Prototyping Framework integriert, um sie einerseits zu analysieren und zu vergleichen und andererseits ihre Echtzeitfähigkeit zu untersuchen. Ein weiterer wichtiger Punkt ist die Verifikation der berechneten Tiefenkarten, wozu die aufgenommene Szene entsprechend vermessen werden muss. Dazu wird ein Microsoft Kinect Sensor in das Framework integriert, der die Tiefeninformation der Szene respektive die Groundtruth-Daten generiert. Für die Verifikation müssen diese Daten mit den Event-Daten der Retinae abgeglichen werden, wofür Algorithmen aus der Point Cloud Library (PCL) verwendet werden. Es wird ein Verfahren entwickelt, um die beiden Bilddatenströme zeitlich zueinander zu synchronisieren, damit die Daten auch vergleichen werden können.