Campus HagenbergInformatik, Kommunikation, Medien

Studienprojekte

Durch die Studienprojekte beginnt die Praxis schon im Studium. Wie im späteren Unternehmen entwickeln die Studierenden digitale Smart Systems aller Art in kleinen Teams mit 4 bis 6 Personen: selbstorganisierend, agil und crossfunctional.

Eigene Ideen unserer Studierenden sind hier genauso willkommen wie IT-Projekte von unseren Industriepartnern. So sammelt man nicht nur wichtige Praxiserfahrung sondern auch wertvolle Kontakte in die Wirtschaft.
 

SoC FPGA Copter

Ein Hexacopter mit programmierbarem Logik-Chip (FPGA)
> mehr
 

 


Pool Security

Moderne IT für die Absicherung gegen Unfälle in Swimmingpools
> mehr


 


Portable Escape Game

Die mobile Variante eines bekannten Escape-Games
> mehr


 


Smart Hydro

Die mikrocontrollergesteuerte Hydrokultur
> mehr


 


Theseus

Portable motion tracking ohne GPS-Unterstützung
> mehr


 


Phasertag Mobile

Das Laser Tag Game für Outdoor-Spaß in vollständiger Eigenentwicklung.
> mehr


 


Tragbares Notrufsystem für Extremsportler

Prototyp-Entwicklung aus Hard- und Software für ein Satelliten-basiertes Notrufsystem.
> mehr




Autonomous Driving (Infineon)

Mit Radarsensoren, Kamerasystem und Steuerungssoftware zum selbstfahrenden Fahrzeug.
> mehr
 

 


Digitalfunkstrecke mit GNURadio

Signalverarbeitung mittels Open-Source-Software zur digitalen Übertragung von Audio und Video.
> mehr
 

 


Selfbalancing Stick

Sensorgesteuertes Pendel mit Neigungskorrektur und elektron. angesteuerte Schwungmassen.
> mehr


Digital Substation

Moderne Digitaltechnik für flexiblere Infrastruktur im Energiemanagement von Umspannwerken.
> mehr


 


Open Home Automation System

Eine moderne Smart Home-Lösung mit openHAB auf Funkbasis.
> mehr


Modular Audio System

Die Audio-Anlage ganz im Eigenbau.
> mehr


Smart Machine Monitoring System

Condition Monitoring für Anlagen: vom Sensor bis zur Cloud.
> mehr



My Personal Body Trainer

Dein ganz persönlicher Fitness-Trainer auf dem Smartphone!
> mehr





USB-Datalogger

Hardware/Software-System zur Anaylse der USB-Kommunikation (FPGA und Linux).
> mehr


Universellen Funkübertragung mittels SDR

Wie sich mit Software Defined Radio (SDR) verschiedene Funkstandards wie Wifi und LTE in einem Gerät integrieren lassen.
> mehr


Audio Signal Processing - System on Chip (SoC)

Signalverarbeitung am eigenen FPGA-Board in Hardware.
> mehr


 

SiRet6

Zeitraum
Mar 2013 - Feb 2014
FH Studierende
Gross FlorianInel CristianSchmoigl MathiasVorhemus PaulVorhemus PeterZeugswetter Robert
FH BetreuerIn
Dr.-Ing. habil. Hans-Georg Brachtendorf, DI (FH) Florian Eibensteiner
Themenfelder
Softwareentwicklung, Bildverarbeitung mit MATLAB
Firma
Austrian Institute of Technologie (AIT), Software Competence Center Hagenberg (SCCH)

Aufbauend auf vorangegangene Studienprojekte wird im Projekt SiRet6 ein bereits vorhandenes Prototyping-Framework für ereignisgesteuerte Stereo-Vision-Aglorithmen um weitere Verfahren zur Berechnung von Tiefenkarten ergänzt. Dabei werden nicht nur Stereo-Vision-Algorithmen sonderen auch Methoden zur Verbesserung der Qualität der Tiefenkarten entwickelt und an realistischen Messwerten untersucht und deren Echtzeitfähigkeit bewertet. Ein weiterer wichtiger Punkt ist die Verifikation der berechneten Tiefenkarten, wozu die aufgenommene Szene entsprechend vermessen werden muss. Dazu soll ein Microsoft-Kinect Sensor in das Framework integriert werden, der die Groundtruth-Daten generiert. Für die Verifikation müssen diese Daten mit den Event-Daten der Retinae abgeglichen werden, wofür ein Verfahren entwickelt wird, um die beiden Bilddatenströme zeitlich zu synchronisieren.

Ausgangssituation / Motivation / Einleitung

Ereignisbasierte Bildverarbeitung und hier speziell Stereo-Vision, ist Gegenstand einer Forschungskooperation zwischen dem Austrian Institute of Technologie (AIT), dem Software Competence Center Hagenberg (SCCH), der Universität Zürich (UZH und ETH) und den Studiengängen HSD und ESD. Im Unterschied zu herkömmlichen bildgebenden Sensoren liefert ein ereignisbasierter Sensor, eine Silicon-Retina, nur dann Daten, wenn die Intensität des Lichts in einem Pixel einen gewissen Schwellwert über- bzw. unterschreitet, d.h. es werden keine Bilder geliefert sondern lediglich Intensitätsänderungen (Events) zur Verfügung gestellt, wodurch die gelieferte Datenmenge variabel und in der Regel deutlich kleiner als bei normalen bildgebenden Sensoren ist. Daher werden diese Sensoren bei sehr zeitkritischen Anwendungen eingesetzt. Die Retinae die uns zur Verfügung stehen, haben eine Auflösung von 128x128 Pixeln und liefert eine durchschnittliche Datenmenge von 30 Mbit/s. Anhand dieser Event-Daten muss das Bild rekonstruiert und entsprechende Algorithmen realisiert werden. Im Fall eines Stereo-Vision-Systems wird eine Szene mit zwei Kameras von zwei unterschiedlichen Blickwinkeln aus aufgenommen. Dies ermöglicht die Berechnung räumlicher Information, wie z.B. Tiefenkarten bzw. die Entfernung von Objekten aus den Bilddaten.

Ziel

Im Projekt werden aufbauend ein bereits vorhandenes Prototyping-Framework, neue Verfahren und Methoden für Stereo-Vision Algorithmen unter Verwendung von Silicon Retina Sensoren entwickelt und an realistischen Messwerten untersucht, um deren Echtzeitfähigkeit zu bewerteten. Dazu wird zunächst eine Messkampagne mit dem bestehenden System geplant und durchgeführt. Anhand dieser Messdaten werden die neuen Algorithmen evaluiert und in das Prototyping Framework integriert, um sie einerseits zu analysieren und zu vergleichen und andererseits ihre Echtzeitfähigkeit zu untersuchen. Ein weiterer wichtiger Punkt ist die Verifikation der berechneten Tiefenkarten, wozu die aufgenommene Szene entsprechend vermessen werden muss. Dazu wird ein Microsoft Kinect Sensor in das Framework integriert, der die Tiefeninformation der Szene respektive die Groundtruth-Daten generiert. Für die Verifikation müssen diese Daten mit den Event-Daten der Retinae abgeglichen werden, wofür Algorithmen aus der Point Cloud Library (PCL) verwendet werden. Es wird ein Verfahren entwickelt, um die beiden Bilddatenströme zeitlich zueinander zu synchronisieren, damit die Daten auch vergleichen werden können.