Campus HagenbergInformatik, Kommunikation, Medien

Studienprojekte

Durch die Studienprojekte beginnt die Praxis schon im Studium. Wie im späteren Unternehmen entwickeln die Studierenden digitale Smart Systems aller Art in kleinen Teams mit 4 bis 6 Personen: selbstorganisierend, agil und crossfunctional.

Eigene Ideen unserer Studierenden sind hier genauso willkommen wie IT-Projekte von unseren Industriepartnern. So sammelt man nicht nur wichtige Praxiserfahrung sondern auch wertvolle Kontakte in die Wirtschaft.
 

SoC FPGA Copter

Ein Hexacopter mit programmierbarem Logik-Chip (FPGA)
> mehr
 

 


Pool Security

Moderne IT für die Absicherung gegen Unfälle in Swimmingpools
> mehr


 


Portable Escape Game

Die mobile Variante eines bekannten Escape-Games
> mehr


 


Smart Hydro

Die mikrocontrollergesteuerte Hydrokultur
> mehr


 


Theseus

Portable motion tracking ohne GPS-Unterstützung
> mehr


 


Phasertag Mobile

Das Laser Tag Game für Outdoor-Spaß in vollständiger Eigenentwicklung.
> mehr


 


Tragbares Notrufsystem für Extremsportler

Prototyp-Entwicklung aus Hard- und Software für ein Satelliten-basiertes Notrufsystem.
> mehr




Autonomous Driving (Infineon)

Mit Radarsensoren, Kamerasystem und Steuerungssoftware zum selbstfahrenden Fahrzeug.
> mehr
 

 


Digitalfunkstrecke mit GNURadio

Signalverarbeitung mittels Open-Source-Software zur digitalen Übertragung von Audio und Video.
> mehr
 

 


Selfbalancing Stick

Sensorgesteuertes Pendel mit Neigungskorrektur und elektron. angesteuerte Schwungmassen.
> mehr


Digital Substation

Moderne Digitaltechnik für flexiblere Infrastruktur im Energiemanagement von Umspannwerken.
> mehr


 


Open Home Automation System

Eine moderne Smart Home-Lösung mit openHAB auf Funkbasis.
> mehr


Modular Audio System

Die Audio-Anlage ganz im Eigenbau.
> mehr


Smart Machine Monitoring System

Condition Monitoring für Anlagen: vom Sensor bis zur Cloud.
> mehr



My Personal Body Trainer

Dein ganz persönlicher Fitness-Trainer auf dem Smartphone!
> mehr





USB-Datalogger

Hardware/Software-System zur Anaylse der USB-Kommunikation (FPGA und Linux).
> mehr


Universellen Funkübertragung mittels SDR

Wie sich mit Software Defined Radio (SDR) verschiedene Funkstandards wie Wifi und LTE in einem Gerät integrieren lassen.
> mehr


Audio Signal Processing - System on Chip (SoC)

Signalverarbeitung am eigenen FPGA-Board in Hardware.
> mehr


 

SiRet4

Zeitraum
Mar 2012 - Feb 2013
FH Studierende
Thomas Zöchbauer, Peter Hofstadler, Sebastian Barth, Manuel Buchinger
FH BetreuerIn
Dr.-Ing. habil. Hans-Georg Brachtendorf, DI (FH) Florian Eibensteiner
Themenfelder
Softwareentwicklung, Java-GUI Entwicklung, digitale Bildverarbeitung, MATLAB
Firma
Austrian Institute of Technologie (AIT), Software Competence Center Hagenberg (SCCH)
Projekt Website

Im Projekt SiRet4 wird ein, in einem vorangegangen Studienprojekt konzeptioniertes Prototyping-Framework für die Entwicklung von ereignisbasierten Stereo-Vision-Algorithmen, erweitert und verbessert um Verfahren und Algorithmen der Bildverarbeitung anhand realistischer Messwerten bzw. Aufnahmen zu untersuchen und deren Echtzeitfähigkeit zu bewerten. Die Verifikation der Ergebnisse dieser Stereo-Algorithmen ist ein wichtiger Punkt, daher werden die berechneten Tiefenkarten mit den Daten eines Referenzsystems, einer Microsoft Kinect, korreliert und so die Genauigkeit der entwickelten Stereo-Algorithmen überprüft. Dazu werden bekannte Verfahren aus der Point Cloud Library (PCL) verwendet.

Ausgangssituation / Motivation / Einleitung

In vielen Anwendungen in der Robotik, Industrie oder im Automotivbereich spielt Bildverarbeitung in Echtzeit eine große Rolle, wobei die algorithmische Komplexität und die großen Datenmengen die möglichst schnell verarbeitet werden müssen ein großes Problem darstellen. Im Unterschied zu herkömmlichen bildgebenden Sensoren liefert ein ereignisbasierter Sensor, eine Silicon-Retina, nur dann Daten, wenn in einem Pixel eine Änderung der Helligkeit detektiert wird, d.h. es werden keine Bilder geliefert sondern lediglich Intensitätsänderungen (Events) zur Verfügung gestellt, wodurch die gelieferte Datenmenge variabel und in der Regel deutlich kleiner und die Geschwindigkeit wesentlich höher ist als bei normalen bildgebenden Sensoren. Allerdings müssen Algorithmen zur Kantendetektion, Tiefenschätzung, oder Strukturerkennung an diese Eigenschaften entsprechend angepasst bzw. neu entwickelt werden um das Verhalten solcher ereignisgesteuerte Sensoren ausnutzen zu können.

Ziel

Vorrangiges Ziel war die Weiterentwicklung und Verbesserung des Prototyping-Frameworks in MATLAB hinsichtlich Bedienbarkeit (einfaches wechseln und konfigurieren der vorhanden Algorithmen über die GUI), eine einfache Schnittstelle für die Integration neuer Algorithmen und die Implementierung einer modularen Schnittstelle für die Anbindung verschiedener Silicon Retina Sensoren mit unterschiedlichen Datenformaten und Auflösungen, sowie die offline Simulation aufgenommener Datensätze und die Entwicklung von Funktionen zum Aufbereiten dieser Bilddaten (z.B. erstellen von kurzen Sequenzen). Zusätzlich wurde ein Konzept zur Verifikation der Tiefendaten erarbeitet, indem die 3D-Punktwolken beider Kamerasysteme - Kinect und Silicon Retina - mit der PCL korreliert und dargestellt werden.

Ergebnisse

Nach der Überarbeitung des Frameworks wurden zwei ereignisbasierte Stereo-Vision Algorithmen erweitert und integriert und ihre Funktion anhand erster Simulationen überprüft. Die Software für die Datenaufnahme wurde ebenfalls neu implementiert und kann wahlweise über eine GUI in C# oder über MATLAB gesteuert werden. Für die Darstellung der 3D-Punktwolken wurde eine Software basierend auf die PCL erstellt, wobei die Registrierung der 3D-Daten beider Kamerasysteme in einem nächsten Schritt erfolgen wird.