EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering...

92
Die Diplomarbeitspräsentation der Fakultät für Informatik Wintersemester 2012 EPILOG

Transcript of EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering...

Page 1: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

Die Diplomarbeitspräsentation derFakultät für Informatik

Wintersemester 2012

EPILOG

Page 2: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

Diese Veranstaltung der Fakultät für Informatik wird unterstützt von

Page 3: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

EPILOG

Diplomarbeitspräsentation

Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der Abschlussarbeiten an der Fakultät für Informatik werden jedes Semester beim EPILOG präsentiert. In einer Posterausstellung sowie in ausgewählten Vorträgen präsentieren die AbsolventInnen der Fakultät ihre Projekte und stellen sich der Diskussion mit den Anwesenden. Der EPILOG als Plattform für die Präsentation hervorragender Abschlussarbeiten dient gleichzeitig dem Austausch über die aktuelle wissenschaftliche Forschung in den unterschiedlichen Bereichen der Informatik.

Auszeichnungen und Preise

Die Fakultät für Informatik vergibt den mit 2.000 Euro dotierten „Distinguished Young Alumna/Alumnus“-Award. Beurteilungskriterien sind die Qualität der Diplomarbeit sowie des gehaltenen Vortrags. Zudem wird das beste Poster aller beim EPILOG anwesenden AutorInnen mit dem 1.000 Euro dotierten „Best Poster“-Award ausgezeichnet. Die Jury setzt sich aus Professorinnen und Professoren der Fakultät zusammen. Jedes Institut ist durch mindestens ein Jurymitglied vertreten.

Zusätzlich werden spezielle „Förderpreise“ vergeben: Eine Diplomarbeit wird von der Austria Section des Institute of Electrical and Electronics Engineers (IEEE) mit dem „Diploma Thesis Award sponsored by IEEE Austria Section“ in der Höhe von 500 Euro ausgezeichnet. Die Bank Austria vergibt den Firmenpreis „Poster-Award sponsored by Bank Austria“ in der Höhe von 1.000 Euro an ein weiteres Poster.

Page 4: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

2

Programm 29. November 2012

15:00 Eröffnung der Posterausstellung

16:00 Begrüßung und Einleitung

Gerald Steinhardt, Dekan der Fakultät für Informatik, TU Wien

Johannes Fröhlich, Vizerektor für Forschung, TU Wien

16:15 Vorträge zu den nominierten Diplomarbeiten

17:15 [!INF]inite Graphics: Computerspiele und Demos aus der

Computergraphiklehre

Reinhold Preiner

Institut für Computergraphik und Algorithmen, TU Wien

17:45 Vergabe der Auszeichnungen an die AbsolventInnen

Page 5: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

3

Vorträge zu den nominierten Diplomarbeiten

Ronald de Haan

Description Logic Based Reasoning on Programming Languages

Institut für Computersprachen, Arbeitsbereich Theoretische Informatik und Logik

Abstract der Diplomarbeit siehe Seite 35

Jasmin Grosinger Agile Life: Persuasive Touch Interface Technology for Enhancing Older Adults‘

Levels of Physical Activity

Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Human Computer Interaction

Abstract der Diplomarbeit siehe Seite 21

Michael Hecher A Comparative Perceptual Study of Soft Shadow Algorithms

Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik

Abstract der Diplomarbeit siehe Seite 29

Andreas Lehrbaum A New Hyperheuristic Algorithm for Cross-Domain Search Problems

Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence

Abstract der Diplomarbeit siehe Seite 46

Page 6: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

4

Page 7: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

5

DIPLOMARBEITEN

Institute der Fakultät für Informatik

Institut für Softwaretechnik und Interaktive Systeme ......................................... 7

Arbeitsbereich E-Commerce.......................................................................... 7

Arbeitsbereich Business Informatics ............................................................ 11

Arbeitsbereich Interactive Media Systems .................................................... 11

Arbeitsbereich Information & Software Engineering ..................................... 16

Institut für Gestaltungs- und Wirkungsforschung ............................................. 21

Arbeitsbereich Human Computer Interaction ................................................ 21

Arbeitsbereich Multidisciplinary Design ........................................................ 23

Institut für Computergraphik und Algorithmen ................................................ 26

Arbeitsbereich Bildverarbeitung und Mustererkennung ................................. 26

Arbeitsbereich Computergraphik ................................................................. 28

Arbeitsbereich Algorithmen und Datenstrukturen ......................................... 30

Institut für Computersprachen ...................................................................... 35

Arbeitsbereich Theoretische Informatik und Logik ........................................ 35

Arbeitsbereich Programmiersprachen und Übersetzer ................................... 38

Institut für Informationssysteme ................................................................... 41

Arbeitsbereich Formal Methods in Systems Engineering ................................ 42

Arbeitsbereich Knowledge Based Systems ................................................... 43

Arbeitsbereich Database and Artificial Intelligence ....................................... 44

Arbeitsbereich Distributed Systems ............................................................. 47

Institut für Rechnergestützte Automation ....................................................... 53

Arbeitsbereich Computer Vision ................................................................. 53

Arbeitsbereich Automatisierungssysteme ..................................................... 57

Page 8: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

6

.

Institut für Technische Informatik .................................................................. 67

Arbeitsbereich Embedded Computing Systems ............................................ 67

Arbeitsbereich Real Time Systems ............................................................... 67

Andere Institute der TU Wien

Institut für Computertechnik ........................................................................ 69

Institut für Energiesysteme und Elektrische Antriebe ........................................ 72

Institut für Managementwissenschaften ......................................................... 73

Institut für Konstruktionswissenschaften und Technische Logistik ...................... 75

Department für Raumentwicklung, Infrastruktur- und Umweltplanung ................ 76

Institut für Wirtschaftsmathematik ................................................................. 77

Institut für Analysis und Scientific Computing ................................................. 79

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien ......................................................................................... 81

Page 9: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

7

Institut für Softwaretechnik und Interaktive Systeme

Arbeitsbereich E-Commerce

Max Angerbauer Web-basierte Dokumentation von Street Art Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl Street Art is a common sight in urban areas. Albeit there are questions about the le- gality of this art form there is still a large group of people who are enthusiastic about it. A multitude of websites revolves around Street Art and its practitioners. In combination with a widespread availability of digital photography the documentation of Street Art is happening on a large scale across the Web. The use of new generation mobile devices enables a new form of providing additional metadata for use with digital image collections. Embedding geographical data within digital images opens up new possibilities of generating context in the documentation of Street Art. This document examines the use of modern smartphones in the creation of digital image collections. The capabilities of new generation mobile phones can greatly enhance the caption and transmission of data in a system and help create better collections of digital images. To demonstrate and to find possible ways to implement this a webapplication called Street Art Places was created. To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found in close vicinity to each other. These areas can be seen as art galleries in the public space. The integration of the Twitter service provides further possibilities for the use of mobile phones with digital image collections. Twitter can be used to transmit data to a web application and to share content from it back to other services.

Jörg Dubsky Opinion Mining: Sentiment Analysis for Cultural Institutions Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl Die stetig wachsende Verbreitung von sozialen Netzwerken im Internet und die damit einhergehende aktive Beteiligung der Menschen, führte zu einem starken Anstieg des sogenannten user-generated content. Internetnutzer veröffentlichen und teilen neben persönlichen Informationen auch ihre Erfahrungen und Meinung über verschiedenste Themen. Dies gilt natürlich auch für kulturelle Institutionen. Museen und deren Ausstellungen werden aus vielerlei Gesichtspunkten beurteilt und rezensiert. Diese Informationen stellen einen wichtigen Aspekt bei dem menschlichen Entscheidungsprozess dar. In der heutigen Zeit nutzen viele Menschen das Internet um schnellst

Page 10: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

8

möglichst Erfahrungsberichte zu erhalten. Die Meinung anderer kann folglich die Wahl des zu besuchenden Museums stark beeinflussen. Um eine möglichst vollständige und objektive Meinung mehrere Menschen zu erhalten, ist eine Vielzahl von Rezessionen notwendig. Jedoch ist das Suchen und Lesen eine anstrengende und zeitintensive Aufgabe. Um diesen Prozess für den Menschen zu vereinfachen, werden sogenannten Sentiment Analysis Systeme verwendet. Dabei werden in Textdokumenten automatisiert subjektive Meinungen extrahiert. Das gesamte Dokument, einzelne Sätze innerhalb eines Dokumentes oder einzelne Aspekte innerhalb von Sätzen können gefiltert und bewertet werden. Diese Masters Thesis entwickelt ein Feature-based Sentiment Analysis Model für kulturelle Institutionen. Dabei werden deutschsprachige Textdokumente aus verschiedensten sozialen Netzwerken und Online-Communitys analysiert. Dabei werden zunächst besprochene Aspekte von Museen (z.B. Ausstellungen, Eintrittspreis, etc.) extrahiert. Anschließend werden die dazugehörigen, subjektiven Meinungen (positiv, neutral, negativ) bestimmt. Zur Automatisierung verwendet das konzipierte System Algorithmen aus dem Bereich des maschinellen Lernens und ein selbstgenerierendes Opinion Lexikon. Der entwickelte Prototyp visualisiert die extrahierten Themen mittels Diagrammen.

Hermann Huber Maschinelle Wissensgenerierung in der Kunstgeschichte Studium: Masterstudium Information & Knowledge Management Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl We are drowning in information and starved for knowledge. John Naisbitt once used this phrase to point out, that the massive amount of daily produced information in its unprocessed state is hardly useful. Manual investigation, aggregation, interpretation and suitable presentation is needed to produce a valuable good: knowledge. The thesis deals with the question to what extent the publicly available information on the internet can be used to gain new useful knowledge, using the example of art history. Methodologies of Text Mining and Natural Language Processing are used to link two controlled vocabularies, so-called thesauri. The Union List of Artist Names (ULAN) comprises information about more than 200.000 artist from antiquity to the present. Unfortunately the thesaurus does not specify the art-historical style of the respective persons. The implemented prototype ARTMiner uses the knowledge bases DBpedia and Freebase to extract person-specific information and derives the appropriate movement. In order to adhere to the principles of linked data, the literal movement string is mapped the according concept in the Art & Architecture Thesaurus (AAT). The evaluated results show a high degree of validity and consistency. During the mining process, a FOAF-like network of influential artists was generated, which could be used for further link analysis. Additionally, a thesaurus-supported keyword extraction procedure on the basis of part-of-speech tagging was developed.

Page 11: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

9

Katharina Krombholz-Reindl Reflections on Privacy Considerations in Social Media Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl Social networks (SNs) have become increasingly popular in the recent years. Platforms such as e.g.Facebook, Google+ or Twitter offer features for self-presentation and communication and many more. Social networks are criticized for their data security and privacy regulations and can be misused for stalking, mobbing, hacking or identitytheft. In social media, users share all kinds of different content, sometimes containing sensitive information. Privacy has become a weak point in SNs. Sensitive information can be leaked by the platform, third parties or even the user herself. Privacy attitudes are not always overlapping the actual disclosure behaviors, therefore sensitive information can be leaked unconsciously. In this work, we discuss privacy related issues in social media and analyze how Facebook users perceive privacy and what strategies they use to protect their privacy. Furthermore we identify weak spots and discuss possible solutions. Millions of users in SNs are connected through online relationships. But is every Facebook profile really maintained by a real human-being? Most users have large friend lists and sometimes dont even know who they are friends with. Attackers often use fake profiles to infiltrate friendship networks and harvest user data. In this work, we determine factors that influence a user to become friends with a fake profile, still believing that they know each other for real. When conducting our research, we examined Facebook users privacy protection strategies and described the actual privacy behavior. We studied factors that make social engineering attacks in social networks successful. We phrased research questions and used three different research methods. We conducted a survey to gather quantitative data and focus groups to get a deeper understanding by collecting and analyzing qualitative data. To determine factors for success of infiltrating profiles on Facebook we conducted a comprehensive social engineering experiment.

Jinze Li Service Composition Using Knowledge Based Planning Systems Studium: Masterstudium Information & Knowledge Management Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn Die Erstellung der wertschöpfenden Dienste durch Zusammensetzung atomarer Serviceeinhei- ten hat bisher an großer Dynamik gewonnen. Der Schwerpunkt der jüngsten Versuche der Service- Komposition liegt in der Beschreibung atomarer Service aus beiden syntaktischen und semanti- schen Aspekten und der Anwendung von Web-service als Übergabesmethode. Diese Arbeit be- fasst sich mit dem Kompositionsproblem durch künstliche intelligente Plannungstechniken und argumentiert die Verwendung von Domäne-Wissen für Representation von Service-Resourcen. Zu diesem Zweck

Page 12: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

10

müssen die Methoden des Wissensengineerings für die Bereitstellung reich- haltiger Wissensmodelle zum Lösen der Planungsprobleme im realen Leben verwendet werden. Verschiedene Planungsparadigmen werden im Hinblick auf Eignung für die Lösung von Pla- nungsaufgaben diskutiert. In der Arbeit wird eine konkrete Wissensdomäne als Planungsdomä- ne konstruiert um den wissensbasierten Ansatz zu demonstrieren. Jedes atomare Service in der Do-mäne wird mit Voraussetzungen und Ergebnissen angegeben. Basierend auf der Wissensdomäne, ist ein Planungssystem in der Lage, ein zusammen-gesetztes Service zu generieren, das die benutzerdefinierten Präferenzen und Ziele erfüllt. Zusammen mit der Domäne wird ein Prototyp eines Servicesys-tems mit dem Planungssystem integriert entwickelt, um die praktische Anwen-dung der wissensbasierten Planungsaufgaben zu fördern. Eine Wissensbasis dient als Domain-Repository, das in Web zugegriffen werden kann. Das Sys-tem zusammen mit der konstruierten Wissensdomäne wurde erfolgreich ge-testet und auf beiden funktionalen und nichtfunktionalen Ebenen bewertet.

Martin Sadauskas Website Quality Monitoring for Destination Management Systems Studium: Masterstudium Information & Knowledge Management Betreuer: Univ.Prof. Dr. Hannes Werthner Entwicklung der Informationstechnologien und deren Integration in den Alltag von Millionen von Menschen hat großen Einfluss auch auf die Tourismusbranche. Es gibt mehr und mehr tourismusorientierten Websites, die den Touristen und Reisenden helfen ihre Entscheidungen zu treffen. Schlechte Gestaltung und Inhalte der Website können zu großen Verlust an potenziellen Verkäufen und potenziellen wiederholten Besuchen führen. Der beste Weg, um dies zu verhindern ist die regelmäßige Überprüfung der Website-Qualität nach vorgegebenen Kriterien und weitere Verbesserungen aufgrund deren Ergebnisse. Verschiedene Arten von Websites haben unterschiedliche Qualitätskriterien sowie unterschiedliche Unterteilung der Wichtigkeit über diese. Für jede Art gibt es leider nur eine Handvoll von Forschungsarbeiten. Darüber hinaus erfüllen die meisten der vorgeschlagenen Evaluationsmethoden nicht die Kriterien für regelmäßige Evaluierung. In dieser Arbeit entwickeln wir eine Methode für die Längsüberwachung der Qualität der Website eines Destination Management Systems (DMS). Es wurden Artikel über Qualitätsbewertung der Tourismus-Websites evaluiert, diese wurden in eine Anzahl von Qualitätskriterien synthetisiert und weiterhin in das aktualisierte DeLone und McLean IS Success Model sortiert. Anschließend wurden die Gewichte der einzelnen Faktoren durch Anwendung der Analytical Hierarchy Process bestimmt. Danach wurd ein Werkzeug für Auswertung und Überwachung der Surveys vorgestellt und implementiert. Die Anwendung wurde zweimal getestet, zusammen mit der Methode zur Bewertung der Qualität der DMS Website, an finnischen und slowakischen nationalen Tourismus-Portalen, mit einem Intervall von einem Monat. Die Ergebnisse zeigten, dass das Tool korrekt funktioniert und dass es Potenzial für weitere Verwendung hat.

Page 13: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

11

Arbeitsbereich Business Informatics

Tobias Graf Design and Conception of an ERP System for SMEs Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Dr. Christian Huemer In today's business world, enterprise resource planning (ERP) systems are essential for larger enterprises to conduct their business. ERP solutions fulfill several tasks in companies, including the management of resources, sales, warehouse, employees, and accounting. Since even small and medium enter-prises (SMEs) can gain profits using them, ERP solutions especially for those are developed. The main difference between them is the reduced complexity of ERP software for SMEs. Since about 98% of all Austrian companies have less than 50 employees, the market for appropriate ERP systems is large. Those statistics also apply to the entire European Union. Many SMEs do not work with an ERP system yet, but instead use Microsoft Excel and send busi-ness documents via email. Another reason for a basic ERP system is that e-In-voicing is becoming more and more essential for SMEs. Larger enterprises are already using e-Invoicing for many years, but smaller enterprises lack the technical requirements. Most electronic data interchange (EDI) standards are too complex and the software is too expensive. Therefore a cheap and easy to use approach for SMEs to exchange business documents is desirable. The Vienna University of Technology project "`E-business Registry Permitting Enterprise Liaisons"' (ERPEL) fulfills those requirements. In order to motivate even small companies without any ERP system in use to partake, a basic ERP system is needed. A self-made solution is built especially including messaging, instead of adopting an existing open source ERP system.

Arbeitsbereich Interactive Media Systems

Alexander Fried Interaktive Analyse audiovisueller Medien Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Horst Eidenberger Medienverstehen ist der Versuch, Computern menschenartiges Erkennen von Medien unterschiedlicher Art zu ermoglichen. Diese Arbeit beschaftigt sich mit drei Themenbereichen aus diesem Gebiet: der Ähnlichkeitsberechnung von Gesichtern, der Objekterkennung (im Speziellen der Korperteilerkennung) und der Spracherkennung. Diese drei Themengebiete wurden in Applika-tionen praktisch umgesetzt. Die Absicht dieser Demoanwendungen besteht darin, die Praxisbezogenheit des Medienverstehens zu verdeutlichen. Die für die Umsetzung erforderlichen Methoden werden im theoretischen Teil dieser Diplomarbeit beschrieben. In diesem Abschnitt wird argumentiert, warum die-

Page 14: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

12

se Methoden fur die Implementierung geeignet sind, wobei Bezug auf ver-wandte Arbeiten genommen wird. Die erste Demoanwendung verdeutlicht Ähnlichkeitsmessung zwischen Gesichtern. Als Methode der Ähnlichkeits-berechnung wird Template Matching verwendet. In der zweiten Anwendung werden die mit der Webcam aufgenommenen Korperteile erkannt. Hier wird eine lokale Featureextraktionsmethode verwendet. Für die Klassifizierung wird u. a. eine probabilistische Methode herangezogen. Die dritte Applikation er-möglicht sprachliche Interaktion mit dem Computer. Der Benutzer erhält die Aufforderung, den Laut eines vorgegebenen Tieres nachzumachen, das Sys-tem soll uberprufen, ob es sich um das richtige Tier handelt. Genauso gut kann jedoch auch eine Frage gestellt werden, auf die der Benutzer mit dem Tiernamen antworten muss. In der Implementierung werden spektrale Fea-tures verwendet, die anhand eines geeigneten Klassifikators analysiert wer-den. Alle drei Applikationen beweisen, dass Medienverstehen erfolgreich implementiert werden kann.

Roman Gerger Automated Classification of Paintings Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Horst Eidenberger This thesis deals with the automated classification of paintings against the painting styles cubism, expressionism, impressionism, pointillism and renais-sance painting by the means of a prototypical proof of concept system. A fea-ture set has been developed which covers a wide range of feature extraction approaches such as edge-based, frequency-based or color-based features. Some approaches have been adopted from other research project where they have been applied on related problems. The classification of a painting for a human is a highly emotional and intuitive process. As a consequence it is dif-ficult to operationalize and it contains a certain amount of unpredictability. And indeed, it has turned out that some of the developed features behave as intended whereas others behave against intuition and expectation. It is, how-ever, just this unpredictability which makes the underlying classification prob-lem interesting. In order to find the best parameter tuple for each feature they have been optimized on a training set of 1000 images. In order to inves-tigate how far the optimized feature set is reducible a principle component analysis has been applied on it. Succeeding the feature optimization stage the classification algorithms C4.5 - decision tree, random forest, naive bayes, multilayer perceptron and k-nearest neighbor have been applied on the fea-ture set. As it has been done in the feature optimization stage, a wide range of parameter tuples have been tested for each classification algorithm where-as a stratified 10 x 10 cross validation on the training set has been used as the measurement for the classification performance. The classifier which has shown the best results in the cross validation test has been used to classify an independent test set of 200 images. By this means it could be shown that the classification task can be solved in this particular domain. Further, it could be shown that the related retrieval problem is also worth investigating.

Page 15: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

13

Elias Hiller Zeitlich konsistente Disparitätsbestimmung in einem globalen Stereo Matching Verfahren Studium: Masterstudium Medieninformatik Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz Durch die in den letzten Jahren besonders populär gewordene 3D Techno-logie werden Filme durch eine zusätzliche Dimension erweitert: die Tiefe. Allerdings ergeben sich mit dieser Technologie auch gänzlich neue Probleme. Einerseits werden zusätzliche Hilfsmittel, wie etwa Brillen, benötigt und an-dererseits wird der 3D Effekt oft falsch eingesetzt, was zu Unbehagen oder gar Kopfschmerzen führen kann. Dieser falsche Einsatz macht es häufig erfor-derlich, den oftmals zu groß gewählten Disparitätsbereich durch digitale Nachbearbeitung an das Ausgabemedium anzupassen. Dabei spielt zeitliche Konsistenz eine wichtige Rolle, da es ansonsten wiederum zu visuell stören-den Effekten kommen kann. Im Zuge dieser Diplomarbeit werden zwei Ver-fahren vorgestellt, welche zeitliche Konsistenz in einem bestehenden global-en Stereo Matching Verfahren realisieren. Das erste Verfahren erreicht eine zeitliche Konsistenz mittels raum-zeitlicher Kostenaggregation im lokalen Teil des Stereo Matchers. Alternativ dazu ermöglicht das zweite Verfahren durch Filtern der Zuweisungskosten auf Basis der vorangegangenen Disparitätskarte eine stärkere Einbindung von zeitlicher Information in den Stereo Matching Prozess. Die Ausarbeitung sowie Gegenüberstellung beider Verfahren erlaubt einen ganzheitlichen Einblick in die Materie. Mithilfe einer abschließenden Einführung in die Thematik der Grafikkartenoptimierung werden zudem Lösungen vorgestellt, um rechnerisch aufwändigere Segmente der vorgestellten Algorithmen zu optimieren.

Viktoria Nake Integration von automatischer Shoterkennung und Disparitätsabschätzung in ein Stereo Matching Framework Studium: Masterstudium Informatikmanagement Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz Zwei parallel ausgerichtete Kameras nehmen je ein zweidimensionales Bild auf. Die korrespondierenden Bilder haben aufgrund des Horizontalabstandes der Kameras leicht unterschiedliche Perspektiven. Dies wird genützt, um die Tiefeninformation zu berechnen. Eine Disparitätskarte wird oft als Grau-wertbild dargestellt und gibt über die Tiefenanordnung der Objekte im Raum Auskunft. Im Bereich autostereoskopischer Bildschirme kommen Disparitäts-karten häufig zum Einsatz, um den Inhalt dreidimensional darzustellen und um neue Ansichten (Novel Views) zu generieren. Ziel dieser Arbeit ist, einen bereits bestehenden Stereomatching-Ansatz, der bisher manuelle Interaktion benötigte, vollständig zu automatisieren. Dafür wird zunächst eine automa-tische Shoterkennung erstellt, wobei unterschiedliche Verfahren implemen-tiert werden: Color Histogram Difference und Edge Change Ratio. Danach

Page 16: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

14

wird evaluiert, welches Verfahren (bzw. Kombination) mit welchen Parametern zu den besten Ergebnissen führt. Da nun die, zu einem Shot gehörigen, Fra-mes bekannt sind, ist es möglich, die minimale/maximale Disparität eines Shots abzuschätzen. Aus Aufnahmen mit unterschiedlichen Stereo-Setups werden drei Testsequenzen erstellt. Die Setups reichen von zwei handels-üblichen Consumer-Kameras über eine Mittelklasse-Stereokamera, bis hin zu professionellen Studiokameras. Ein Vergleich dieser Setups wird angestellt und die Auswirkung der unterschiedlichen Setups auf die Testergebnisse fest-gestellt. Die Ergebnisse der automatischen Shoterkennung und Disparitäts-abschätzung werden mit manuell ermittelten Ergebnissen überprüft. Abschlie-ßend werden die Ergebnisse der Arbeit evaluiert und zusammengefasst.

Philipp Presle A Virtual Dressing Room based on Depth Data Studium: Masterstudium Medieninformatik Betreuer: Privatdoz. Dr. Hannes Kaufmann Many of the currently existing Virtual Dressing Rooms are based on diverse approaches. Those are mostly virtual avatars or fiducial markers, and they are mainly enhancing the experience of online shops. The main drawbacks are the inaccurate capturing process and the missing possibility of a virtual mirror, which limits the presentation to a virtual avatar. By utilizing depth cameras like the Microsoft Kinect it becomes possible to track the movements of a body, extract body measurements and furthermore create a virtual mirror with the corresponding video stream. The video image can be merged with a piece of clothing frame by frame. The project is implemented in Unity, a programming environment for 3D applications. OpenNI and the NITE middleware are used for various fundamental functions and for the tracking process in combination with the Microsoft Kinect. Taking a closer look at the results, several 3D cloth models were created and textured. The pieces of garment are based on a female 3D model. The clothes are adapted to the body of the user in front of the Kinect during runtime. In addition, cloth physics are taking care of a realistic representation. Furthermore trying on clothes in front of different backgrounds and surroundings (e.g. at night) shall be possible. Also a lot of value is placed on the interaction aspects of the Virtual Dressing Room.

Sabine Stransky Evaluierung eines nichtlinearen Disparitätsmapping Ansatzes zur Anpassung von Stereo 3D Inhalten Studium: Masterstudium Medieninformatik Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz Bei der Produktion von hochqualitativen 3D Filmen mittels Stereokameras stehen Filmschaffende oft vor der Herausforderung, eine Veränderung des 3D Tiefeneindrucks in der Post-Produktion durchführen zu müssen, um ein

Page 17: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

15

angenehmes Tiefenerlebnis auf unterschiedlich großen Bildschirmen zu erhalten. Ziel dieser Arbeit ist es, ein Verfahren zur nachträglichen Korrektur des Tiefeneindrucks mittels des in Nonlinear Disparity Mapping [Lang et al. 2010] vorgestellten Ansatzes zu untersuchen. Im ersten Schritt erfolgt eine Literaturrecherche über verschiedene Methoden zur Anpassung der Tiefenparameter für stereoskopische Filminhalte. Dabei wird auf Methoden zur tiefenbasierten Generierung von stereoskopischen 3D Ansichten und auf die damit verbundenen Probleme eingegangen. Die Methode für Nonlinear Disparity Mapping [Lang et al. 2010] wird im Detail vorgestellt. Im Weiteren wird ein Datensatz an Testbildern zusammengestellt und eschrieben. Dieser Datensatz wird anschließend zur Evaluierung der Methode mittels einer Benutzerstudie verwendet. In dieser subjektiven Evaluierung werden unterschiedliche Fragestellungen bei verschiedenen Kamerapositionen und Tiefeneinstellungen untersucht. Die Arbeit hat nach Auswertung der durchgeführten Usertests ergeben, dass eine Anpassung der Tiefenparameter mit der untersuchten Methode möglich st, dass dies aber für externe Kamerapositionen in Bezug auf das Auftreten von unbeabsichtigten Artefakten in der Szene eine Verschlechterung darstellt.

Mathäus Zingerle Augmented Reality Video - Situated Video Compositions in Panorama-based Augmented Reality Applications Studium: Masterstudium Medieninformatik Betreuer: Privatdoz. Dr. Hannes Kaufmann Die rasante Entwicklung von mobilen Geraten wie Smartphones hat zu neuen Moglichkeiten im Bereich von Mobile Augmented Reality (AR) gefuhrt. Obwohl es bereits eine Vielzahl an AR Anwendungen gibt, die die Integration von statischem Inhalt (z.B. Text) erlauben, besteht noch immer ein Mangel an mobilen AR Anwendungen, welche die Integration von dynamischen Inhalten (z.B. Video) ermoglichen. In dieser Arbeit wird ein neuartiger Ansatz prasentiert, welcher es erlaubt an einem Interessenspunkt aufgenommenes Videomaterial an derselben ortlichen Stelle wiederzugeben, so dass die Live-Ansicht einer realen Umgebung mit diesem Videomaterial uberlagert wird, unter Berucksichtigung des aktuellen Blickwinkels des Benutzers auf die betrachtete Stelle. Das vorgestellte System benutzt einen Tracker, welcher auf einem Umgebungspanorama basiert, um eine raumliche Registrierung von Overlays (erzeugt aus dem Videomaterial) zu ermoglichen. Diese Overlays konnen somit durch das Tracking innerhalb dieser Umgebung nahtlos in die Live-Ansicht einer Anwendung eingebettet werden. Dadurch wird Endbenutzern erlaubt vergangene Geschehnisse zu einem anderen Zeitpunkt wiederzuerleben. Um dies zu erreichen, wird zuerst eine Segmentierung von Vordergrund und Hintergrund in dem aufgenommenen Videomaterial durchgefuhrt. Basierend darauf wird veranschaulicht, wie diese extrahierte Information prazise und in Echtzeit in der Live-Ansicht von aktuell verfugbaren Mobiltelefonen integriert werden kann. Außerdem wird ein erster Prototyp vorgestellt (als Teil einer Skateboard-Trainingsanwendung), inklusive

Page 18: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

16

Beschreibung des User Interfaces und implementierter Post-Effekte. Abschließend werden die Resultate einer im Zusammenhang mit dieser Arbeit durchgefuhrten Benutzerstudie vorgestellt und eine Aussicht auf mogliche zukunftige Verbesserungen in Bezug auf das vorgestellte System gegeben.

Arbeitsbereich Information & Software Engineering

Slavica Barbaric Integrated DWH Engineering - Evaluation of Vendor Offerings and Approaches Studium: Masterstudium Business Informatics Betreuer: O.Univ.Prof. Dr. A Min Tjoa DWH-Projekte sind meist groß und komplex, dementsprechend haben sie auch eine hohe Misserfolgsquote und sind sehr teuer. In der Entwicklung von DWH-Systemen, wird die Entwicklung der separaten Komponenten oft getrennt und teilweise manuell durchgeführt. Es gibt auch einen großen Mangel an Automatisierung der Aufgaben. Richtiges Anforderungsmanagement und entsprechende Mappings, d.h. die Zuordnung von Daten aus verteilten und heterogenen Quellen zu der richtigen Stelle in der DWH-Struktur, sind nur einige der großen Herausforderungen in dem DWH-Engineering. Um zuverlässige, genaue und einheitliche Informationen zu liefern und die semantische Bedeutung der Daten in DWH-Systemen zu erhalten, muss DWH Entwicklung integriert und von entsprechenden Tools unterstützt werden. Der Bedarf an einem zentralen Modell, eine Art Referenz für die Daten in allen Phasen ist unerläßlich. In dieser Diplomarbeit geben wir als erstes einen Überblick über DWH Grundlagen und aktuelle Ansätze. Danach stellen wir zwei neue erfolgsversprechende Ansätze vor: Semantic Business Information Model Based On Teradatas BDE Concept By Priebe et al. und MDA Approach in DWH Engineering von Trujillo et al .. Der erste Ansatz ist modellgetrieben. Der Lösungsvorschlag für die Probleme der semantischen Bedeutung, Rückverfolgbarkeit, Wiederverwendbarkeit und Harmonisierung ist ein semantisches Geschäftsmodell. Im zweiten Ansatz stellen sie ein integriertes, modellgetriebenes Framework kombiniert mit dem MDA Ansatz für das DWH-Engineering vor. Das Ziel dieser Diplomarbeit ist es Anbieter der Tools und Ansätze fü die oben erwähnten Probleme zu identifizieren und bewerten. Ausgewählt wurden drei Anbieter und ihre Tools: IBM - InfoSphere, Teradata - Products & Services, Kalido Dynamic Information Warehouse. Die Bewertungskriterien werden unter Berücksichtigung der in dieser Diplomarbeit identifizierten DWH Probleme erarbeitet. Die Toolsets werden bewertet und die Ergebnisse in dieser Diplomarbeit vorgestellt.

Page 19: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

17

Johannes Dünser Optimizing Text Classification for the Medical Domain: Identification of Papers on Off-Label Drug Use Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber Systeme zur automatischen Textklassifikation sind weit verbreitet und werden für viele Applikationen erfolgreich eingesetzt. Besonders bei Texten mit sehr spezifischem Inhalt liefern diese Systeme jedoch oft nicht die optimale Leistung. Eine domänenspezifische Optimierung ist notwendig. Das Ziel der vorliegenden Arbeit ist die Optimierung eines Systems zur automatischen Textklassifikation am Beispiel des medizinischen Fachbereichs. Im Besonderen sollen Artikel welche sich mit der Thematik off-label drug use (zu Deutsch zulassungsüberschreitende Anwendung) beschäftigen erkannt werden. Die Integration des Unified Medical Language System (UMLS) als medizinische Ontologie erlaubt die Reduktion von synonymen Begriffen, das Anreichern der Dokumente mit Oberbegriffen und das kontextsensitive Ersetzen von mehrdeutigen Konzepten. Die Auswertung des optimierten Systems im Vergleich zur Prototyp- Applikation zeigt eine Verbesserung der Genauigkeit um 11.7% und eine Verbesserung der Trefferquote um 2.5%. Obwohl die erzielten Resultate eine eindeutige Weiterentwicklung gegenüber dem Prototyp aufzeigen, besteht noch offenes Potential. Die inhaltliche Komplexität der verwendeten Ontologie verursacht Probleme bei der Anreicherung der Dokumente mit Oberbegriffen. Eine Analyse des verwendeten Stemming-Algorithmus und der Stopwort-Liste zeigt, dass eine domänenspezifische Anpassung sinnvoll wäre. Um eine weitere Verbesserung zu erreichen, müssen dieses und die anderen offenen Probleme im Rahmen von zukünftigen Forschungsarbeiten geklärt werden.

Daniel Feledi Challenges of Web-based Information Security Knowledge Sharing Studium: Masterstudium Information & Knowledge Management Betreuer: O.Univ.Prof. Dr. A Min Tjoa Heutzutage nehmen Informationssysteme eine sehr wichtige Rolle für Organisationen und Individuen ein, weshalb ihr Schutz einen immer größeren Stellenwert einnimmt. Häufig werden Lösungen für sehr ähnliche Informationssicherheitsprobleme immer wieder aufs Neue entwickelt. Hier wäre ein Wissensaustausch zwischen Experten wünschenswert damit nicht ständig dieselben Lösungen von unabhängigen Personen erarbeitet und somit wertvolle Ressourcen verschwendet werden. Diese Diplomarbeit hat zum Ziel, ein bestehendes Webportal für IT-Sicherheitsexperten zu erweitern, um die Erfassung und den Austausch von Wissen zu erleichtern. Im Anschluss an die praktische Entwicklungsarbeit wurde eine Evaluierung des Webportals mit Sicherheitsexperten durchgeführt, um die Funktionalität und die Usability zu untersuchen. Neben diesen Erweiterungen am bestehenden System wird

Page 20: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

18

der derzeitige Stand der Forschung auf diesem Gebiet erfasst um zu klären, auf welche Art und Weise sich Wissen zwischen Organisationen austauschen lässt und wie ein Tool den Wissensaustausch unterstützen kann. Die Forschungsergebnisse zeigen, dass ein Wissensaustausch an konkrete Anreize gekoppelt sein muss, um Teilnehmer zu motivieren. Diese Anreize können ökonomischer Natur sein oder aber auf der Erwartung basieren, dass für das Einbringen von Wissen zumindest gleichwertige Information erhalten wird. Zusätzlich muss eine Vertrauensbasis aufgebaut werden, ohne die ein Austausch nur sehr begrenzt möglich ist. In Bezug auf die Unterstützungsmöglichkeiten durch ein Tool waren die wesentlichen Ergebnisse, dass ein kollaboratives Tool für Experten sowohl als Nachschlagewerk als auch für Risikoanalyse brauchbar wäre, allerdings unter der Voraussetzung, dass eine vertrauenswürdige Umgebung geschaffen wird. Wichtig ist in diesem Zusammenhang auch die "kritische Masse" an Inhalten, welche erreicht werden muss, damit das Tool für neue Nutzer interessant wird.

Michael Alexander Kascha Tuning Retrieval System Effectiveness via the Retrievability Bias Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber The performance of an information retrieval system depends on the document collection it has to work on and can be influenced to a certain degree by tuning the systems parameter values. There are several different measures to evaluate the effectiveness of retrieval systems. All of them have in common that they require human relevance judgments to determine if search results are satisfying the information need of the queries. However, their creation is both very expensive and time consuming. There have been three fundamentally different approaches to create performance rankings without the need of these relevance judgments. This thesis first introduces relevant background information and then takes a closer look at the approach that shows the most potential in determining the top performers. It employs an unsupervised measure called retrievability which expresses how accessible documents are for the system. Experiments are conducted to compare various effectiveness measures to the retrievability bias at different system parameter values. This is done with three different retrieval methods on four different collections. Results show that while there is usually always a general correlation of high effectiveness and low retrievability bias observable, it largely depends on the length and/or quality of the user queries issued. In some cases a minimal retrievability bias does not indicate a good parameter setting for maximizing the effectiveness values. There might be several reasons for this behavior which still require further research.

Page 21: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

19

Barbara Neubauer A Comparison of Static and Dynamic Visualizations for Time-Oriented Data Studium: Masterstudium Medizinische Informatik Betreuerin: Ao.Univ.Prof. Dr. Silvia Miksch The aim of this thesis was an empirical comparison between a dynamic and two static visualizations which are suitable for analyzing relationships of two variables and their development over time. The chosen dynamic visualization presents the development of the data with an animated scatter plot. Within the static visualizations (Small Multiples and Trace view) the time intervals are displayed in small pictures arranged side by side. Additionally data points belonging to an object are connected by lines in the Trace view. Those connections between the data points are continued over all small pictures and therefore visualize the whole development of the parameters explicitly. To make the comparison possible it was necessary to extend the prototype TimeRider by the Small Multiple visualization with the possibility to activate the traces resulting in the previously described Trace view. The quantitative study was carried out over the internet, where each of the 29 participants had to solve tasks with all visualizations. The analysis of the results showed that all visualizations caused similar success rates and completion times for tasks concerning outliers and clusters. Regarding data movements within clusters and small changes in the data the animation outperformed the other visualizations significantly in correctness. The results also showed that participants solved tasks concerning the analysis of specific data points and the comparison between them significantly faster and with higher success rates with the dynamic visualization. However for nearly every hypothesis the results were dataset-dependent and had to be analyzed split by dataset which reduces the significance of the statistical results. But allover the results indicate that animation is better or at least equal to the two static visualizations for the analysis of time-oriented data.

Sabine Stransky Computerunterstützte Überprüfung der sozialen Handlungskompetenzen im Bereich Unternehmensgründung für den Einsatz im Unterricht Studium: Masterstudium Informatikmanagement Betreuer: Univ.Doz. Dr. Helmut Schauer Das Ziel dieser Arbeit ist die Entwicklung einer computerunterstützten Lern- und Testmöglichkeit für den Bereich Unternehmensgründung. Diese soll sowohl in der Schule, aber auch in der Erwachsenenbildung im Zuge des Unterrichts verwendet werden können, um den Lerneffekt zu steigern. Die Auswertung der Tests soll automatisch möglich sein aber dabei trotzdem der Testperson eine möglichst freie Antwortmöglichkeit bieten. Dies wird in Form eines Online-Rollenspiels, dem Projektmanagement-Game (PM-Game), umgesetzt. Gerade im Bereich der Unternehmensgründung sind auch Kommunikationsfähigkeiten von großer Bedeutung, denn sowohl

Page 22: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

20

Verhandlungsgeschick mit Kunden sowie die Umsetzung einer Unternehmensgründungsstrategie ist für den Erfolg der geplanten Unternehmung essenziell. Daher ist der Einsatz eines Überprüfungstools für Projektmanagement Fähigkeiten naheliegend. Weiters wurde im Zuge der Erstellung des Spiels eine Richtlinie zum PM-Game erstellt, die es auch Personen ohne IT Kenntnisse in Zukunft ermöglichen soll neue Testsituationen (Stories) für unterschiedliche Einsatzmöglichkeiten zu erstellen. Im PM-Game wurde ein Spiel erzeugt. Dieses ist in zwei Stories unterteilt, wobei im ersten Szenario die Gründungsbasis geschaffen wird auf welcher aufbauend im zweiten Teil die Details der Unternehmensgründung abgehandelt werden. Diese wurden in mehreren kleineren Testdurchläufen, von am Projekt unbeteiligten Personen, getestet und deren Feedback umgesetzt. Anschließend wurde in einem weiteren Testdurchlauf überprüft, ob die Aufgabenstellungen nicht zu trivial sind. In einem großen Benutzertest sollte der Lerneffekt der Testpersonen geprüft werden. Das generierte Spiel erfüllt nach Auswertung der Benutzerstudie seinen Zweck und bietet einen motivierenden Überblick über die Thematik der Unternehmensgründung und interkulturellen Kommunikation.

Francois Thillen Isolated Testing of Software Components in Distributed Software Systems Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl Component-based software engineering emphasizes the composition of software systems through loosely coupled independent components. Although software components are binary units of independent software artifacts, they typically interact with other components as they form a functioning system and thus implicitly define dependency relations. However, in case of distributed component-based software systems current testing strategies either assume total independence of components or require usage of mock-up frameworks which do not facilitate testing of the entire component but only a subset of it. Consequently, the dependency structure between components is not really taken into account. Therefore, those tests are limited in their effectiveness of detecting defects in software systems with distributed components. In the work the "Effective Tester in the Middle" (ETM) approach is presented, which improves testing of components depending on other distributed components. The approach relies on test scenario specific interaction models and network communication models which facilitate isolated testing of entire components without the need to run the overall system. We evaluate the approach by implementing test scenarios for a system integration platform. The prototypic implementation demonstrates that software testers are able to create unit test like integration tests with minimal effort and that it increases the quality of the system by enabling the injection of fault-messages.

Page 23: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

21

Institut für Gestaltungs- und Wirkungsforschung

Arbeitsbereich Human Computer Interaction

Jasmin Grosinger Agile Life: Persuasive Touch Interface Technology for Enhancing Older Adults‘ Levels of Physical Activity Studium: Masterstudium Medizinische Informatik Betreuerin: Univ.Prof. Geraldine Fitzpatrick, PhD Zu wenig körperliche Bewegung bei über 65-jährigen ist ein weitverbreitetes Phänomen in westlichen Gesellschaften. Einer der Gründe dafür ist der Mangel an Wissen über die positive Wirkung körperlicher Betätigung auf die Gesundheit. In dieser Arbeit wird eine Persuasive Technology entwickelt, die Ältere dazu motivieren soll körperlich aktiver zu sein. Dabei wird die Barriere des Wissensmangels über den Nutzen von körperlicher Betätigung adressiert. Außerdem soll der Wunsch der Senioren enge soziale Kontakte zu pflegen als Ko-Motivation fungieren. Ein dritter Aspekt ist positive Bekräftigung für absolvierte Aktivitäten. Als Plattform für die Applikation dient ein Touch-Tablet, das laut Studien ein vorteilhaftes Eingabegerät für ältere Leute darstellt. Im Rahmen eines User Centred Design Prozesses werden Anforderungen und Prototypen in mehreren Iterationen entwickelt. Endergebnis ist die Tablet Softwareapplikation Agile Life. Informationen über körperliche Betätigung (PAICs) zusammen mit Vorschlägen zu Aktivitäten adressieren die Wissensbarriere älterer Leute. Ein Feature dient der Koordinierung von Aktivitäten und eine metaphorische Graphik der positiven Bekräftigung und Belohnung für durchgeführte Aktivitäten. Die Applikation wird in einer Anwenderstudie evaluiert

Patrick Stern Standardized Connection from Personal Healthcare Devices to AAL Platforms Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler In den kommenden 40 Jahren wird sich die Anzahl der Bürger im Alter über 65 beinahe verdoppeln in Österreich. Dies ist Ausdruck eines globalen Trends einer alternden Bevölkerung. Dadurch verschiebt sich das Verhältnis zwischen Hilfsbedürftigen und deren Helfern und Helferinnen. Die Konsequenz ist ein Anstieg der Kosten für das Gesundheits- und Pflegewesen. Zudem steigt auch der zeitliche Aufwand für Pflege kumuliert über die Gesamtbevölkerung. Ambient Assisted Living (AAL) ist ein Forschungsfeld mit dem Ziel, ältere Menschen bei den Tätigkeiten des Alltags zu unterstützen. Der Wunsch, im eigenen Heim zu altern, ist weit verbreitet. AAL-Lösungen wollen diesem Wunsch nachkommen, indem sie die Unabhängigkeit von externer Hilfe stärken. Solche AALPlattformen sind eine Kombination aus technischer

Page 24: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

22

Infrastruktur, bestehend aus Hard- und Software, und Dienstleistungen von Dritten. Die Vielfältigkeit an Herstellern von AAL-Produkten ist groß, und viele verwenden die ihnen bekannten, proprietären Protokolle, welche zueinander inkompatibel sind. Es gibt keinen standardisierten Ansatz, um medizinische Endgeräte mit deren Manager-Software verbindet. Ein Projekt mit dem Ziel diese Interoperabilität zu verbessern ist UniversAAL. Es sollen neue Entwickler und Entwicklerinnen von AAL-Diensten in der Design- und Implementationsphase mit der nötigen Infrastruktur und der Referenzimplementation einer AAL-Plattform unterstützt werden. Die ISO/IEEE 11073 ist eine Reihe von Standards für den Austausch von Vital- Daten. Diese Diplomarbeit beschreibt die Entwicklung einer Standard-konformen Schnittstelle zwischen Continua-zertifizierten medizinischen Endgeräten und der UniversAAL AAL Plattform. Bluetooth ist das Transport-Protokoll, welches momentan am häufigsten zum Einsatz kommt. Die Manager-Software läuft auf einem Linux-System als Open Source implementiert. Dadurch wird zukünftigen Entwicklern und Entwicklerinnen eine Basis für eigene AAL-Lösungen geliefert.

David Zeller Presentation vs. Collaboration: Enabling Interaction in One-To-Many Communication Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer Die im Zuge dieser Arbeit konzeptuell entworfene Applikation ist eine web-basierte Präsentations-Software, deren Ziel es ist diverse Schwächen von gegenwärtig verwendeten Tools, wie etwa Microsofts PowerPoint oder Apples Keynote, zu beseitigen. Im Gegensatz zu anderen populären Alternativen, wie beispielsweise Prezi, folgt es dem klassischen Folien (Slides) Prinzip. Allerdings erweitert es dieses in mehrerer Hinsicht. Es wird beispielsweise mit dem strikt linearen Charakter und der Unabänderlichkeit von Slides aufgeräumt. So ist es selbst während der Vorführung einer Präsentation noch möglich, die Reihenfolge der Folien zu ändern bzw. deren Inhalte zu bearbeiten. Zudem werden Funktionen zur Verfügung gestellt, die die Interaktion mit dem Publikum unterstützen. Zuhörer, die über ein internetfähiges Gerät verfügen, können der Präsentation online auf einer entsprechenden Website folgen und dort auch Texte, Bilder, Videos oder jegliche andere Form von Inhalten posten. Diese werden dem Vortragenden übermittelt, der die eingesandten Materialien begutachten und in die laufenden Präsentation integrieren kann. Letzterem ist es außerdem möglich auf Folien Bereiche zu definieren, in denen Inhalte von der Zuhörerschaft frei nach Belieben abgelegt werden können. Das Zielpublikum für die Software ist primär natürlich jede/r, der/die ein flexibles und einfach zu bedienendes Präsentations-Tool benötigt. Durch ihre erhöhte Flexibilität bietet sich die Applikation jedoch auch für Anwendungen jenseits eines statischen Vortrages an, wie beispielsweise zur Unterstützung von Team-Meetings oder akademischen Workshops. Allgemein gesprochen, stellt die Applikation, nicht

Page 25: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

23

zu letzt ihrer web-basierten Natur wegen, eine vielversprechende Lösung für sämtliche Belange, in denen Informationen öffentlich geteilt und dargestellt werden müssen, dar.

Arbeitsbereich Multidisciplinary Design

Daniel Cygan Influence of alternative working time models on inactivity due to sick leave and working ability Studium: Masterstudium Business Informatics Betreuer: Univ.Doz. Dr. Johannes Gärtner Shift work may have negative influence on health condition and well-being. [1] Nevertheless there are fields of activities where shift-work is necessary due to e.g., economic, safety or technological reasons. Shift schedules define when employees have to do specific shifts, e.g. employee A has two morning shifts from 6:00-14:00, three night-shifts from 22:00-6:00 and then two days off. Different shift schedules differ in their impact on health and well-being.[LIT]. voestalpine Stahl GmbH is a steelmaker with headquarters in Linz, Austria. As one of the companies with the largest number of employees in Austria it also has a huge workforce performing shift work. With respect to sick leave and retirement voestalpine wants to understand the effects which will influence the well-being of the personnel, to be able to choose the healthiest shift schedule. Shiftwork models with longer leisure time blocks on a regular basis will have a positive impact on the overall health situation of the personnel. Also part-time shift work models with a reduced working time will help to assure the well-being of the employees. In order to improve the health of its personnel, voestalpine Stahl GmbH developed a new shift schedule for a part of its workforce, some years back. Voest assumes this model to be better than the one used before (and still is used in other parts of the company). With respect to sick leave and retirement voest wants to evaluate the effects thoroughly.

Andreas Kuntner Application of User Interaction Description Languages to provide accessible interfaces for elderly people Studium: Masterstudium Medieninformatik Betreuerin: Associate Prof. Dr. Hilda Tellioglu This thesis suggests the enhancement of Ambient Assistant Living (AAL) environments by applying concepts from the research field of User Interaction Description Languages (UIDL). In detail, it should evaluate how user interfaces for interacting with AAL services can be generated in an automatic or semi-automatic way based on generic user interaction descriptions, and

Page 26: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

24

how the users of AAL environments can benefit from such an approach. This is accomplished by defining a list of criteria for evaluating the applicability of existing User Interaction Description Languages to the field of Ambient Assistend Living. Existing solutions were analyzed and compared with each other based on these criteria as part of this thesis. The class of mobile devices, including both smartphones and tablet devices, was defined as exemplary target platform for evaluating the possibilities of generated user interfaces. Interviews and user workshops were conducted using mockups of potential user interactions that might occur in common AAL services, in order to analyze how the typical user group of AAL environments interacts with devices belonging to this class. Guidelines for the implementation of a user interface generation system were established based on the results of this investigation. In addition, a prototype version of a user interface generation system for use in AAL environments was developed, including two exemplary services and a front-end solution for mobile devices. For evaluating this software product, it was formally analyzed based on the criteria mentioned above, and compared to the other mentioned UIDL solutions. In addition, practical tests were performed in cooperation with members of the system's prospective user group in order to evaluate how well those potential users can interact with AAL services using automatically generated user interfaces.

Manuel Mayrhofer Interactive Online Teaching Studium: Masterstudium Software Engineering & Internet Computing Betreuerin: Associate Prof. Dr. Hilda Tellioglu Der Bildungsbereich hat durch die Entwicklungen der letzten Jahre völlig neue Möglichkeiten erhalten. Diese finden zwar bereits häufig unter dem Überbegriff des E-Learnings in asynchronen Lernszenarien Anwendung, werden aber noch nicht dazu genutzt, den Präsenzunterricht zumindest teilweise zu ersetzen. Studien der Arbeiterkammer zeigen, dass 28 Prozent der Eltern fur ihre Kinder externe Nachhilfe in Anspruch nehmen, da auch die Mutter im Gegensatz zu fruher immer schneller in den Beruf zuruckkehren. Das zeigen auch die Ergebnisse der Statistik Austria von 2010, welche eine Diskrepanz von 2,7 Prozentpunkten zwischen erwerbstätigen Männern und Frauen aufzeigen. Im Vergleich dazu betrug dieser Unterschied im Jahr 1995 noch 10,7 Prozentpunkte. Daher wurde sich, um die Eltern zu entlasten und auch potentielle Wegzeiten einzusparen, eine online Plattform anbieten, auf der Lernende interaktiv und in Echtzeit Unterricht in Anspruch nehmen können. Aktuell werden zwar schon Systeme eingesetzt, die eine online Abwicklung des Unterrichts vorsehen, diese werden aber nur selten eingesetzt bzw. häufig von den Usern nicht angenommen, da diese von einer 1:1 Ersetzung des Präsenzunterrichts durch den online Unterricht ausgehen. Diese Arbeit untersucht daher anhand von realitätsnahen Lernszenarien, welche neuen Anforderungen an Lehrer, Schuler und Materialien durch diese Unterrichtsform entstehen und ob diese ausreichen, eine neue Didaktik zu definieren. Aufbauend auf diesen Ergebnissen und unter Berucksichtigung

Page 27: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

25

der technischen Möglichkeiten, wurde ein Konzept fur eine derartige Plattform entwickelt und teilweise implementiert bzw. evaluiert. Zusammenfassend kann gesagt werden, dass zwar geänderte und neue Anforderungen (neue Unterrichtssituation durch räumliche Trennung, digitale Materialien etc.) durch die geänderte Unterrichtsform auftreten, diese jedoch nicht ausreichen, um eine neue Didaktik zu definieren.

Page 28: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

26

Institut für Computergraphik und Algorithmen

Arbeitsbereich Bildverarbeitung und Mustererkennung

Philip Limbeck Interactive Tracking of Markers for Facial Palsy Analysis Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Ass. Dr. Yll Haxhimusa The human face provides a rich source of information which can be exploited to diagnose facial impairments. Facial palsy is one of these impairments, and is caused by restrictions of the nerval actuation of muscles responsible for facial expressions. The main symptoms of this condition are asymmetrical facial movement and partial facial paralysis. To measure its progress, physic-ians require clinical measures extracted from those locations of the face which provide most information about the facial expression. Small artificial markers indicate these locations by being placed on the patient's face before an evaluation session. A video of the patient is recorded which is used to localize these markers in every frame. This task is currently performed manually by an operator and can take up to 5 hours for a single video. Object tracking refers to the estimation of the position of objects from an image sequence. Illumination and occlusion are considered as the main problems when tracking artificial objects. Natural objects, such as the human face, have a high potential for deformation and are characterized by an irregular texture. As not only one, but multiple markers have to be tracked simultaneously, additional difficulty is imposed by ensuring that markers can be uniquely identified. The thesis explores the possibility of tracking these markers semi-automatically by a applying a sequential Bayes estimation technique, which assesses a set of hypothesis using their congruence with the target model. Hence, the location of each marker can be accurately estimated and occlusions handled efficiently. To improve the accuracy and to reset lost markers, the clinical operator can interact with the tracking system. The results showed that our chosen methods are superior when compared with traditional trackers which use only a single hypothesis concerning the marker locations, while at the same time being able to preserve an accuracy comparable to manual tracking.

Ignaz Reicht Efficient Visualization and Interaction with Fiber Structures using the Medical Imaging and Interaction Toolkit Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Ass. Dr. Yll Haxhimusa Tractographie, auch Fiber Tracking genannt, bezeichnet eine Bildverarbeitungstechnik die mittels diffusionsgewichteter Magnetresonanz Tomographie (DWI) Informationen über die anatomischen Strukturen des

Page 29: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

27

menschlichen Gehirns ableiten kann. Zusätzlich findet diese Technik auch Anwendung in der Therapieplanung und Verlaufskontrolle bei Tumorpatienten. Neue Ansätze und Optimierungen von Fiber Tracking Methoden konnten bereits im Vorfeld deren klinische Relevanz aufzeigen. Bis zum heutigen Zeitpunkt wurden noch keine praxistauglichen Endanwendungen entwickelt, welche sich der Komplexität von Tractographie annehmen und die Daten und Informationen dementsprechend verarbeiten um das Potential von Fiber Tracking in einem klinisches Umfeld voll ausgeschöpfen zu können. Der Hauptanwendungsbereich ist dem radiologischen Umfeld zuzuordnen in dem performante und interaktive Bildverarbeitungsmechanismen von hoher Genauigkeit sowohl in 2D als auch in 3D den Alltag bestimmen. Aus diesem Grund wurde bei der Umsetzung dieser Arbeit speziell auf diese Anforderungen eingegangen und ein effizientes Framework definiert welches die intuitive Visualisierung und Interaktion verschiedenster Tractographie Ergebnisdaten realisiert um so eine Basis zu schaffen, welche sowohl praxisnahen Anwendungen aus der Radiologie als auch Anforderungen aus dem Gebiet der Neurowissenschaften gerecht wird. Als Zielsetzung galt eine Anwendung bereitzustellen, welche sowohl effizient, intuitiv als auch funktionell umfangreiche Eigenschaften aufweist und durch die Verwendung bereits existierender Standards die Integration und Verwendung externer Tractographie-verfahren motiviert. Zusammen mit Radiologen und Wissenschaftlern wurden die umgesetzten Aufgabenstellung auf Benutzbarkeit, Funktionalität, Effizienz und Leistung für einen praxisnahen Einsatz evaluiert. Als Entwicklungsplattform wurde das open-source Softwareprojekt Medical Imaging Interaction Toolkit (MITK) herangezogen.

Georg Michael Zankl Semi-automatic Annotation on Image Segmentation Hierarchies Studium: Masterstudium Visual Computing Betreuer: Univ.Ass. Dr. Yll Haxhimusa Wenn es darum geht verschiedene Methoden der Objekterkennung in natürlichen Bildern zu vergleichen, stehen diverse etablierte Aufgaben im Mittelpunkt. Beispiele dafür sind Bildsegmentierung, semantische Bildsegmentierung und Objekterfassung. Diese traditionellen Aufgaben der Objekterkennung haben gewisse Einschränkungen, wie etwa Mehrdeutigkeit in allgemeinerem Kontext. Zum Beispiel gibt es oft mehrere Bildsegmen-tierungen für ein natürliches Bild, die ein Mensch als richtig beurteilen würde, abhängig davon welches Objekt besonders interessant für die entsprechende Person ist. Wir schlagen die Aufgabe vor, interaktiv jedem Segment einer hierarchischen Segmentierung eine semantische Bezeichnung zuzuordnen. Der Fokus dieser Arbeit ist es, eine Lösung dieser Aufgabe vorzustellen und auftretende Vor- sowie Nachteile zu diskutieren. Der größte Nachteil ist, dass es schwieriger ist passende Ground Truth zu finden. Der wesentliche Vorteil ist, dass die Struktur der Beschriftungen in der Ground Truth dazu verwendet werden kann, dem Benutzer zu helfen neue hierarchische Segmentierungen

Page 30: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

28

zu beschriften. Wir präsentieren ein Framework, das eine Feedbackschleife beinhaltet, bei der eine Beschriftung vom Framework vorhergesagt wird und der Benutzer falsch bezeichnete Segmente selektieren und die korrekte Bezeichnungen zuordnen kann. Dieser Vorgang kann wiederholt werden, bis der Nutzer zufrieden mit dem Ergebnis ist. Der Kern des Frameworks ist ein auf Conditional Random Fields basierendes Modell, das sowohl auf die hierarchische Segmentierung als auch auf die Benutzereingaben konditioniert wird. Eine Evaluierung findet auf zwei verschiedenen Datensätzen statt. Dabei wird die Qualität zu einer einfachen Baseline verglichen, die aus einer einzelnen Vorhersage der Beschriftung gefolgt von vollständig manueller Korrektur der Bezeichnungen besteht. Ergebnisse zeigen deutlich schnellere Konvergenz des Frameworks im Vergleich zur Baseline.

Arbeitsbereich Computergraphik

Michael Birsak Coloring Meshes of Archaeological Datasets Studium: Masterstudium Visual Computing Betreuer: Associate Prof. Dr. Michael Wimmer Archaeological monuments are nowadays preserved for future generations by means of digitization. To this end, laser scanners in conjunction with registered cameras are used to gather both the geometric and the color information. The geometry is often triangulated to allow a continuous mapping of the photos onto the geometry. The color mapping for high-quality reconstructions of parts of the models is not without problems. In practice, the photos overlap. Now, assuming that a particular triangle receives color information from just one photo, there is a huge number of possibilities to map the photos onto the triangles. This labeling problem is already covered in literature. There are also approaches for the leveling of the remaining seams. In this thesis, we improve common labeling approaches by the introduction of an accurate geometry-based occlusion detection. An octree is used to quickly filter out parts of the model that do not come into consideration for an occlusion anyway. The occlusion detection prevents texturing of parts of the model with image material that does not contain the expected region, but the colors of an occluder. Further, a proposed approach for seam leveling on meshes is improved by the introduction of a new term into the least squares problem that corresponds to the proposed leveling approach. This new term penalizes big leveling function values and helps to keep the leveled color values in the valid range. For the high-performance visualization of 3D models with a huge amount of textures, we make use of virtual texturing. We present an application that generates the needed data structures atlas and tile store in significantly less time than existing scripts. Finally, we show how all the mentioned functionalities are integrated into a visualization application that can support a graphic artist in the post-processing of a digitized archaeological monument.

Page 31: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

29

Michael Hecher A Comparative Perceptual Study of Soft Shadow Algorithms Studium: Masterstudium Visual Computing Betreuer: Associate Prof. Dr. Michael Wimmer While a huge body of soft shadow algorithms has been proposed, there has been no methodical study for comparing different real-time shadowing algorithms with respect to their plausibility and visual appearance. Therefore, a study was designed to identify and evaluate scene properties with respect to their relevance to shadow quality perception. Since there are so many factors that might influence perception of soft shadows (e.g., complexity of objects, movement, and textures), the study was designed and executed in a way on which future work can build on. The novel evaluation concept not only captures the predominant case of an untrained user experiencing shadows without comparing them to a reference solution, but also the cases of trained and experienced users. We achieve this by reusing the knowledge users gain during the study. Moreover, we thought that the common approach of a two-option forced-choice-study can be frustrating for participants when both choices are so similar that people think they are the same. To tackle this problem a neutral option was provided. For time-consuming studies, where frustrated participants tend to arbitrary choices, this is a useful concept. Speaking with participants after the study and evaluating the results, supports our choice for a third option. The results are helpful to guide the design of future shadow algorithms and allow researchers to evaluate algorithms more effectively. They also allow developers to make better performance versus quality decisions for their applications. One important result of this study is that we can scientifically verify that, without comparison to a reference solution, the human perception is relatively indifferent to a correct soft shadow. Hence, a simple but robust soft shadow algorithm is the better choice in real-world situations. Another finding is that approximating contact hardening in soft shadows is sufficient for the ``average'' user and not significantly worse for experts.

Page 32: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

30

Lukas Rössler Rendering Interactive Maps on Mobile Devices Using Graphics Hardware Studium: Masterstudium Visual Computing Betreuer: Associate Prof. Dr. Michael Wimmer Mapping and navigation applications on mobile devices such as smart phones or tablets are increasingly popular. Modern maps are often rendered directly from vector data. Since the performance of a previous CPU-based map renderer was unsatisfactory, a hardware accelerated map rendering prototype for mobile devices based on OpenGL ES 2.0 was created. A novel hybrid rendering architecture is introduced to combine the advantages of tile-based and true real time rendering solutions. The architecture consists of a tile server that renders base map tile images and a client to display them. The new third component, the post-processor, draws dynamic map features such as icons and text above the tiles in real time, enabling a 3D fly-over mode. All components run inside the same process directly on the device. For the ren-dering of lines, an important map feature, a new rending algorithm was de-veloped, enabling to draw lines of arbitrary width with one of three different line cap styles. Additionally the line can be stippled with a user-defined pat-tern where each line dash is rendered with the selected cap style. Antialiasing of the line is supported with an arbitrary circularly symmetric filter kernel of user-definable radius. To accelerate icon rendering, a texture atlas is used to store the icons, and a simple but effective packing algorithm has been developed to generate the atlas online.

Arbeitsbereich Algorithmen und Datenstrukturen

Benjamin Biesinger Enhancing an Evolutionary Algorithm with a Solution Archive to Reconstruct Cross Cut Shredded Text Documents Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl In this thesis a method for improving existing metaheuristics for the Reconstruction of Cross-Cut Shredded Text Documents (RCCSTD) problem is presented. For this purpose a memetic algorithm is enhanced by a solution archive, which is implemented in two different ways. Finally, the results of using the solution archive with different configurations of the memetic algorithm are compared to each other. Cross-cut shredded text documents are documents that are cut in rectangular pieces using a shredding device. The aim is to fit the pieces in such a way next to each other so that the original document is reconstructed. Since this problem is NP-complete several heuristic approaches exist. Some of the best results are delivered by a memetic algorithm (MA), which is an extension of an evolutionary algorithm (EA). One of the main problems of this kind of algorithms is the loss of

Page 33: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

31

diversity in later generations because a lot of solutions are equal to each other. To circumvent this problem, already generated solutions can be stored and looked up in a solution archive so that only new solutions are accepted by the EA. The insert and the search method for this datastructure have to be as efficient as possible because all solutions generated by the EA are inserted and looked up in the archive. Another requirement of the solution archive is to generate a new solution efficiently if a duplicate was found. A trie-based datastructure meets all the requirements since insertion and search run in time O(h) where h is the height of the trie, which is bounded by the size of the input. It was tested if the solution archive helps the memetic algorithm to find a better solution in the same amount of time. The results showed that in most cases the memetic algorithm in combinaion with the solution archive performed only as good as the memetic algorithm alone. This is also because of the vast memory consumption of the solution archive, which made testing very difficult.

Frederico Dusberger Improving the Protein Identification Performance in High-Resolution Mass Spectrometry Data Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl Shotgun proteomics experiments generate a large amount of raw data. Therefore, an appropriate data analysis is required to separate useful from superfluous information. However, common database search engines, used for identifying the peptides, throw away most of the information contained in MS2-spectra. Moreover, the benefit of the high mass-accuracy provided by current mass spectrometers is forfeited, as the precursors are usually not selected at the optimal time point where the intensity of the respective peptide is highest. To compensate for these drawbacks sophisticated spectrum-preprocessing methods are necessary. In this thesis we studied the application of two ways of MS2-spectrum preprocessing to increase the number of spectra that can be identified by facilitating the identification step of the database search engine: First, different MS2-deisotoping and -deconvolution methods were analyzed. They aim for the removal of isotope peaks and peaks of multiply-charged variants of the analyte peptides, which unnecessarily increase the search space. We demonstrate that these methods raise the confidence in correct identifications by eliminating obstructing peaks from the spectra and that they are nonetheless limited due to the design of the scoring algorithms of common search engines. Secondly, to fully exploit the information that is provided by the high mass-accuracy, we developed a 3d-peak picking algorithm that does not rely on the peptide mass information of the single MS1-spectrum it was selected from for fragmentation, but additionally reconstructs the peptide's elution profile gathering many data points to obtain a statistically confident value for the mass. Experiments confirmed that calculating the peptide masses from recon-structed 3d-peaks significantly increases the precision compared to mass

Page 34: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

32

values provided by the instrument. We show that the high precision also in-creases the identification performance, especially for strict search tolerances.

Philipp Gebhard The Vehicle Routing Problem with Compartments - Exact and Metaheuristic Approaches Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl Das Vehicle Routing Problem with Compartments (VRPC) beschreibt ein generalisiertes Routingproblem mit einer homogenen Flotte an Fahrzeugen mit mehreren Abteilungen, die Bestellungen von Kunden kostenminimal ausliefern sollen. Weiteres gibt es unterschiedliche Produkttypen, die entweder nur in gewisse Abteilungen oder nicht mit anderen Produkttypen ins gleiche Abteil geladen werden dürfen. Diese Arbeit behandelt zwei leicht unterschiedliche Problemdefinitionen die auf Anforderungen aus der Öl- und Nahrungsmittelindustrie eingehen. Die Fahrzeuge, die zum Transport unterschiedlicher Kraftstoffe von einer Raffinerie zu den einzelnen Tankstellen eingesetzt werden, haben typischerweise mehrere Abteilungen mit einer fixen Größe. Die verschiedenen Kraftstoffe dürfen in beliebige Abteile geladen, aber nicht miteinander vermischt werden. Fahrzeuge, die für den Transport von Nahrungsmitteln eingesetzt werden, haben oft mehrere Abteilungen, die durch eine verstellbare Trennwand, variabel in ihrer Größe sind. Eine optimale Lösung für Routingprobleme ist meist nur mit großem Aufwand zu finden, da das zugehörige Entschiedungsproblem zu den sogenannten NP-schweren Problemen gehört. In dieser Arbeit werden drei Lösungsansätze vorgestellt: ein randomisierter Clarke and Wright Savings Algorithmus, eine auf Schwarmintelligenz beruhende Verbesserungsheuristik und ein exakter Branch and Price Ansatz. Das verschachtelte Packproblem wird einerseits heuristisch mit Konstruktionsalgorithmen und andererseits mit einem Constraint Programming Modell gelöst. Die Effektivität der Modelle und Algorithmen wurden auf drei verschiedenen Testdatensätzen evaluiert. Das exakte Verfahren kann, wie auch bei verwandten generalisierten Routingproblemen, nur auf relativ kleinen Probleminstanzen angewendet werden, während die heuristischen Ansätze in der Lage sind alle gegebenen Probleminstanzen relativ gut zu lösen.

Gerhard Hiermann Metaheuristics for a Multimodal Home-Healthcare Scheduling Problem Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl Das multimodal home healthcare scheduling (MHS) Problem beschäftigt sich mit der Zuweisung von HeimhelferInnen zu PatientInnen unter Berücksichtigung von Präferenzen sowie gesetzlicher und vertraglicher

Page 35: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

33

Bestimmungen als auch mit der Erstellung von Touren anhand der zuvor festgelegten Zuteilung. Im Zuge eines Projektes des Austrian Institute of Technology (AIT) wurde bereits ein Framework zur automatisierten Lösung eines solchen Problems anhand einer Fallstudie entwickelt. Untersucht wurde das Lösen von Ein-Tages-Problemen anhand einer vom AIT entwickelten Zielfunktion. In dieser Arbeit werden die weiteren entwickelten Lösungsmethoden, die in das bestehende Framework implementieren wurden, beschrieben und mit dem vorhandenen Lösungsansatz verglichen. Da das MHS mit den gut untersuchten vehicle routing problem with time windows und dem nurse rostering problem verwandt ist, wurden drei Lösungsansätze aus diesem Bereich ausgewählt und an das MHS angepasst. Die erste Metaheuristik ist eine simulated annealing hyper heuristic, welche mittels einer Menge an so genannten low-level heuristics eine gute Lösung sucht. Bereits dieser Ansatz zeigte vergleichbar gute Ergebnisse mit dem existierenden Ansatz. Der zweite Lösungsansatz ist ein memetic algorithm. Dieser erzielte die besten Ergebnisse bereits nach kurzer Zeit. Als dritter Ansatz wurde ein scatter search verwendet, welcher deterministischere Techniken anwendet als der zuvor genannte memetic algorithm. Die Resultate zeigen jedoch, dass dieser Ansatz sehr hohe Laufzeiten benötigt, um vergleichbar gute Ergebnisse zu erzielen. In einer Vielzahl an Tests wurden Entscheidungen bezüglich Parameter und Methoden auf ihre Auswirkung auf die Leistung der Ansätze überprüft sowie der bereits existierende Ansatz mit den in dieser Arbeit Beschriebenen anhand von Instanzen aus der Praxis verglichen. Die Ergebnisse zeigen, dass vor allem der memetic algorithm sehr gute Ergebnisse erzielt.

Ivan Ivezic Extending the Gecode Framework with Interval Constraint Programming Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl This thesis introduces the reader to the basics of constraint programming. Furthermore, the constraint satisfaction problem modeling process, and the general procedure required to solve it is introduced. Constraint satisfaction problem solving concepts such as propagation and branching are explained for a general constraint satisfaction problem as well. Interval constraint programming, a subclass of constraint programming where the domains of variables are intervals, is then introduced. Then, interval arithmetic is briefly presented. Afterwards, the peculiarities of interval constraint satisfaction problems are highlighted. Furthermore, generic consistency notions are introduced, followed with the description of hull consistency and box consistency, which are the two consistency notions relevant to interval constraint programming. A method for enforcing both hull and box consistency is given. The C++ constraint programming framework Gecode is then briefly presented. An extension of Gecode supporting interval constraint programming, that was developed alongside this thesis, is described in detail. The implementation relies on the Boost Interval library to handle intervals. To

Page 36: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

34

implement the box consistency propagator, an additional library, namely, SymbolicC++ was used and extended. The necessary extensions of SymbolicC++ library are described as well. The implemented extension was tested on three benchmarks, namely, Broyden Banded, Broyden Tridiagonal and Brown. Experiments on Broyden Banded show that SymbolicC++ may have been a suboptimal choice for the extension, because of relatively high constraint initialization time. Broyden Tridiagonal evaluates the performance of box consistency propagation, whereas Brown evaluates hull consistency propagators. The final test of the extension is the 3D reconstruction problem. The formal description of the problem is given, and the results of the 3D reconstruction obtained with the extension are shown.

Martin Sturm Solving Multimodal Resource Constrained Project Scheduling Problems Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Günther Raidl This work is concerned with the task of mathematical modeling and the heuristical resolution of complex scheduling problems in the context of automated IT environments. In order to tackle a practical scheduling problem with the means of scientific optimization theory it is necessary to find a formalization in mathematical terms. This subproblem is considered in the first part of this work, where a number of models is examined for their adequacy. Because of their lack of flexibility, the classical machine scheduling models are discarded in favor of the broader project scheduling models. As final formalization the very general multi-mode resourceconstrained project scheduling problem with generalized precedence relations (MRCPSP/max or MRCPSP-GPR) is chosen. This choice is justified by the fact that this model allows the modeling of resources in a more adequate way to capture the broader concept of a resource in IT environments. Furthermore it enables the formalization of complex timing constraints in a natural way. This increased flexibility comes with a tradeoff in the form of increased complexity. It is shown that the resolution of MRCPSP/max instances with mixed integer programming methods is not practical, even for small instances. Therefore in the course of this work a software library has been implemented with the goal to provide solutions with high quality in a practical time frame by using heuristic optimization methods. Following the proposals in the scientific literature genetic algorithms serve as the underlying metaheuristic. This work provides an overview on the details of available implementations from the literature and presents a combination of several approaches in the form of a flexible software library. Furthermore we present new evolutionary operators which are proven to perform well in extensive benchmark tests.

Page 37: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

35

Institut für Computersprachen

Arbeitsbereich Theoretische Informatik und Logik

Ronald de Haan Description Logic Based Reasoning on Programming Languages Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus) Betreuer: Ao.Univ.Prof. Dr. Bernhard Gramlich Imperative Programmiersprachen sind in praktisch allen technologischen Bereichen verbreitet, wobei Programme verschiedene Arten von Berechnungen spezifizieren. Für viele praktische Zwecke ist die automatisierte Analyse semantischer Eigenschaften von Programmen, wie die Terminierung und Äquivalenz, nützlich. Wir stellen ein neues Vorgehen zur automatisierten semantischen Analyse von Programmen bereit durch die Kodierung ihres Verhaltens in die formale Logik. Wir betrachten einige syntaktisch einfache, imperative Programmiersprachen, und wir kodieren Programme dieser Sprachen in Ausdrücke der Beschreibungslogik ALC(D), für einen bestimmten Bereich D. Wir machen das in einer Weise, in der Modelle dieser Kodierungen den Durchführungen der Programme entsprechen. Mit anderen Worten, wir weisen imperativen Programmen eine modelltheoretische Semantik zu. Diese Kodierung ermöglicht es semantische Eigenschaften von Programmen (vor allem Terminierung und Äquivalenz) in der Sprache der formalen Logik auszudrücken. Auf diese Weise reduzieren wir das Schlussfolgern diverser semantischer Eigenschaften von Programmen zu Reasoning-Verfahren der Beschreibungslogik. In praktischer Hinsicht führt dieses Vorgehen direkt zu Algorithmen für das automatisierte Schlussfolgern für einige Fragmente der Programmiersprachen (d.h. Zyklusfreie Programme oder Programme beschränkt auf endliche numerische Bereiche). In theoretischer Hinsicht ermöglicht das Vorgehen weitere, weniger eingeschränkte Fragmente der Programmiersprachen zu identifizieren, wofür einige Aufgaben des Schlussfolgerns entscheidbar sind. Wir identifizieren Eins solcher Fragmente, welches auf endliche Aufteilungen des Zustandsraums basiert, und wir illustrieren, welche Klasse von Programmen zu diesem Fragment gehört.

Andrea Füresz Analyse, Systemdesign und Architekturentwurf einer elektronischen Gesundheitsakte für Nutztiere Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund Diese Diplomarbeit beschäftigt sich mit einem System zur Speicherung von gesundheitsrelevanten Daten aus der Nutztierbranche. Das Ziel dieser Arbeit besteht darin, einen Softwarearchitekturentwurf für ein derartiges System zu entwickeln. Dabei geht es darum, die einfache und effiziente Verarbeitung

Page 38: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

36

von Daten, die Möglichkeit zur lückenlosen Dokumentation sowie wirtschaftliches Management innerhalb der Tierkliniken und Tierarztpraxen zu ermöglichen. Vor dem Systemdesign und dem Entwurf wird die derzeitige Lage am Markt, der gesetzliche Rahmen sowie die Technologiestandards, die dabei zum Einsatz kommen könnten, analysiert.Weiters werden die Anforderungen an dieses System charakterisiert und Stakeholder definiert, für die ein Rollenkonzept entwickelt wird. Aus den gewonnenen Ergebnissen entsteht der konzeptionelle Entwurf, der neben einer textuellen Beschreibung durch den Einsatz von UML auch eine visuelle Darstellung liefert. Die Analyseergebnisse stammen aus umfangreichen Internetrecherchen sowie Gesprächen mit Fachleuten aus der Nutztierbranche. Der Nutzen dieser Arbeit liegt in einem System, das den gesundheitlichen Zustand, die bisherige Krankengeschichte und die verabreichten Medikamente an ein Tier lückenlos dokumentiert sowie diese Daten zentral gesammelt verfügbar macht. Ein derartiges System trägt sowohl zur Verbesserung der Nahrungsmittelqualität sowie zu einer besseren Überwachung von Krankheiten bei, da durch die zentral verfügbaren Daten eine bessere Kontrolle möglich wäre. Das zentrale Ergebnis dieser Arbeit liefert durch die ausführliche Analyse und dem daraus entstehenden konzeptionellen Entwurf eine solide Grundlage für weitere Entwicklungen im Bereich der Umsetzung einer elektronischen Gesundheitsakte für Nutztiere.

Dominik Kontner Konzept und Implementierung einer mobilen Applikation zum Zwecke der Wundidentifikation und Wunddokumentation Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund Die vorliegende Arbeit ist im aktuellen Forschungsbereich von eHealth, mHealth und pHealth positioniert. Zunächst werden die Grundlagen und Begriffe erläutert und anhand einer umfassenden Literaturrecherche die Akteure, Services und Prozesse des eHealth identifiziert. Der Fokus dieser Diplomarbeit liegt auf der Wunddokumentation, die essentieller Bestandteil des Wundmanagements und wichtig für die qualitative Bewertung des Wundheilungsprozesses ist. Als Aufgabenstellung wurde eine Android App entwickelt, die die Funktionalitäten eines bereits existierenden Algorithmus zur Bildanalyse für Smartphones zur Verfügung stellt. Um das konkrete Einsatzumfeld dieser App bestimmen zu können, wurden im Zuge der detaillierten Domänenanalyse die technischen und fachlichen Anforderungen an eine medizinische App zur Wundidentifikation erhoben. Aufgrund dieser Analyse wurde ein Prototyp entwickelt, der als Basis für weitere Studien dienen soll. Um das Problem auf einer ganzheitlichen Ebene zu lösen, wurde mit diesem Prototypen eine modulare Systemarchitektur entworfen. Die Wundbilder werden durch den Bildanalysealgorithmus kalibriert, segmentiert und vermessen. In einer abschließenden Evaluierung des Prototyps konnten einige Stärken und Schwächen der Implementierung sowie mögliche Lösungswege aufgezeigt werden.

Page 39: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

37

Thomas Lemme Entwurf und Implementierung einer Domain Specific Language zur effektiven Modellierung von Formulardaten im Bereich der medizinischen Dokumentation Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund Die vorliegende Arbeit besch ftigt sich mit der Modellierung von Abhängigkeiten in einem medizinischen Studiensystem. Die Formularfelder eines Web-Formulars, sowie die dahinter liegenden Daten, sollen durch Formeln und Bedingungen miteinander in Beziehung gesetzt werden. Durch Eingabe von Werten in einzelne Felder werden Berechnungen ausgelöst, die wiederum den Wert anderer Felder bestimmen. Der Ansatz, mit dem diesem Problem begegnet wird, ist der Entwurf und die Entwicklung der Ausdruckssprache Form Expression Language (FXL). Diese ist eine Domain Specific Language (DSL) in der Domäne "Modellierung von Formulardaten". Ahnlich zu bekannten Ausdruckssprachen, wie etwa den Formel-Ausdrücken aus Tabellenkalkulationssoftware, ist die FXL in der Lage, Statements mit Variablen (zum Referenzieren anderer Formularfelder) und Funktionen (zur Erweiterung der Funktionalität) zu evaluieren. Der erste Teil er rtert die zum Verständnis der Arbeit notwendigen technischen und theoretischen Grundlagen. Es werden die Begriffe definiert und eine Ubersicht uber das wissenschaftliche Umfeld der Modellierung von Webformularen geboten. Der zweite Teil widmet sich dem Entwicklungsprozess der Sprache. Zuerst wird der Aufwand der Entwicklung einer neuen Sprache begründet, indem die Vor- und Nachteile der Alternativen abgewogen werden. Danach werden die Entwicklungsphasen Analyse, Entwurf, Implementierung und Test beschrieben. Im Zuge dieser Phasen werden aus den Anforderungen die Sprache und deren Schnittstellen entwickelt. Der dritte Teil behandelt die Integration der in dieser Arbeit entwickelten DSL in das medizinische Studiensystem. Nach einer Beschreibung des Zielsystems werden diverse Themen wie Zyklenfreiheit, Ausführungsreihenfolge, Ausführungszeit und -ort behandelt, die bei der Integration beachtet werden müssen.

Martin Schacherl Entwurf und Entwicklung eines mobilen Patientendatenerfassungssystems im Rettungsdienst Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund In dieser Arbeit wird ein elektronisches Dokumentationssystem im präklinischen Bereich für Tablet-PCs auf Android-Basis vorgestellt. Derzeit wird die Dokumentation im Rettungsdienst hauptsächlich auf Papierformularen durchgeführt. Im Rahmen der Anforderungsanalyse mithilfe von User Interviews zeigte sich, dass die befragten Sanitäter mit der papierbasierten Dokumentation nur wenig zufrieden sind - umständliches Handling, schlechte

Page 40: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

38

Lesbarkeit, sowie geringe Datenkorrektheit sind die Hauptgründe. Außerdem begrüßen diese die Einführung eines elektronischen Dokumentationssysstems, da sie Zeitersparnis und Arbeitserleichterung durch ein solches Systems vermuten. Um die User-Akzeptanz hoch zu halten, wurden außerdem die Usability-Techniken Persona und Szenario angewandt. Für die zu übertragenden Daten wurde eine passende Dokumentstruktur auf Basis des internationalen Standards Health Level 7 - Clinical Document Architecture entwickelt, sowie passende REST-konforme Schnittstellen zu Webservices, die der Speicherung von Transportbericht-Daten und Abfrage von Patientendaten dienen, spezifiziert. Außerdem wurde eine Signaturschnittstelle unter Verwendung von HL7-Nachrichten und XMLDsig entwickelt, um die Patientenübergabe an die Behandlungseinrichtung drahtlos und fälschungssicher abzubilden. Der entwickelte Prototyp wurde mehrere Tage im Rahmen eines induktiven Usability-Tests im produktiven Umfeld getestet, und die teilnehmenden Sanitäter anschließend befragt. Dabei zeigten sich nur wenig Probleme, diese vor allem beim Handling des Tablet PC, der Verwendung der Bildschirmtastatur, sowie der Platzierung des Cursors. Aus den Befragungen ergab sich, dass die Teilnehmer die im Vorfeld formulierten Vorteile eines elektronischen Dokumentationssystems durch den Test bestätigt sahen. Außerdem wurden auf Basis der Befragungen zukünftige Erweiterungen, wie eine Schnittstelle zur Leitstelle, sowie das Auslesen der Sozialversicherungskarte (E-Card) ermittelt und vorgestellt.

Arbeitsbereich Programmiersprachen und Übersetzer

Daniel Auer Wartbarkeit in aspektorientierter Programmierung Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Franz Puntigam Wartung ist eine wichtige und im Normalfall die längste Phase im Software-Life-Cycle. Dementsprechend hoch sind die Kosten, welche in der Wartungsphase entstehen. Aus diesem Grund ist die Verbesserung der Wartbarkeit ein oft gewünschtes Ziel. In der vorliegenden Arbeit wird untersucht, ob der Einsatz aspektorientierter Programmierung Einfluss auf die Wartbarkeit hat und ob aspektorientierte Software einfacher oder schwieriger zu warten ist als vergleichbare objektorientierte Software. Der Fokus liegt dabei auf den Subkategorien der Wartbarkeit, Changeability und Testability. Zu diesem Zweck werden Einflussfaktoren auf die Wartbarkeit identifiziert und die Auswirkung der aspektorientierten Programmierung auf diese untersucht. Des Weiteren wird Software aus unterschiedlichen Domänen, die sowohl in einer objektorientierten als auch in einer aspektorientierten Variante vorliegt, zur Analyse herangezogen. Auf beide Versionen der untersuchten Anwendungen werden Wartungsschritte angewendet und die Ergebnisse verglichen. Um Aussagen über die Changeability treffen zu können, werden Änderungen, wie sie typischerweise in der Wartungsphase vorkommen,

Page 41: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

39

durchgeführt. Die Komplexität dieser Änderungen gibt Auskunft über die Changeability der zu Grunde liegenden Anwendung. Um Unterschiede bezüglich Testability aufzuspüren, werden für die objektorientierte und aspektorientierte Varianten der ausgewählten Programme Testfälle verfasst. Anschließend folgt eine Analyse der dabei aufgetretenen Schwierigkeiten. Die Analyse ergibt, dass aspektorientierte Programme besonders bezüglich der Streuung der Änderung besser als ihre objektorientierten Pendants abschneiden. Das heißt, Änderungen müssen an weniger Stellen im Code durchgeführt werden. Aus der Testability Untersuchung gingen starke Hinweise auf eine bessere Eignung aspektorientierter Software für unabhängige Tests hervor. Es wurden aber auch neue Testschwierigkeiten erkannt, welche zu einer höheren Testkomlexität führen können

Jürgen Hirsch An Adaptive and Flexible Replication Mechanism for MozartSpaces, the XVSM Reference Implementation Studium: Masterstudium Software Engineering & Internet Computing Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn The rapid development of the Internet and its increasing popularity required a refinement of communication paradigms which represented the de facto standard a few years ago. In recent years a computer network consists of several clients and a central server, but this network design is antiquated and should be avoided for high performance systems. A scalable modern network consists of hundreds or thousands of clients which exchange data with each other without a required central authority. A concrete implementation of this communication pattern is the space based computing paradigm. These high flexible networks introduce additional difficulties. Whereas in the past a centralized server was easily replicated or mirrored to avoid a loss of data or a service interruption, this approach is more difficult in current space based computing paradigms. Due to the fact that these networks do not contain a centralized data store respectively it is not always obvious on which client a portion of data has been persisted. Each client in the space contains a part of the knowledge of the whole network. Similar to a database cluster, this data has to be replicated and distributed among other clients to avoid a loss of data, if a client disconnects. This work introduces a replication mechanism for MozartSpaces, which follows the space based computing approach. This mechanism allows a flexible replication of the space content. This flexibility is reached by the Replication Manager which uses concrete plugins to control the replication of the space content. Additionally, the Replication Manager contains a quality of service component which is responsible for ensuring some replication parameters like the minimum number of replicas.

Page 42: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

40

Martin Wieser Autonome Fehlererkennung bei Robotern mithilfe eines künstlichen Immunsystems Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Jens Knoop Diese Arbeit untersucht, ob fehlerhaftes Verhalten eines Roboters zur Laufzeit mithilfe eines künstlichen Immunsystems erkannt werden kann. Der Einsatz von Robotern auf dem Mond, in Katastrophengebieten oder auch auf dem Spielfeld des Robocups erlaubt häufig kein menschliches Eingreifen. Das selbstständig agierende System muss in vielen Situationen autonom Fehlerfälle erfassen, um darauf im laufenden Betrieb reagieren zu können. Die Abdeckung deterministisch auftretender Fehler durch Ausnahmebedingungen ist häufig nicht ausreichend. Aufgrund dessen werden Ansätze aus der Disziplin des maschinellen Lernens eingesetzt, um den Roboter die Anomalien autark erkennen zu lassen. Künstliche Immunsysteme stellen einen dieser Ansätze dar, die erlauben, fehlerfreie und gefährliche Zustandsmuster zu unterscheiden. Biologische Immunsysteme sind dabei eine Inspirationsquelle für die Algorithmen und deren Bestandteile. Ziel dieser Diplomarbeit ist es, ein Robotersystem mittels künstlichen Immunsystems in die Lage zu versetzen, sowohl deterministisch als auch indeterministisch auftretende Fehler mit unbekannten Quellen zur Laufzeit zu registrieren und indessen deutlich von fehlerfreien Zuständen zu unterscheiden. Dabei dienen die Reaktionszeit des Immunsystems sowie die Anzahl der falsch eingeschätzten Zustände als Evaluierungskriterien. In der Arbeit wird gezeigt, dass ein künstliches Immunsystem integriert in einen Fußball spielenden NAO-Roboter die Fähigkeit besitzt, den Ausfall von visuellen sowie motorischen Fähigkeiten zu diagnostizieren. Die erstellte Infrastruktur wird im Simulator und am Roboter selbst im Spielbetrieb getestet. Der Roboter ist in der Lage, sowohl am Simulator als auch in der Realität 99,5% aller Fehler innerhalb von wenigen Sekunden zu erkennen. Zudem schätzt das künstliche Immunsystem mehr als 99% der fehlerfreien Zustände korrekt ein. Im Rahmen des Robocup 2012 konnte das implementierte System bereits erfolgreich vorgestellt werden.

Jan Zarnikov Energy-efcient Persistence for Extensible Virtual Shared Memory on the Android Operating System Studium: Masterstudium Software Engineering & Internet Computing Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn Coordination of processes within a distributed application is a difficult task. Space based computing solves the coordination problem by writing information into a virtual shared medium called the space. It decouples the processes and eliminates explicit communication between the processes. eXtensible Virtual Shared Memory (XVSM) is a specification of a space based

Page 43: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

41

middleware. Until now MozartSpaces (an implementation of XVSM) did not support persistence - all data was lost when the space was shut down or crashed. Previously it was attempted to solve this problem by either implementing persistence as orthogonal functionality with aspects or by replacing the core of MozartSpaces with a database. Unfortunately both approaches have serious drawbacks: the incompatibility with the XVSM transactions and in the case of the aspect-base solution the problematic management of entry IDs. A new approach had to be found. To our knowledge there is currently no space based middleware that can run and store data on a mobile platform without. The solution proposed in this thesis is a new persistence layer which is tightly integrated into the core of MozartSpaces. The persistence layer hides the database-specific details and can use different database engines. Currently supported databases are Berkeley DB and SQLite but it is possible to add support for further databases. The performance of the persistence was evaluated with a benchmark suite. The results show that both Berkeley DB and SQLite are very fast. Using a database also significantly reduced the memory footprint. An important requirement was also the energy-efficiency of the persistence on mobile devices with the Android OS. This goal was reached only partially because there are no energy profilers that can measure the energy consumption of all relevant components on a scale small enough to be usable for code optimization.

Page 44: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

42

Institut für Informationssysteme

Arbeitsbereich Formal Methods in Systems Engineering

Stephan Krall A Source-Level Interpreter for C Programs Studium: Masterstudium Computational Intelligence Betreuer: Univ.Prof. Dr. Helmut Veith Die FShell Abfragesprache (FShell Query Language, FQL) erlaubt es deklarativ Code-Abdeckungskriterien zu spezifizieren. Diese Spezifikationen können dann zum einen dazu verwendet werden die durch eine Testsuite erreichte Codeabdeckung zu ermitteln und zum anderen dazu genutzt werden eine abdeckende Testsuite zu erzeugen. CPA/Tiger ist ein FQL Testfallgenerator für C Programme welcher auf dem Konzept der konfigurierbaren Programmanalyse (CPA) basiert. Eine wesentliche Komponente von CPA/Tiger ist ein Interpreter, der nur C-Programme behandeln kann, die keine komplexen Datenstrukturen enthalten. Daher wird ein neuer Interpreter entwickelt, der den Heap eines Programms auf exakte Weise abbildet. Dieser Interpreter wird als statische Programmanalyse realisiert was eine einfache Integration in CPA/Tiger ermöglicht. Die exakte Nachbildung des Heaps über eine Programmausführung hinweg ist resourcenaufwändig und daher ist es nicht praktikabel sämtliche Programmzustände in einer unoptimierten Datenstruktur zu speichern. Die Verwendung der Fat Node Datenstruktur erlaubt die Speicherung aller Programmzustände, welche der Interpreter erzeugt. Der neue Interpreter wird mit dem bereits bestehenden Interpreter experimentell verglichen um die Laufzeitunterschiede der beiden Interpreter abzuschätzen.

Daniel Pötzl Achieving High Coverage and Finding Bugs in Sequential and Concurrent Software Studium: Masterstudium Technische Informatik Betreuer: Univ.Prof. Dr. Helmut Veith Concolic testing is an automated software testing method that combines concrete and symbolic execution to achieve high code coverage and expose bugs in the program under test. We implemented several extensions to the openly available concolic testing tool CREST, and evaluated several aspects of it on the programs replace, grep, sed and Vim. We further describe a procedure to effectively solve constraints during concolic testing by using the push and pop operations commonly provided by SMT solvers. We implemented the procedure in C for the SMT solvers Z3, MathSAT, Yices and STP. In an experimental evaluation on constraints generated by CREST during concolic execution on grep and Vim, the push-pop method outperformed all

Page 45: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

43

other methods we tried in most cases. In the second part of this thesis, we discuss the issue of exposing concurrency bugs. We survey several existing tools for finding such bugs, and describe 22 different concurrency bug patterns. Concurrency bug patterns are bug patterns that arise in the context of concurrent programming, and are typically obtained as abstractions of concrete bugs. The study of bug patterns can prevent programmers from making similar mistakes, and can provide guidance for developers of bug exposing techniques and designers of programming languages and APIs.

Arbeitsbereich Knowledge Based Systems

Christian Antic Uniform Approximation-Theoretic Semantics for Logic Programs with External Atoms Studium: Masterstudium Computational Intelligence Betreuer: O.Univ.Prof. Dr. Thomas Eiter HEX programs are disjunctive logic programs under so called FLP-answer-set semantics enhanced with higher-order and external atoms. Since external atoms can represent arbitrary Boolean functions, many formalisms (e.g., dl-programs) can be simulated by HEX programs. For the class of classical programs, major semantics can be characterized in terms of fixpoints of lattice operators defining one step of logical derivation. However, for logic programs with negation, these operators may be nonmonotone, and in this case the fixpoint theory of Tarksi and Knaster is not applicable. Approximation Theory, on the other hand, is an algebraic framework for studying fixpoints of monotone and nonmonotone lattice operators, and thus extends the theory of Tarski and Knaster to the more general class of arbitrary lattice operators. In the first part of the thesis we extend the classical van Emden-Kowalski operator, and the classical Fitting operator to the class of disjunction-free HEX programs, and uniformly define (ultimate) Kripke-Kleene-, (ultimate) well-founded-, and (3-valued ultimate) answer-set semantics by applying Approximation Theory. As a result, we obtain well-supported 2-valued (ultimate) answer-set semantics, and well-founded semantics compatible with the standard FLP-answer-set semantics. For monotone disjunction-free HEX programs, 2-valued answer-set semantics coincide with the standard FLP-answer-set semantics. In the case of disjunctive HEX programs, Approximation Theory is not directly applicable. However, by combining ideas from Approximation Theory, logic programs with aggregates, and disjunctive logic programming, we define 2-valued (ultimate) answer-set semantics of disjunctive HEX programs based on non-deterministic operators. We show that these semantics are minimal, supported, and derivable in terms of bottom-up computations. As HEX programs are generic formalisms, the obtained semantics can be applied for a range of program classes.

Page 46: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

44

Christian Kloimüllner Visualisation and Graphical Editing of Answer Sets: The Kara System Studium: Masterstudium Computational Intelligence Betreuer: Ao.Univ.Prof. Dr. Hans Tompits This thesis deals with the visualisation of answer sets. Although ASP is an acknowledged formalism in logic-based artificial intelligence, development tools for supporting the programmer during coding are missing. A characteristic feature of solvers is that they return these answer sets as textual output on the screen. When the complexity of the problems rises, the output of the solver often gets larger. In this thesis, we address this problem by developing an appropriate visualisation system, Kara, for answer sets. By writing a visualisation program, the user has the possibility to define the graphical representation of the answer set. Thus, the combination of an answer set with the corresponding visualisation program defines the visualisation of the answer set. In this thesis, a visualisation language is presented. The language consists of special predicates dedicated to several shapes and properties of these representations. The result of combining a given answer set with a visualisation program written by the user outputs in turn an answer set, which, when executed by a solver, can then be processed further by Kara. The tool Kara also allows the user to edit the visualisation graphically. While editing, the user may generate new sets of atoms referred to as interpretations which are not necessarily answer sets of the original answer-set program. This should ease the debugging process. Due to the visualisation language, the answer set of the visualisation is in general not an answer set of the original answer-set program. Thus, Kara offers the user the possibility to compute the corresponding interpretation of the original answer-set program from the actual visualisation. The problem of computing the interpretation corresponding to the original program is represented as an abduction problem. This problem is in turn encoded by an abduction program, which - when executed with a solver - outputs the interpretation corresponding to the original program.

Arbeitsbereich Database and Artificial Intelligence

Bernhard Bliem Decompose, Guess & Check: Declarative Problem Solving on Tree Decompositions Studium: Masterstudium Computational Intelligence Betreuer: Privatdoz. Dr. Stefan Woltran Für große Instanzen sind viele praktisch relevante Probleme nicht effizient lösbar. Oftmals werden sie jedoch bewältigbar, wenn die Eingaben auf solche Instanzen beschränkt werden, die einen beschränkten Parameter aufweisen. Besonders die Baumweite hat sich als attraktiver Parameter erwiesen, da sie

Page 47: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

45

auf viele unterschiedliche Probleme anwendbar ist. Beschränkte Baumweite kann häufig durch dynamische Programmierung auf einer Baumzerlegung der ursprünglichen Instanz ausgenutzt werden. Bisher war es jedoch üblicherweise äußerst aufwendig, solche Algorithmen zu implementieren, was auf den Mangel an unterstützenden Werkzeugen, die eine angemessene Sprache zur einfachen Spezifizierung bereitstellen, zurückzuführen ist. In dieser Diplomarbeit stellen wir deshalb eine Methode namens Decompose, Guess & Check vor, die es ermöglicht, solche Algorithmen deklarativ zu spezifizieren. Dafür verwenden wir Antwortmengenprogrammierung einen logischen Formalismus, der ein Programmierparadigma namens Guess & Check unterstützt und es erlaubt, schwierige Probleme prägnant auszudrücken. Dadurch profitiert Decompose, Guess & Check von effizienten Solvern sowie von einer reichhaltigen Sprache, die leicht lesbaren und wartbaren Code ermöglicht. Wir führen eine Analyse des Ansatzes durch, die zeigt, dass dieser mächtig genug ist, um eine große Klasse an Problemen auf Instanzen beschränkter Baumweite effizient zu lösen. Weiters stellen wir ein Softwaregerüst namens D-FLAT vor, das diese Methode bereitstellt. Schließlich wenden wir D-FLAT auf eine Auswahl verschiedener Probleme an, um die Vielseitigkeit des Ansatzes zu illustrieren. Da Instanzen in der Praxis oft kleine Baumweite aufweisen, besitzt unser Ansatz hohe praktische Relevanz. Für viele schwierige Probleme ist Decompose, Guess & Check daher ein vielversprechender Kandidat, um Instanzen zu lösen, die für bestehende Systeme der Antwortmengenprogrammierung bisher außer Reichweite lagen.

Stefan Ellmauthaler Abstract Dialectical Frameworks: Properties, Complexity, and Implementation Studium: Masterstudium Computational Intelligence Betreuer: Privatdoz. Dr. Stefan Woltran Over the last two decades the interest for Abstract Argumentation steadily raised in the field of Artificial Intelligence. The concept of Dungs Argumentation Frameworks (AFs), where arguments and their relations are represented in a directed graph-structure, is a well-known, simple, and powerful concept. This framework is used to find acceptable sets of arguments, which have specific properties (e.g. being conflict free), defined by several semantics. Recently Abstract Dialectical Frameworks (ADFs) were introduced, a generalization of Dungs approach, to overcome the limitation of attack-relations being the only type of native relations. To reach this goal, in addition to the relations, total functions are used to decide the acceptance of an argument. These functions are so called acceptance conditions. Due to the high expressiveness of this newly proposed theory, some semantics were only generalized for the restricted bipolar ADFs yet. This work will give an exhaustive overview on ADFs. The restriction to bipolar ADFs for some of the semantics is not desired, so we try to develop a solution to gain the generalized stable model semantics. This semantics is particularly important because the other semantics which are restricted to bipolar ADFs, depend on stable models. We will concentrate mainly on the introduction of the

Page 48: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

46

alternative representation of propositional-formula ADFs (pForm-ADFs). Based on the new representation a transformation from ADFs to pForm-ADFs, together with a generalization of the stable model semantics will be presented. In addition some properties between semantics will be investigated and an overview of complexity results, enriched with new ones is given. Currently there is no software system available to compute semantics for ADFs. So we also present an Answer Set Programming (ASP) based implementation to solve these highly complex computations. We will also present preliminary empirical experiments.

Andreas Lehrbaum A New Hyperheuristic Algorithm for Cross-Domain Search Problems Studium: Masterstudium Computational Intelligence Betreuer: Privatdoz. Dr. Nysret Musliu Hyperheuristiken bilden ein aufstrebendes Forschungsgebiet für Suchstrategien, welche die Einführung einer neuen Abstraktionsebene nützen um komputational schwierigen Problemen zu begegnen. Anstatt einen einzelnen Algorithmus zu verwenden, der auf eine bestimmte Klasse von Probleminstanzen optimiert ist, versuchen Hyperheuristiken die individuelle Leistungsfähigkeit einer gegebenen Menge von problemspezifischen Heuristiken auszunutzen. Durch die unterschiedliche Kombination und Parametrisierung dieser Heuristiken sind Hyperheuristiken theoretisch dazu in der Lage, gute Ergebnisse über einen größeren Bereich von Probleminstanzen zu erzielen. Idealerweise operieren Hyperheuristiken ohne jegliches Wissen bezüglich der zu lösenden Problemklasse und nur mit sehr geringem Wissen über die zur Verfügung stehenden untergeordneten Heuristiken. Aus diesem Grund können Hyperheuristiken auch oft ohne große Modifikationen auf neue Problemklassen angewendet werden. Die vorliegende Arbeit beschreibt eine neue Hyperheuristik, die speziell darauf ausgelegt wurde, gänzlich unabhängig von einer bestimmten Problemklasse zu arbeiten. Der Algorithmus ist in eine Anzahl unterschiedlicher Suchphasen untergliedert, welche für ein geeignetes Verhältnis zwischen der Intensivierung und der Diversifizierung des Suchprozesses sorgen. Die verfügbaren untergeordneten Heuristiken werden fortlaufend anhand mehrerer Eigenschaften bewertet und mit einer neuen qualitätsbasierten Metrik gereiht. Weiters vereinigt der Algorithmus eine Reihe von Ansätzen aus verschiedenen Gebieten der Forschung an Metaheuristiken, namentlich Iterated Local Search, Simulated Annealing, Tabusuche und genetischen Algorithmen. Eine Variante des Algorithmus wurde als Kandidat bei der Cross-domain Heuristic Search Challenge 2011 von der University of Nottingham eingereicht. Unter den 20 teilnehmenden Kandidaten belegte unser Algorithmus im finalen Bewerb den sechsten Platz.

Page 49: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

47

Martin Schwengerer Algorithm Selection for the Graph Coloring Problem Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Privatdoz. Dr. Nysret Musliu The graph coloring problem (GCP) is one of the most-studied NP-hard problems in computer science. Given a graph, the task is to assign a color to all vertices such that no vertices sharing an edge receive the same color and that the number of used colors is minimal. Various heuristic and exact approaches for this problem have been developed. However, all of them seem to have advantages and disadvantages, which highly depend on the concrete instance on which they are applied. One possibility to achieve a better performance is to predict for each instance the algorithm which achieves the best performance. This task is known as algorithm selection problem: Given a set of algorithms and a set of intrinsic features of a particular instance, select the algorithm which is predicted to show the best performance on that instance. This thesis investigates the application of machine learning techniques to automatic algorithm selection for the GCP. For this purpose, we first present several specific features of a graph, which can be calculated in polynomial time. Then, we evaluate the performance of 7 state-of-the-art (meta)heuristic algorithms for the GCP based on experi-mental results on 1265 graphs of 3 public available instance sets. In a subsequent step, we use the knowledge about the best-suited algorithm per instance in combination with intrinsic graph features to train 6 classification algorithms. These supervised learning methods are then used to predict for an unseen instance the most appropriate algorithm. We further identify relevant subsets of features and investigate the impact of different data-preparation techniques on the performance of the classifiers. Finally, we evaluate our proposed approach on a new generated set of instances. Our experiments show that algorithm selection based on machine learning is able to outperform all considered solvers regarding several performance criteria.

Arbeitsbereich Distributed Systems

Tobias Hammerer A Simulation Framework for Task-based Crowdsourcing with Auctions Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Unter Task-Based Crowdsourcing versteht man die Auslagerung einer Aufgabe an eine Menge von unbekannten Akteuren (Crowd) unter Zuhilfenahme von Webtechnologien. Die Crowd bearbeitet die Aufgabe und stellt ein Ergebnis bereit. Plattformen, die dieses Service anbieten sehen sich mit verschiedenen Herausforderungen konfrontiert, insbesondere die Berücksichtigung von Qualitätsunterschieden der bearbeiteten Tasks sowie

Page 50: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

48

die Erzielung des für alle Beteiltigten höchst möglichen Nutzens durch eine angemessene Aufgabenverteilung. Auktionen stellen hierbei einen interes-santen Ansatz dar, der in der Fachliteratur in diesem Zusammenhang bisher noch nicht eingehend analysiert wurde. Das Testen und Evaluieren neuer An-sätze kann als eine weitere Herausforderung identifiziert werden, zumal der Zugang zu echten Daten oftmals mit Schwierigkeiten verbunden ist. In dieser Masterarbeit wird zunächst ein hochgradig konfigurierbares, modulares und erweiterbares Simulations-Framework vorgestellt, welches dem Ansatz der Agenten basierten Modellierung folgt. Das Framework unterstützt dabei aktuelle Qualitätsmanagement-Methoden (basierend auf einem Skill Profiling Modul) und verschiedene Auktionsmechanismen (zur Verteilung der Aufgaben). Anschließend wird die Eignung verschiedener Auktions-mechanismen für diverse Crowdsourcing-Szenarien untersucht. Darüber hinaus werden drei Standard- Auftragsauktionen (Reverse Auctions) und eine Double Auction einem Vergleich unterzogen. In Hinblick auf die Auswertung von Qualität, Taskverteilung und Profit erzielt die Reversed Sealed-Bid Auktion in Summe die besten Resultate. Im Vergleich zu den Standard Auktions-mechanismen, liefert die Continous Double Auction in den meisten Kategorien etwas bessere Ergebnisse. Zudem wurden drei verschiedene Qualitätsmanagement-Methoden einer Analyse unterzogen. Dabei kann festgehalten werden, dass die Verwendung einer Auktion, die die Aufgaben den qualifiziertesten Usern zuteilt, die höchsten Qualitätswerte erzielt.

Florian Kimmel Design and Implementation of an Interaction-centric Context Store Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar We connect with people in many different ways. We write emails, post messages on Facebook, or write text messages. This information can be used to support our every day life. Context-Aware Systems collect such type of context data to enable decisions making about the current situa- tion. This diploma thesis focuses on the Design and Implementation of an Interaction-centric Context Store. The work also evaluates the flexibility of the design by modelling the same scenario in two different ways. The underlying implementation exploits OSGi and RESTful WS technology.

Martin Leonhartsberger-Schrott A service based quadcopter Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar In den letzten Jahren erlangte der Quadcopter eine Drone die ihren Flug autonom mithilfe vier Rotoren stabilisiert einen immer höheren Bekanntheitsgrad im militärischen Bereich, aber auch in der Modellbauszene.

Page 51: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

49

Durch neuartige Internet-basierende technologische Entwicklungen können Quadcopter zunehmend unabhängig agieren. Diese Arbeit beschreibt die Idee eines service copter, d.h. eines Quadcopters dessen Interaktion mit der Außenwelt über eine Service-basierte Schnittstelle abgewickelt wird. Diese Vorgehensweise erlaubt eine Einbettung in serviceorientierte Architekturen. Ermöglicht wird diese Art der Kommunikation durch den Einsatz eines in den Quadcopter aufnehmbaren Smartphones. Auf diesem Mobiltelefon ist eigens entwickelte Software dafür verantwortlich die simple sensorenbasierende Plattform in eine serviceorienterte Drone zu verwandeln. Der erste Teil dieser Arbeit detailliert das Konzept der service copter. Es wird ausgeführt wie sich ein derartiges Fluggerät in serviceorientierte Architekturen einfügen kann und spezifiert die Anforderungen und Komponenten eines solchen Systems. Außerdem werden zwei konkrete Anwendungsszenarien präsentiert. Der zweite Teil der Arbeit erläutert Design und Konstruktion eines service copter-Prototypen. Es wird die verwendete Hardware beschrieben und wie die einzelnen Teile zusammenarbeiten, zusätzlich werden Implementierungs-details der entwickelten Software erklärt. Abschließend wird der Prototyp einer Evaluation bezüglich Einsetzbarkeit für ein Test-Szenario unterzogen und die Ergebnisse dieser Arbeit werden diskutiert.

Stefan Nastic A Data Quality Framework for Pervasive and Ubiquitous Systems Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar The problem of data quality is inherent to various information systems. Due to abundance of electronic data, effects of data quality are becoming more and more critical. Further problems arise with emerging systems such as u-biquitous computing systems that pose additional requirements regarding the quality of data. The application field of emerging large-scale pervasive and u-biquitous computing systems ranges over multiple domains e.g. health-care, smart grids, civil service, smart buildings and smart cities. Due to complexity and diversity of run-time scenarios pervasive systems are deployed in, ob-serving and understanding the environment become very difficult. Addition-ally, large number of diverse data sources, usually utilized opportunistically, only further complicate the matter. On top of this, diversity and geographical distribution of data sources , near real-time data processing and delivery re-quirements together with a lack of common schema pose additional challen-ges on data quality management. Therefore, it becomes crucial to be able to acquire quality information which can be translated into meaningful insights. In this work we set a corner-stone for development of compre-hensive and general data quality framework for large-scale ubiquitous computing systems. Most important concepts of the framework are data quality measurement and assessment mechanism, together with quality driven data source selection and continuous quality assurance mechanism. We provide a comprehensive analysis of representation, sensing, evaluation and run-time usage of data quality information in pervasive and ubiquitous systems. Finally, the

Page 52: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

50

developed data quality framework is evaluated on the real-life data gathered from Cosm IoT platform. In the experiments it is shown that by employing the proposed approaches we are able to account for inherently unstable and highly dynamic nature of data sources in ubiquitous computing systems.

Andreas Scharf The Twitter Testbed - A Social Network Simulation Studium: Masterstudium Medizinische Informatik Betreuer: Univ.Prof. Dr. Schahram Dustdar Soziale Netzwerke haben heutzutage Dimensionen jenseits der hundert Millionen Benutzer erreicht. Diese große Datenmenge macht sie interessant für wissenschaftliche Untersuchungen und die Entwicklung von spezifischen Programmen welche sie untersuchen. Im großen Kontrast zu den unzähligen Entwicklungen und den großen Datenmengen auf denen diese arbeiten sollen stehen Testdaten zur Evaluierung der Integrität nur äußerst beschränkt zur Verfügung. Obwohl es grundsätzlich möglich ist Testdaten direkt aus den sozialen Netzwerken auszulesen steht dem ein hoher zeitlicher Aufwand und die Problematik der Anonymisierung von personenbezogenen Daten entgegen welche den genannten Mangel an verfügbaren Testdaten begründen. In der vorliegenden Master-Arbeit stellen wir ein Programm vor welches das Forest Fire Model zur Grafengenerierung nutzt um künstliche Netzwerke in beliebiger Größe und Anzahl zu erstellen, welche ähnliche Strukturen wie das Twitter Netzwerk aufweisen. Zusammen mit einer integrierten Simulation von Kommunikationsvorgängen bietet dieses Werkzeug die Möglichkeit einer realitätsgetreuen Nachbildung der Vorgänge in diesem sozialen Netzwerk und damit eine Grundlage für ausgiebige Testszenarios. Die Ausgabedaten des Programms stellen eine adäquate Approximation eines realen sozialen Netzwerks dar, beinhalten dabei aber keinerlei personenbezogener Daten. Durch den Einsatz des TwitterTestbeds als Quelle für anonyme Testdaten kann der Entwicklungsprozess beschleunigt und die Qualität der Ergebnisse stabilisiert werden. Die Kosten und der Zeitaufwand sollten auf Grund des Wegfalls der beschriebenen Problematiken spürbar reduziert werden.

Karl Stary Answerer Ranking Framework for Community-Driven Question and Answer Platforms Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Internetbasierte Frage und Antwort Gemeinschaften haben sich innerhalb der letzten zehn Jahre zu sehr populären Plattformen entwickelt. Heute gibt es riesige Gemeinschaften, in denen täglich mehrere Zehntausende Fragen gestellt werden. Das Ziel dieser Arbeit ist es, solche Gemeinschaften zu

Page 53: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

51

verbessern, indem neue Fragen automatisch zu passenden Mitgliedern weitergeleitet werden. Weites soll es nicht notwendig sein, dass Benutzer ihre Fragen kategorisieren müssen. Um diese Ziele zu erreichen wird ein System vorgestellt, welches verschiedene Komponenten enthält, mittels welcher die Wahrscheinlichkeit geschätzt wird, dass ein spezieller Benutzer solch einer Gemeinschaft fähig ist, eine spezielle Frage zu beantworten. Die drei Kern-Komponenten sind Wissen, Autorität, und Aktivität. Sie werden verwendet, um die Richtigkeit, die Vertrauenswürdigkeit und die Antwortzeit von potentiellen zukünftigen Antworten eines Benutzers zu schätzen. Konkrete Realisierungen der Wissens-Komponente basieren auf dem Vektor-Raum Modell (VRM) und auf dem Frage-Wahrscheinlichkeits-Sprachen-Modell (Query Likelihood Language Model). VRM verwendet Term Frequenz - Inverse Dokumenten Frequenz (TF-IDF), wobei IDF auf der Benutzersammlung basiert. Nach bestem Wissen ist das ein neuartiger Ansatz, da in der Literatur IDF immer mittels Fragensammlung ermittelt wird. Die Realisierungen der Autoritätskomponente sind zum Beispiel InDegree und PageRank. Benutzer-Aktivität ist mittels neuartigem Aktivitätsfilter berücksichtigt, welcher, nach bestem Wissen und Gewissen, noch bei keinen ähnlichen Arbeiten verwendet wurde. Dieser entfernt alle inaktiven Benutzer vor der eigentlichen Berechnung der Rangliste von potentiellen Antwortenden. Die Implementierung des Systems ist für die Verwendung von modernen Multi-Kern Prozessoren ausgelegt. Basierend auf einem vom Yahoo! Webscope Programm bereitgestellten Datensatz werden verschiedene Varianten der Reihungsberechnung untersucht und die passendste ermittelt.

Martin Trenkwalder Mechanismen und Methoden für die Generierung und Klassifizierung von User Generated Content Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Diese Arbeit befasst sich mit Mechanismen und Methoden für die Generierung und Klassifizierung von User Generated Content. Basierend auf einer Analyse existenter Konzepten wie dem Semantic Web, Ontologien, Topic Maps und Tags wurde der Tagging Prozess detailliert untersucht. In diesem Zusammenhang wurden existente Systeme, wie Evernote, Delicious, Fickr, Picasa, Zootool und Mister Wong verglichen und deren Stärken und Schwächen aufgezeigt. Ausgehend von der Analyse wurde ein Software Prototyp (Web Content Maps), basierend auf Folksonomies, entwickelt. Folksonomy, eine Sammlung von mehreren Schlagwörtern, wird im Zuge der Arbeit in einem eigenen Kapitel genauer betrachtet um somit die unterschiedlichen Arten von Folksonomies, Broad und Narrow Folksonomy, zu erklären. Dabei werden Vor- und Nachteile aufgezeigt. Zusätzlich wir das Phänomen der Long Tail Kurve bei der Vergabe von Tags in der Broad Folksonomy angeschnitten. Zur Wiederauffindung der getaggten Ressourcen wird der FolkRank-Algorithmus, ein auf Folksonomies angepasster PageRank-Algorithmus, analysiert. Zur besseren Verständnis des Vorganges eines

Page 54: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

52

Nutzer bei einer Verschlagwortung, wird der Tagging-Prozess anhand eines Beispiels genauer beschrieben, vom Gedanken sammeln bis zum Hinzufügen des Schlagwortes. Zudem wird dabei auf die unterschiedlichen Motivationen der Nutzer eingegangen. Der oben genannte Prototyp beinhaltet ein Tagging-System und ein Information Retrieval Tool. Für den Taggingvorgang wurde eine Google Chrome Extension erstellt. Das Wiederauffinden der Ressourcen in der Folksonomy erfolgt durch eine mit PHP entwickelte dynamische Webseite. In dem Ausblick werden neue Lösungsansätze angeführt, die versuchen, die Nachteile von Folksnomies zu beseitigen.

Stefan Vallaster Investigation of Techniques for Collaboration in Task-based Crowdsourcing Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Univ.Prof. Dr. Schahram Dustdar Aktuelle Crowdsourcing Systeme unterstützen nur ein sehr einfaches Arbeitsmodell. Das Interesse von Unternehmen auf der ganzen Welt, die höchst komplexe Arbeit mittels Crowdsourcing auslagern möchten, steigt dabei kontinuierlich. Deshalb ist es notwendig Konzepte zu entwickeln um die Integration komplexer Arbeit in Crowdsourcing Systeme zu ermöglichen. Dabei birgt die Integration von komplexer Arbeit eine Reihe von Herausforderungen, da komplexe Aufgabenstellungen im Allgemeinen nicht in Arbeitspakete teilbar sind, welche von einzelnen Personen unabhängig voneinander abgearbeitet werden können. Wir nutzen verschiedene Formen der Kollaboration um die Integration von komplexer Arbeit in Crowdsourcing Systeme zu ermöglichen. Wir modellieren komplexe Arbeit als sogenannte Composite Tasks. Ein Composite Task besteht aus einer Reihe von Teilaufgaben, welche Abhängigkeiten untereinander haben können. Diese Abhängigkeiten zeigen das Maß an Zusammenarbeit, welches nötig ist, um voneinander abhängige Teilaufgaben zu lösen. Ergänzend stellen wir ein Modell für ein Soziales Kollaborationsnetzwerk vor. Alle Arbeiter sind Teil dieses Netzwerks. Die Beziehungen zwischen Arbeitern im sozialen Netzwerk zeigen dabei, wie gut diese miteinander zusammenarbeiten können. Darauf aufbauend führen wir zwei Team-Strukturen, nämlich statische und dynamische Teams, ein. Unsere vorgestellten Konzepte werden in eine Simulationsumgebung für Crowdsourcing implementiert um eine Evaluierung zu ermöglichen. Wir führen eine Reihe von Auswertungen durch um Vor- und Nachteile der beiden Teamstrukturen aufzuzeigen. Die Ergebnisse der Evaluierung zeigen signifikante Unterschiede in der Anzahl der erfolgreich abgearbeiteten Aufgaben und der Qualität der erbrachten Arbeit in Abhängigkeit der Teamstruktur.

Page 55: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

53

Institut für Rechnergestützte Automation

Arbeitsbereich Computer Vision

Florian Ganglberger Non-linear Mapping of Drosophila Populations based on Neuronal Structure Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig The behavior of drosophila can be linked to the activity of a set of neurons. These neurons express different genes whereby their manipulation and effects on neurons are subjects of current research. The automatic identification of similar neurons in different brains give biologists an opportunity to analyze a set of brain volumes without manual annotation. In this thesis, a similarity measure was developed to compare small, segmented neuronal structures. This measure can be used to build mappings of fly brains, based on the similarity in sub-regions. The mapping is performed by a non-linear dimension reduction method called Diffusionmaps. Fly brain images have varying quality regarding noise and location stability, so this method is well suited for use due to its robustness. The resulting mapping can be applied to provide biologists with an overview of the data and visualize differences and similarities between mutations. Additionally, a method for identifying similar regions of brains with different mutations is introduced. For this, a multi-modal genetic algorithm is applied to find brain areas which maximize the similarity measure between flies. In conclusion, the methods perform non-linear mapping of fly brain regions, based on similarity measures, which compare local appearance in confocal microscopy images. The maps reflect groups of flies that exhibit similar structure in local brain areas. On the other hand, also regions in fly brains can be detected that have structures regarding to specific genetic variations. In addition, the similarity measure can be used for image retrieval.

Albert Kavelar Automatically Recognizing Ancient Roman Republican Coin Legends Studium: Masterstudium Medieninformatik Betreuer: Privatdoz. Dr. Martin Kampel Diese Diplomarbeit stellt einen neue, vollautomatische und bildbasierte Methode zur Erkennung von Legenden antiker Münzen der Römischen Republik. Herkömmliche Texterkennungsmethoden setzen eine horizontale Ausrichtung des im Bild befindlichen Textes voraus und setzen Binarisierungsverfahren zum Segmentieren des Textes vom Hintergrund ein. Da Legenden in Münzbildern beliebig orientiert sein können und die Farbe der Legende jener der Münze an sich ident ist, scheitern diese Methoden. Deshalb setzt die hier präsentierte Technik auf Objekt- und

Page 56: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

54

Mustererkennungsmethoden und nützt lokale Bildmerkmale zur Beschreibung der Buchstaben im Bild. Zur Legendenerkennung werden in Bildregionen von hohem Informationsgehalt für jeden zweiten Pixel in horizontaler und vertikaler Richtung SIFT-Deskriptoren fixer Größe berechnet. Für diese Punkte wird mit einem Klassifikator, im Speziellen mit Support Vector Machines (SVM), die Wahrscheinlichkeit für das Auftreten unterschiedlicher Buchstaben ermittelt. Die den Punkten zugeordneten Wahrscheinlichkeiten werden mittels einer pictorial structures (bildhafte Strukturen) genannten Technik zu Wörtern eines vordefinierten Lexikons kombiniert. Jenes Wort, das dabei die niedrigsten Kosten verursacht, wird im Bild erkannt. Da im Voraus keine Annahmen über die Orientierung der im Bild dargestellten Legenden getroffen werden kann, ist es wichtig, rotationsinvariante Bildmerkmale zur Buchstabenerkennung zu verwenden. Bei den Experimenten stellte sich heraus, dass der Einsatz rotationsinvarianter Bildmerkmale die Erkennungsrate senkt. Um diesen Umstand zu kompensieren, werden aufgrund rotationsinvarianter Bildmerkmale gefundene Worthypothesen in einem nachfolgenden Schritt mit Bildmerkmalen der Worthypothese entsprechender fixer Orientierung verifiziert. In den durchgeführten Experimenten konnte nachgewiesen werden, dass dieser nachgelagerte Schritt die Erkennungsrate signifikant verbessert.

Werner Lang Semi-supervised Annotation of Medical Data Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig Manual segmentation of medical image data is tedious and time intensive - multiple segmentations quickly become prohibitively expensive (especially on 3D data). Observing this, we developed an interactive, incremental annotation approach for 2D/3D medical image data, focusing on simultaneous, weakly-supervised, classification based, multi-patient segmentations. We use an initial over-segmentation method, so-called Superpixels, to cluster spatially-coherent, homogeneous structures while retaining edge information. User-guided brush strokes mark representatives for each label class within the image (e.g. lung, heart, background). The retrieved structures are learned by a random forest classifier. The resulting probabilities for a superpixel to belong to a specific class are combined with local descriptors for edges between superpixels and are optimized by an MRF solver, giving a first estimation of desired appearances in all multi-patient views. Successive interactions refine the annotation, making maximal use of each user input. The resulting framework provides a multi-patient view, allowing to interact with all individual annotation simultaneously. We evaluate the segmentation results on 25 left-hand radiographs, 14 CT thorax slices and 6 hand CT volumes. The proposed framework yields a >90% correct segmentation of multi-patient data sets by the annotation of 17.8% - 30.3% of all computed image Superpixels. Using over-segmentation trough Superpixels combined with local descriptors make whole image labeling

Page 57: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

55

problems in multi-patient segmentations tractable. Multi-patient annotation time is greatly reduced, but contour accuracy is increased nearly proportional to the number of Superpixels.

Georg Nebehay Robust Object Tracking Based on Tracking-Learning-Detection Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig Aktuelle Objektverfolgungsmethoden am Stand der Technik verwenden adaptives Tracking-By-Detection, was bedeutet, dass ein Detektor die Position eines Objekts ermittelt und gleichzeitig seine Parameter an die Erscheinung des Objekts anpasst. Während solche Methoden in Fällen funktionieren, in denen das Objekt nicht vom Schauplatz verschwindet, neigen sie dazu, bei Verdeckungen fehlzuschlagen. In dieser Arbeit bauen wir auf einem neuen Ansatz auf, der Tracking-Learning-Detection (TLD) genannt wird und der dieses Problem bewältigt. In TLD-Methoden wird der Detektor mit Beispielen trainiert, die auf der Trajektorie eines Trackers liegen, der unabhängig vom Detektor ist. Durch die Entkopplung von Objektverfolgung und Objektdetektion erreichen wir eine große Robustheit und übertreffen existierende adaptive Tracking-By-Detection-Methoden. Wir zeigen, dass durch den Einsatz von einfachen Features zur Objekterkennung und mit der Verwendung eines kaskadierten Ansatzes eine beträchtliche Reduktion der Rechenzeit erzielt wird. Wir evaluieren unseren Ansatz sowohl auf existierenden Standarddatensätzen in einer Kamera als auch auf neu aufgenommenen Sequenzen in mehreren Kameras.

Johannes Perl Detecting and Characterizing Interactions within Multivariate Brain Activity Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig Das bildgebende Verfahren der funktionellen Magnetresonanztomographie (fMRI) erlaubt es physiologische Prozesse des Körperinneren darzustellen. Durch die Messung von Schwankungen der Blutoxygenierung verschiedener Gehirnregionen ist weiters eine indirekte Bestimmung von neuronaler Aktivität möglich. Die Detektion von Hirnarealen mit neuronaler Aktivität erlaubt es kognitive Prozesse zu untersuchen und Lokalisation, Ausmaß und Zusammenhang der Regionen zu bestimmen. FMRI ist daher ein sinnvolles Werkzeug, das die Untersuchung von funktionellen Abläufen im Gehirn ermöglicht. In dieser Arbeit wird ein Ansatz vorgestellt, der komplexe Zusammenhänge zwischen räumlich entfernten Gehirnregionen erkennt. Mit Hilfe von Random Forest (RF), einem Klassifikator der aus einzelnen Entscheidungsbäumen besteht, werden die fMRI Daten analysiert. Die Informationen die sich in einem trainierten RF befinden, werden verwendet

Page 58: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

56

um aktivierte Gehirnareale, sowie deren Zusammenhang zu extrahieren. Durch die Verwendung von RF werden die hochdimensionalen Daten effizient verarbeitet und es ist kein aufwändiges Optimieren von Parametern notwendig. Außerdem werden durch RF multivariate Aktivierungen erfasst, was zu einer gesteigerten Empfindlichkeit gegenüber traditionell univariaten Ansätzen führt. Die vorgestellte Methode ist datenbasiert, weshalb kein Vorwissen aus dem Gebiet der Neurowissenschaft erforderlich ist. Das entwickelte System wurde einerseits mit synthetischen Daten evaluiert, andererseits wurden auch klinische fMRI Daten von vier Probanden verwendet. Die klinischen Daten wurden während verschiedener Sprachaufgaben aufgenommen. Die Resultate zeigen, dass RF ein geeignetes Werkzeug für die Analyse von funktionellen Gehirndaten darstellt. Weiters wurde gezeigt, dass komplexe Zusammenhänge zwischen verschiedenen Gehirnarealen entdeckt wurden. Diese funktionellen Konnektivitäten sind als orthogonal zu bisher verwendeten Methoden zu sehen, welche auf Korrelation basieren.

Wolf-Dieter Vogl Automatic Segmentation and Classification Of Breast Lesions Using a Novel Multimodal Imaging Approach Studium: Masterstudium Visual Computing Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig Medical imaging has become crucial in detection and diagnosis of breast cancer. Advanced image modalities like Dynamic Contrast Enhanced Magnetic Resonance Imaging (DCE-MRI), Diffusion Weighted Magnetic Resonance Imaging (DWI), and Positron Emission Tomography (PET) provide complementary information about the lesion biology and increase the precision and certainty of cancer diagnosis. A systematic analysis and categorization of the image data is essential for an accurate diagnosis. Computer Aided Diagnosis (CAD) systems aid radiologists in this task by using digital image analysis methods and machine learning algorithms. The aim of this thesis is the development of a novel multimodal breast lesion CAD system with a fully automatic combination of DCE-MRI, DWI and PET image modalities, the fully automatic detection and segmentation of cancerous regions, and the fully automatic classification of the lesions into benign and malign ones.The CAD system consists of three main elements: the registration of the image modalities using a Large Deformation Diffeomorphic Metric Mapping (LDDMM) method, the detection and segmentation of the lesion using a Random Forests (RF) algorithm, and the classification of the lesions into benign and malign using a further RF. In the validation process it is qualitatively and quantitatively demonstrated on 16 breast studies that a multimodal approach improves the segmentation and classification performance in comparison to a single-modal DCE-MRI approach. The segmentation performance measured by the mean Dice Similarity Coefficient (DSC) increased from 0.39 to 0.45. The classification performance measured by the Area under Curve (AuC) of a Receiver Operating Characteristic (ROC)

Page 59: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

57

curve increased from 0.65 to 0.94. The results of the validation also demonstrate that the proposed method provides a comparable performance to state-of-the-art single-modality CAD systems.

Matthias Zima Hand/Arm Gesture Recognition based on Address-Event- Representation Data Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig In this thesis it is evaluated, if the AE3 data generated by the UCOS4 sensor can be used for hand/arm gesture recognition. The results from this are a first step for the future development of an embedded gesture recognition device based on the UCOS sensor. The UCOS sensor is a novel biologically inspired 3D sensing device developed by AIT5 that senses scene dynamics and exclusively transmits edge information of moving objects while hiding static areas. The so gathered pixel information data are communicated via a sparse, asynchronous protocol called address-event-representation. Trajectories of moving objects like hands/arms are also encoded within this address-event data. A specially modified firmware for gesture recognition enables filtering these trajectories out of the address-event stream. Based on this data features are calculated which are used to classify the gestures using different machine learning methods, the Hidden Markov Model and the Decision Tree. Both classification methods are trained with different sized sets of gestures containing ten, eight and four gestures. From each gesture at least 52 samples are used to evaluate the gesture recognition. The results of the Hidden Markov Model and the Decision Tree are compared with each other.

Arbeitsbereich Automatisierungssysteme

Ülkühan Akay-Gönenc Transparentes Monitoring von Java Applikationen für Sicherheitstests - Eine Proof of Concept Erweiterung für die Java Virtual Machine Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Durch die zunehmend starke Vernetzung von Computertechnologie nimmt auch die Bedrohung durch Angriffe auf einzelne Computersysteme und den darauf ablaufenden Programmen stark zu. In vielen Fällen sind Softwarefehler für Sicherheitslücken verantwortlich, die von Angreifern ausgenutzt werden. Somit gewinnt Sicherheit bei der Softwareentwicklung immer mehr an Bedeutung. Um die Sicherheit eines Computerprogrammes zu testen, werden Sicherheitstests in der Softwareindustrie eingesetzt. Das Ziel von Sicherheitstests ist das Auffinden von sicherheitskritischen Schwachstellen in Programmen. Eine spezielle Technik für Sicherheitstest ist Fuzzing, bei dem

Page 60: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

58

ungültige, unerwartete oder zufällige Daten als Eingangsparameter an die zu testenden Programme übergeben werden. Für die Erkennung von Anomalien (Fehlern), die durch Fuzzer ausgelöst werden, wird das Zielobjekt überwacht. Im Rahmen dieser Arbeit erfolgt für die Überwachung (Monitoring) von Java Applikationen auf Sicherheitsprobleme eine Proof of Concept Implementierung anhand der Java Virtual Machine. Dazu werden die Datenzugriffe eines Testobjekts ermittelt und protokolliert, die später zur automatischen Erkennung von Sicherheitsfehler eingesetzt werden können.

Jan Bryniarski HEIP, Hospital Employee Info Point, ein Verfahren zur Innovation des Wissensmanagements von neuem Fachpersonal Studium: Masterstudium Informatikmanagement Betreuer: Univ.Prof. Dr. Thomas Grechenig Die vorliegende Arbeit setzt sich mit einer praxisbezogenen Umsetzung eines Dokumentenmanagementsystems für eine ausgewählte Mitarbeitergruppe (Turnusärzte) einer Krankenhausabteilung auseinander. Dabei soll als Ziel ein Informationssystem, der sog. Hospital Employee Info Point (HEIP), konzipiert werden. Nach einer theoretischen Auseinandersetzung mit den in einem Krankenhaus stattfindenden Prozessen werden diese vergleichend klassischen IT-Applikationen gegenübergestellt. Dabei zeigt sich, dass die auf den operativen Krankenhaus-Prozess einwirkenden Faktoren komplexer als in einem Unternehmen sind. Zunächst wird eine Gruppierung der im Gesundheitswesen verwendeten IT-basierten Anwendungen/Initiativen vorgenommen. Nach einer Auseinandersetzung mit den IT-nahen Aspekten des Wissensmanagementprozesses werden in diesem Bereich relevante Softwarelösungen dargestellt. Dabei werden Faktoren betrachtet, die den Wissensweitergabeprozess unterstützen, weil diese für eine erfolgreiche Einführung und den Betrieb einer IT-Anwendung wesentlich sind. Zwei vorgestellte Realisierungen aus anderen Branchen zeigen die vor der Implementierung anfallenden Tätigkeiten und den Arbeitsumfang auf. Als eine mögliche Umsetzung des Wissensmanagement-Gedankens wird der Dokumentenmanagement-Prozess erörtert. Diese Form des Wissenstransfers hat sich für die Umsetzung des HEIP als optimal erwiesen, wobei Dokumentenmanagement generell im Krankenhausprozess eine wichtige Rolle spielt. Anschließend werden die bei einer dokumentenmanagement-basierten HEIP-Umsetzung relevanten didaktischen Aspekte (d.h. Schreiben und Lesen) diskutiert bilden diese doch ein Konterpart zu der in der klassischen IT-Umsetzung angewendeten Datenmodellierung und Auswertung. Im Rahmen der Applikationsentwicklung wird ein Kriterienkatalog zur unterstützenden Entscheidungshilfe bei der Softwareanschaffung erarbeitet. Die abschließende Testinstallation findet in mehreren Varianten (lokal, netzwerkbasiert) statt.

Page 61: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

59

Florian Rudolf Fest Design and Implementation of an Integration Architecture in Traffic Telematics Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Die vorliegende Diplomarbeit analysiert und dokumentiert die Softwarearchitektur eines komplexen hochverteilten Videoüberwachungs-systems zur semi-automatischen Straßenverkehrsbeobachtung. Die von Center Communication Systems GmbH angebotene VBTC Produktlinie ermöglicht das digitale Erfassen, Übertragen und Anzeigen von Livebildern, die Aufzeichnung und Wiedergabe von Bildmaterial sowie die automatische Detektion potentieller Gefahrensituationen. Die umfassende technische Dokumentation, die im Zuge dieser Diplomarbeit geschaffen wurde, leistet einen essentiellen Beitrag zur weiteren Entwicklung des VBTC-Systems. Die dargebotene Analyse erlaubt eine detaillierte Evaluierung der Software-architektur. Darüber hinaus wird Hard- und Software Experten, die mit dem VBTC System noch nicht vertraut sind, der Einstieg in das System selbst, sowie in das Anwendungsgebiet der videogestützten Verkehrsüberwachung im Allgemeinen erleichtert. Außerdem diente das VBTC System mehrfach als Basis für anwendungsnahe Forschung im Bereich der Bilderkennung sowie verteilter digitaler Videosysteme. Diese Architekturanalyse stellt eine Basis für weitere Forschungsvorhaben dar. Der Architekturdokumentation geht eine detaillierte Umfeldbeschreibung voraus. Es werden konventionelle und digitale Videosysteme zur Überwachung im Allgemeinen sowie deren spezielle Anwendung in der Verkehrsbeobachtung behandelt. Die Architek-turdokumentation wurde an das von Kruchten entwickelte 4+1 Sichten Modell angelegt. Die Dokumentation bietet einen allgemeinen, aber vollständigen Überblick über alle Funktionalitäten des VBTC-Systems. Detailliert wurden vor allem Verteilungsaspekte sowie die Interaktion mit Fremdsystemen behan-delt. Das zentrale Ergebnis dieser Diplomarbeit stellt die vorliegende Architek-turanalyse dar. Ergebnisse der praktischen Arbeiten im Zuge der Diplomarbeit fanden allerdings auch in den KIRAS Forschungsprojekten iObserve NG und M2DynS sowie in kommerziellen VBTC Projekten Verwendung.

Martin Forstner Der CTF-Contest als effiziente Lehrform für IT-Sicherheit im Software Engineering Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig 'Capture the Flag' (CTF) ist eine Informationskriegsübung, in der die Teilnehmer in Teams gegeneinander antreten und versuchen, ihre eigenen Flaggen zu verteidigen und die gegnerischen Teams zu attackieren, um deren Flaggen zu erobern. Punkte werden vergeben, wenn ein Rechner erfolgreich gehackt oder verteidigt wird. Das Szenario ähnelt dabei einem

Page 62: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

60

Informationskrieg, auch als Cyberwar bezeichnet. In dieser Arbeit wird der Einsatz dieser CTF-Contests in der universitären Lehre diskutiert. Im ersten Teil der Arbeit erfolgt eine theoretische Abhandlung, um den Entwicklungsrahmen der Bewerbe zu präsentieren. Hierin wird auch die Lernform in ihrer Theorie erfasst, um im Weiteren tiefgreifender diskutiert zu werden. Der praktische Teil der Studie umfasst einige Fallbeispiele, die zeigen, wie ein effektiver Einsatz von CTF-Contests im Universitätsbetrieb erfolgen könnte. Weiters wird die optimale Vorbereitung auf die Bewältigung der teilweise sehr komplexen Aufgaben des Bewerbes diskutiert. Darüber hinaus wird der ressourcenschonende Einsatz der notwendigen Hard- und Software sowie die Auswertung der Bewerbe besprochen. Abschließend wird ein Leitfaden mit klaren Empfehlungen für die Austragung von CTF-Contests in der universitären Lehre gegeben.

Thomas Greiner Arduino im Informatikunterricht Studium: Masterstudium Informatikmanagement Betreuerin: Ass.Prof. Dr. Monika Di Angelo Die vorliegende Arbeit befasst sich mit der Entwicklung bzw. Konzipierung eines Lehrbuches zum Thema Arduino, welches speziell für den schulischen Alltag und deren Anwendungsgebiete optimiert ist. Die Hauptaugenmerke sind hier ein strukturierter Aufbau für die schulische Verwendung sowie die Möglichkeit zum selbständigen Erarbeiten gewisser Themenbereiche. Arduino ist ein kostengünstig entwickelter Microcontroller, der seinen Ursprung in einer Universität in Italien hat. Diverse Anwendungen, welche von Design- und ElektrotechnikstudentInnen konstruiert wurden, verlangten nach einer Steuerung von Außen und somit einer Sichtbarmachung für die Außenwelt die elektronische Platine Arduino war die Antwort. Das Arduino-Projekt ist als Open Source verfügbar Projekte auf Basis des Arduinos können somit ohne Lizenzprobleme verwendet werden. Die verfügbare Dokumentation im Internet und die riesige Anhängerschaft dieses Projektes bieten Hilfestellungen in fast allen auftretenden Fragen, welches ein großer Vorteil der Open Source-Lizenzierung ist. Mit dem Arduino wird es möglich, Technik greifbar zu machen. Der explorative Zugang zur Elektronik bzw. zur Programmierung ist gerade zu perfekt für den schulischen Alltag. Speziell beim Programmieren kann jede kleine Änderung rasch visualisiert werden (z. B. mit Hilfe von LEDs). Das Ergebnis der Arbeit ist ein Lehrbuch für Arduino. Die Evaluation des Lehrbuches wurde durch ein Sommerpraktikum an der TU Wien ermöglicht. Hierbei lernten PraktikantInnen mit Hilfe des Lehrbuches die Thematik Arduino kennen, sowie diverse Projekte selbständig umzusetzen.

Page 63: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

61

Dominik Gruber Konzeption und prototypische Implementierung konsumenten-zentrierter Gastronomie-Transaktionen mit Smartphones Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig In den letzten Jahren ist die Zahl jener Person, die einen leistungsstarken Computer mit Zugang zum Internet in ihrer Hosentasche tragen, rasant gestiegen. Sowohl in Europa als auch in Nordamerika sind mit Stand Mitte 2011 mehr als die Hälfte aller eingesetzten Mobiltelefone Smartphones Tendenz steigend. Diese Entwicklung eröffnet neue Möglichkeiten für diverse Industrien. Darunter auch für die Gastronomie, der sich diese Arbeit widmet. Es wird die Frage behandelt, in welcher Form die Geschäfts-Transaktionen mit aktuellen technischen Mitteln wie Smartphones durchgeführt werden können. Zu Beginn wurde untersucht, welche technischen Lösungen aus Sicht des Konsumenten bereits existieren. Auf dieser Basis wurde ein Konzept für ein neuartiges System entwickelt, dessen Kern ein Smartphone Client ist. Ein wesentliches Feature ist, dass Benutzer während ihres Aufenthalts in einem Gastronomiebetrieb angebotene Artikel bestellen und bezahlen können. Der Hauptvorteil aus Sicht des Konsumenten ist der Zeitgewinn, da der Ablauf des Besuchs nun maßgeblich selbst gesteuert werden kann und die Abhängigkeit vom Servicepersonal, das nicht jederzeit verfügbar ist, entfällt. Dieses Konzept wurde durch eine soziologische Studie auf Interesse untersucht. Als Kernergebnis wurde ermittelt, dass vier von fünf Personen in zumindest einer Art von Gastronomiebetrieb gerne eine Bestellung über ihr Smartphone tätigen würden und neun von zehn Befragten würden die Möglichkeit nutzen, Essen zur späteren Konsumation im Betrieb vorzubestellen. Daraufhin wurde ein Prototyp des Smartphone Clients für das Betriebssystem iOS entwickelt, der die wesentlichen Features des Konzepts abbildet. Dieser Prototyp wurde einem Usability Test unterzogen. Der Großteil gab im Anschluss an, das Angebot eines Betriebs eher in Anspruch nehmen zu wollen, wenn dieser ein derartiges System einsetzt.

Thomas Hofer Secure and privacy aware data exchange in a Service-oriented Architecture Studium: Masterstudium Medizinische Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner Privatsphäre und Sicherheit sind nicht-funktionale Anforderung in Software Systeme, denen besondere Beachtung geschenkt werden sollte. Die steigende Komplexität von verteilten Systemen führt zu service-orientierten Architekturen mit einer Vielzahl von Akteuren. Diese Entwicklung fordert eine ganzheitliche Lösung mit einer dedizierten Zugriffskontrolle, um die Privatsphäre der Benutzer und die Sicherheit des Systems zu gewährleisten. Um eine Softwarearchitektur zu entwerfen, deren Ziel es ist, die Privatsphäre ihrer Nutzer zu wahren, ist ein fein-granularer Zugriffskontrollmechanismus

Page 64: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

62

unumgänglich. Die Datensicherheit kann mittels kryptografischen Methoden, wie zum Beispiel digitale Signaturen oder Verschlüsselung, sichergestellt werden. Diese Diplomarbeit beschreibt eine Softwarearchitektur, die im Umfeld von Smart Grids entwickelt wurde, jedoch in jeder anderen beliebigen Domäne verwendet werden könnte. Die resultierende Architektur vereint eine flexible Zugriffskontrolle mit Sicherheitsaspekten in einer service-orientierten Architektur. Für die Umsetzung einer systemunabhängigen Architektur wird auf etablierte Standards und Technologien gesetzt. Die Zugriffskontrolle wird mit sogenannten Policies umgesetzt, die auf einer Attribut-basierenden Zugriffskontrollsprache aufbauen. Die vorgestellte Architektur wird mittels zweier Ansätze evaluiert. Zuerst wird ein Prototyp entwickelt, der in einem zweiten Schritt mittels Performance Engineering, evaluiert wird. Auf diese Weise wird die Softwarearchitektur und die verwendeten Technologien hinsichtlich Skalierbarkeit untersucht und bewertet. Für die Skalierbarkeitsanalyse wird ein Warteschlangenmodell vorgestellt, das mit den Ergebnissen des Benchmarks verglichen wird. Die hier vorgestellte Architektur wurde im Rahmen des Forschungsprojektes Smart Web Grid (gefördert aus Mitteln des Klima- und Energiefonds im Rahmen des Programms Neue Energien 2020) entwickelt, ist jedoch als unabhängig und eigenständig zu betrachten.

Philip Kügler Requirements Analysis and Architecture / Component Design for Mobile Payment Studium: Masterstudium Medieninformatik Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Using mobile data services on mobile phones for payment and mobile banking is gaining broad social acceptance. The technology has evolved from its slow, pretty expensive beginning to a fast and affordable extension of the modern, unlimited communication experience. However, as the technical environment was developed, the contractual and business restrictions were nearly kept in place as they were originally created for voice traffic. To boost the public acceptance of mobile sales it is necessary to break open these enrooted barriers and advance to a more natural service interaction. This work should provide insight to all the technological capabilities and problems when designing a mobile payment platform. It will cover basic knowledge about handling Short Message Service (SMS) and mobile charging, delivery of content to the end user, concerns about privacy and fraud protection as well as some examples for successful solutions. A snapshot of currently established possibilities, dos and donts, and best practice solutions along with the legal basics and important requirements for mobile payment platforms will be provided. All these aspects will be analyzed and a fictional payment platform for Near Field Communication (NFC) payment devices will be designed.

Page 65: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

63

Martin Maier Secure Operation of Open Source Private Branch Exchange (PBX) Servers to Provide reliable VoIP Services Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Since the invention of the telephone about 150 years ago, communication systems have been subject to continuous improvement and form an important factor in modern life. Current development favors Voice over IP based systems, which utilize regular Internet infrastructure and their advantages. Also the ongoing evolvement of software development enables open source products to mature and to form a viable alternative to other software design approaches. The designers of open source private branch exchange (PBX) Asterisk pursue utilizing open source software for the development of a Voice over IP systems. As it combines advantages of both, open source software and Voice over IP systems, a promising future of Asterisk is guaranteed. Although great benefit can be achieved, the openness of and integration into regular Internet infrastructure evokes doubts about the security of the system. This thesis presents an approach to point out potential security threats of an open source PBX system, to analyize their system vulnerabilities and to estimate the risk of such vulnerabilities getting exposed. For an Asterisk based reference system, mitigation strategies for identified risk are presented.

Christian Mauser Traffic Control in Industrial Automation Networks with focus on Paper Machines Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner In der heutigen Zeit basieren fast alle modernen Automationsnetze auf Ethernet. Immer mehr Geräte kommunizieren über ein gemeinsames Medium, wodurch die Wahrscheinlichkeit von Beeinflussungen zwischen einzelnen Subsystemen steigt. Der Einsatz von Office-IT und die oft vorhandene Internetanbindung machen Automationsnetze weiters anfällig für bekannte Bedrohungen, wie z.B. Hacker oder Malware. Deshalb ist es für System-Entwickler und Netzwerk-Administratoren heute wichtiger denn je, gegen ungewollte Einflüsse auf die einzelnen Subsysteme gewappnet zu sein, v.a. wenn es sich dabei um bösartige, beabsichtigte Einflüsse von außen handelt. Um genaue Informationen über den Datenverkehr in einem modernen Automationsnetz zu sammeln, wurde im Rahmen der Diplomarbeit der Fernzugriff auf eine in Betrieb befindliche Papiermaschine ermöglicht. Im Anschluss an eine Analyse des Datenverkehrs werden zwei Konzepte präsentiert, die verwendet werden können, um die Zuverlässigkeit und Sicherheit (im Sinne von Security) eines Automationsnetzes zu erhöhen. Dabei ist kein Einfluss auf die Endgeräte im Netzwerk notwendig, sondern nur

Page 66: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

64

auf das Netzwerk selbst bzw. genauer gesagt auf die Firewall(s). Das erste Konzept ist eine verteilte Firewall mit zentraler Definition der Policy. Durch die Verteilung wird eine strenge Eingrenzung von Fehlern erreicht, was letztendlich zu erhöhter Zuverlässigkeit und Sicherheit des Netzwerks führt. Außerdem wird eine Paket-Filter-Methode diskutiert, die ungewollten Datenverkehr zuverlässiger detektiert als das übliche port-basierte Filtern, das z.B. beim weit verbreiteten OPC-Protokoll bereits an seine Grenzen stößt. Die beiden Konzepte werden mit Ansätzen verglichen, die üblicherweise in der Industrie Anwendung finden. Dies geschieht formal mit einem entsprechenden Fehlermodell und wird mittels Simulation überprüft. Abschließend belegt eine Prototyp-Implementierung die Realisierbarkeit der vorgestellten Konzepte.

Dominik Schmelz Generic and Reusable Proof of Concept Implementation for Automated Test Data Generation Based on XSD Studium: Masterstudium Business Informatics Betreuer: Univ.Prof. Dr. Thomas Grechenig Der Bereich der Softwaretests gewinnt stetig an Bedeutung in der Softwareentwicklung. Je komplexer die Systeme werden, desto schwieriger ist es, sie effizient zu testen. Dies führt zu steigenden Testkosten und insgesamt zu höheren Entwicklungskosten. Je früher Softwaretests ausgeführt werden, desto früher können Fehler gefunden und ausgebessert werden. Dadurch werden geringere Kosten durch die Fehler verursacht. Folglich besteht ein Bedarf an generischen Testsystemen. Ohne effizientes Testsystem wird erfahrungsgemäß zu selten oder überhaupt nicht getestet, was mit hoher Wahrscheinlichkeit zu niedriger Qualität in dem resultierenden System führt. Um konstante Qualität auf effiziente Weise zu erreichen, müssen Tests während des Entwicklungsprozesses wiederholt durchgeführt werden. Dies fordert eine Automatisierung bei der Ausführung der Testfälle und der Erzeugung der benötigten Testdaten. Diese Arbeit stellt eine generische Methode zur Generierung von Testdaten vor, die verwendet werden kann, um verschiedene Software-Systeme zu testen. Eine Proof of Concept Software mit verschiedenen Strategien zur Generierung von Testdaten wurde im Zuge der Arbeit implementiert. Die Arbeit zeigt, wie auf Grundlage einer Schnittstellendefinition in Extensible Markup Language (XML) und Extensible Markup Language Schema Definition (XSD) Ansätze zur Generierung von Testdaten kombiniert, verwendet und ausgeführt werden können. Diese Schnittstellendefinition macht die Methode konfigurierbar für verschiedene Arten von Schnittstellen und erlaubt dem Benutzer, die Menge der Testdaten zu minimieren. Diese Methode ermöglicht es, Schnittstellen eines spezifischen Systems zu definieren, um Testdaten für diese zu produzieren und gegen sie auszuführen. Da die Proof of Concept Software erweiterbar entwickelt wurde, kann sie mit neuen Strategien zur Testdatengenerierung erweitert werden und somit in der Zukunft dazu dienen, unterschiedliche Strategien zu vergleichen.

Page 67: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

65

Martin Schönberger Process Models and Project Management in Open Source Projects Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Open source software typically is developed in distributed communities, which employ specialized means of management and cooperation. The purpose of this research is to study and define a modern open source development process by identifying elements shared by open source projects and determining aspects in which they differ. Furthermore, the thesis investigates how open source development relates to structured processes on one hand, and agile methods on the other. Essential elements of the open source process are identified and compared with those of four process models which are widely used in proprietary development, namely the RUP, PMBoK, Scrum and XP. In an empirical case study grounded on qualitative interviews, developers of three active open source projects provide in-depth information on the lifecycle and practices used in the projects development. This data is used to show how open source communities have created a distinct way of development, which is based on a shared culture and is uniquely adapted to its environment of distributed collaboration, voluntary contribution and developer participation. It is shown how open source development distinguishes itself from other approaches of creating software by a number of specific characteristics. Suggestions are offered how to improve both open source development processes and proprietary forms of development.

Sebastian Simon Erweiterung und Evaluierung eines bestehenden Sicherheitstestwerkzeuges im Bezug auf XML-Security für sicherheitskritische Webservices Studium: Masterstudium Software Engineering & Internet Computing Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig In den letzten Jahren ist eine anhaltende Entwicklung zu beobachten, dass immer mehr sensible Daten über Webservices im Internet verarbeitet werden. In diesen sicherheitskritischen Umgebungen müssen Schutzziele wie Vertraulichkeit, Integrität oder Nachvollziehbarkeit garantiert werden können. XML-Security ist ein XML-basierter Standard, der es ermöglicht diese Sicherheitsaspekte sicherzustellen. Da auch Webservices in der Regel XML-basiert sind, wird dieser Standard häufig eingesetzt. Neben dem Einsatz von geeigneten Sicherheitsstandards ist im Bereich von sicherheitskritischen Umgebungen auch das Auffinden und Schließen von Sicherheitslücken ein zentraler Aspekt um Datensicherheit garantieren zu können. Umfassendes Testen dieser Anwendungen ist daher unerlässlich. Im Rahmen dieser Arbeit werden verschiedene Verfahren vorgestellt, um Schwächen in Designdokumenten, im Programmcode oder in der Konfiguration von Applikationen zu finden. Dabei werden sowohl statische als auch dynamische

Page 68: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

66

Verfahren, Whitebox- sowie Blackbox-Verfahren vorgestellt, die jeweils Vor- und Nachteil im Bezug auf das Auffinden gewisser Klassen von Software-Fehlern aufweisen. Als Schwerpunkt der vorliegenden Arbeit werden sicherheitskritischer Anwendungen mittels Fuzzing getestet. Dazu wird ein bestehendes Fuzzing-Framework um Funktionen für XML-Security erweitert und an einer realen Applikation angewandt. Abschließend wird eine Evaluierung der prototypischen Implementierung durchgeführt, die die Anwendbarkeit der XML-Erweiterung an einer realen Applikation bestätigt.

Phillip Wieser An Approach of Software Quality Estimation using Automated Generation of Test Cases Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig Software is commonly tested before release in order to be able to meet certain quality standards of the final product. Test automation promises to lower the number of repetitious tasks for testers and reduce expenses for testing. However, the introduction of automated testing is not always beneficial. Some dangers are increased one-time costs to implement the automation framework at the beginning, and that test automation is thought to be able to replace all manual tasks. Test case generation is one of the possibilities to use automation in a software project in order to potentially reduce costs and improve quality. A solution that generates test cases and gives stakeholders an estimation of software quality could be used to improve the testing process as well as existing test cases. Within the scope of a case study, a proof-of-concept prototype software to generate test data was developed. The generated test cases were used for testing multiple parts of a software that were written in various programming languages. The comparison of both sets of test cases showed that some existing test cases could not be replaced by their automated counterparts, but also that the generated test cases tested new parts of the software and can be executed much more often. It has been found that the generated test cases can be used to estimate many software quality factors like accuracy, stability and fault tolerance. From the results it has been deducted that software quality is composed of numerous factors, some of which are hard to test for only by generating test cases. The main strengths of auto-mated test case generation lie in testing for correctness and robustness. For quality factors like installability, additional research may be conducted in order to extend the approach and to be able to assess even more quality factors. In general, the solution of generating test cases seems to be most beneficial for complex interfaces with a large number of methods and parameters.

Page 69: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

67

Institut für Technische Informatik

Arbeitsbereich Embedded Computing Systems

Markus Posch Selbststabilisierende Byzantinisch Fehlertolerante Takterzeugung in FPGAs Studium: Masterstudium Technische Informatik Betreuer: Univ.Prof. Dr. Ulrich Schmid Wegen der stets steigenden Taktfrequenzen werden SoCs heutzutage in der Regel als GALS-Systeme entworfen. Um die fundamentalen Metastabilitätsprobleme, die durch asynchrone Kommunikation zwischen Clock-Domains auftreten, zu mindern, wird vermehrt auf multi-synchrone GALS gesetzt, bei denen ein gewisses Maß an Synchronität zwischen den lokalen Takten besteht. Durch die stets kleiner werdenden Strukturgrößen und Spannungshübe werden integrierte Schaltungen immer anfälliger für Treffer von ionisierten Partikeln, Übersprechen und elektro-magnetische Interferenzen. Mechanismen zur Toleranz von permanenten Fehlern wie Byzantinisches Agreement und Selbststabilisierung gegen transiente Fehler werden daher auch im Chip-Design immer wichtiger. Die Diplomarbeit ist im Schnittbereich von verteilten fehlertoleranten Algorithmen und VLSI Design angesiedelt. In dieser Arbeit wird die Implementierbarkeit eines neuartigen Algorithmus für Byzantinisch fehlertolerante, selbststabilisierende Taktgenerierung gezeigt, der die zuvor geforderten Eigenschaften für aktuelle multi-synchrone GALS-Systeme erfüllt. Darüber hinaus werden die Ergebnisse der theoretischen Korrektheits- und Performanceanalyse durch eine experimentelle Evaluation der Implementierung validiert. Primärer Gegenstand der Arbeit ist die Implementierung des verteilten Taktgenerierungsalgorithmus und aller dafür erforderlichen Komponenten in digitaler Logik mittels VHDL. Sie basiert auf Mechanismen wie z.B. der Glitchfreien schnellen Kommunikation zwischen asynchronen Funktionsblöcken, stabilen lokalen (Ring-)Oszillatoren, Watchdog-Timern mit festen und zufälligen Timeouts, Threshold-Modulen und der Implementierung von concurrent communicting asynchronous state machines. All diese Mechanismen wurden in einem FPGA-Prototypen implementiert und in einer eigenen Testbench integriert. Die Vorhersagen der existierenden theoretischen Korrektheits- und Performanceanalyse konnten durch mehrere Experimente bestätigt werden.

Page 70: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

68

Arbeitsbereich Real Time Systems

Valentin Ecker TTEthernet and Modeling Languages: Introducing Methodologies Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Peter Puschner Time Triggered Ethernet is an open platform, which enables the use of COTS Ethernet products together with real-time segments. To facilitate the use of TTEthernet in highly dependable sys- tems, it is important that the platform is properly supported by a modeling language. In order to derive the special needs of a modeling language supporting TTEthernet, a study of existing modeling languages will be done and the inherent properties, constraints and possi- ble applications of TTEthernet will be investigated. Possible use cases, variations and extensions of different modeling languages will be compared and discussed in perspective of the practical use with TTEthernet. Further, a reference implementation will be described to demonstrate the certain benefits of using modeling languages when designing a project incorporating TTEthernet. Required extensions to existing modeling languages will be discussed. Finally, advantages of the new methodologies will be identified. Current state-of-the-art modeling languages for safety critical embedded systems include UML and its extension UML Marte, the SAE Architecture Analysis and Design Language (AADL), SCADE (Esterel Technologies), Simulink (The MathWorks) as well as various combinations. None of the existing modeling languages has been specifically designed for TTEthernet. Ex- isting gaps and missing features in these modeling languages concerning the design of projects with TTEthernet will be identified and evaluated.

Clemens Bernhard Geyer Instruction Set Extensions for Time-Predictable Code Execution Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Peter Puschner Nowadays, highly dependable real-time systems are part of many applications in the aerospace and automotive industries. The requirements of real-time applications do not only include the correctness of results, but also the instant of time, when a result is available. In case of a so-called hard real-time system, the whole system may crash if a task does not finish within a given period of time. Thus, knowing worst-case execution times of programs in advance is of utmost importance. Worst-case execution time analysis (WCET analysis) calculates the longest possible duration an application may take to finish. To do so, all external and internal influences have to be considered, for example, processor and memory load, the implemented caching strategy, etc. In order to simplify the analysis of assembler code, Puschner and Burns presented the so-called single-path transformation of algorithms. It is based on the idea to eliminate conditional branches such that just one possible

Page 71: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

69

execution path remains which is trivial to analyze. Nevertheless, this is only possible if the processor provides certain kinds of instructions. Within the current thesis, the instruction set of the SPARC V8 processor has been extended so that the analysis of assembler code is simplified. Additional goals included that it should be easy to implement these instructions in hardware and adapt existing code generators to support the instruction set extension. Moreover, the resulting worst-case performance should be improved. In order to evaluate the feasibility of the additional instructions, new code generating passes have been added to an existing compiler and an instruction set simulator has been implemented. Based on the results of numerous simulated benchmark algorithms, the most promising instruction set extensions have been identified and suggested to be part of future processors used in real-time systems.

Martin Lampacher An Inquiry into Gateways for Embedded Systems and Consumer Devices Studium: Masterstudium Technische Informatik Betreuer: Ao.Univ.Prof. Dr. Peter Puschner Eingebettete Systeme sind ein wesentlicher Bestandteil unseres Alltags: Meist im Verborgenen und ohne jegliche Interaktion vereinfachen sie unseren Tagesablauf. Der enorme Erfog der Unterhaltungselektronik, wie z.B. Smartphones und Tablets, hat eine Vielzahl an Möglichkeiten für eingebettete Systeme eröffnet und ist ein wichtiger Schritt in Richtung des hochstrebenden Ziels des sogenannten Internets der Dinge, in welchem auch Objekte eindeutig identifiziert werden können und an sozialen und informationstechnischen Prozessen aktiv teilnehmen. Gateways sind ein wichtiger Baustein in Richtung dieses Internets der Dinge, da sie die entscheidende Komponente für die Verbindung von Systemen darstellen. Trotz der Wichtigkeit solcher Gateways gibt es noch immer keine einheitliche Terminologie was ein Gateway genau ausmacht und was dessen primäre Charakteristiken sind. Tablets und Smartphones sind ein vielversprechender Ansatz um als Gateway zwischen eingebetteten Systemen und der der Außenwelt zu fungieren: Sie bieten die Möglichkeit einer Internetanbindung und sind gleichzeitig ein einfach nutzbares Interface für Normalbenutzer. Mit dieser Diplomarbeit wird die Terminologie von Gateways diskutiert und eine einheitliche, allgemein gültige Definition des Begriffes eingeführt. Des weiteren enthält sie eine Untersuchung über die Verbindungsmöglichkeiten von eingebetteten Systemen zu derzeitigen Tablets und Smartphones. Im Zuge einer Fallstudie eines Gateways zwischen der Diagnoseschnittstelle eines Autos und Smartphones werden die zuvor diskutierten Konzepte praktisch umgesetzt und illustriert.

Page 72: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

70

Institut für Computertechnik

Maximilian Riedl Tool Supported Hazard Management and Training Strategy for Safety Managers Studium: Masterstudium Informatikmanagement Betreuer: O.Univ.Prof. Dr. Dietmar Dietrich Hazard management is an important part of a system safety program. Since a hazard is a situation which has the potential to harm the health of people or damage the environment, the management of hazards deals with the control and assessment of potential hazards. The analysis of hazards requires proper and exhaustive information to obtain signiffcant and descriptive results. Collecting hazard-related information is a challenging and time consuming exercise because the demanded information is often distributed on several independent information systems. In addition, analyzing and processing hazards can take several weeks to months while information and involved people could change over time. Within this thesis an analysis is conducted to optimize an existing hazard process and search for improvements based on a target/actual comparison. The results of the analysis are incorporated into a new hazard workflow which is presented. Based on the renewals, a workflow software tool is designed which offers the ability to guide safety managers through the hazard process. The tool is intended to support the centralization of information resources and the graphical and interactive presentation of a workflow to the user. While the concept of the tool is designed to support any sequential workflow for any environment, a concrete implementation is described on the requirements of hazard management. Because the acceptance for new processes and new software needs the support of concerned employees, a training strategy based on didactic and pedagogical knowledge is presented. Finally, the results of a conducted training are presented. The results of the training show that a training strategy based on didactic basics, learning-theory and state-of-the-art research on training combined with a deep knowledge about the participants' needs is mandatory for the acceptance of new software.

Samer Schaat Integrated Drive Object Categorization in Cognitive Agents Studium: Masterstudium Medizinische Informatik Betreuer: O.Univ.Prof. Dr. Dietmar Dietrich Im Rahmen des Projektes ARS (Artificial Recognition System) wird ein kognitiver Agent für eine Artificial-Life-Simulation entwickelt. In dieser Arbeit wird ein Modell zur assoziativen aktivierungsbasierten Nutzung der Erinnerungen des ARS-Agenten zur Unterstützung der Wahrnehmung vorgestellt. Einem subjektiven und funktionalen Ansatz der kognitiven

Page 73: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

71

Modellierung folgend wird dabei als primärer Zweck der unbewussten Wahrnehmungskategorisierung auf die Erkennung der Objektwirkung auf die körperlichen Bedürfnisse des Agenten fokussiert. Da in ARS die körperlichen Bedürfnisse des Agenten als Triebe repräsentiert sind, wird das Modell dieser Arbeit Triebobjektkategorisierung genannt. Einem integrierten und ganzheitlichen Ansatz folgend berücksichtigt die Triebobjektkategorisierung die Integration von subjektiven Einflüssen. Diese werden im Modell verwendet, um die Kategorisierung durch Verringerung der Unsicherheit bei der Auswahl der geeignetsten erinnerten Exemplare zu unterstützen. Die Integration von Einflüssen in die Triebobjektkategorisierung ist durch die bionischen Konzepte der Top-down Wahrnehmung und Priming inspiriert. Insbesonders ist dies die Verwendung von unbewussten Erwartungen und die assoziative Erinnerungsaktivierung. Für die Integration von Erwartungen werden diese als Kategorisierungskriterien spezifiziert. Zusammen mit dem objektiven Kriterium der Objektähnlichkeit unterstützen erwartungs-basierte subjektive Kriterien die Reduktion der Unsicherheit. Mittels eines aktivierungsbasierten Multi-Kriterien Ansatzes wurde ein generisches Framework entwickelt, um unterschiedliche Kriterien in die Kategorisierung zu integrieren. Die Simulation des Modells zeigt, dass das erwartungsbasierte Kategorisierungskriterium nur bei schwacher oder mehrdeutiger Objekt-Erscheinung relevant ist. Zusätzlich zur Kategorisierung bietet das Modell die Unterstützung der selektiven Aufmerksamkeitssteuerung durch die Bestimmung eines Lustpotentials von Objekten.

Page 74: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

72

Institut für Energiesysteme und Elektrische Antriebe

Richard Hirner Kosteneffiziente Berechnung von Windenergiepotentialen mit ArcGIS Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Privatdoz. Dr. Johann Auer Um Windenergiepotentiale für bestimmte Gebiete schätzen zu können, wenn keine lokalen Windatlanten zur Verfügung stehen, werden oft Ergebnisse großräumiger Windmodelle wie ALADIN oder COSMO-EU verwendet. Um die Genauigkeit der damit erstellen Windkarten zu erhöhen, können diese mithilfe eines geostatistischen Modells verbessert werden. Ein lineares Regressionsmodell in verschiedenen Variationen zeigt geringe Zusammenhänge zwischen der Windgeschwindigkeit des COSMO-EU-Modells, der Windgeschwindigkeit gemäß lokalen Windatlanten (für Österreich und Spanien) und geostatistischen Parametern wie Orografie und Hangneigung. Dabei werden Punkte, die sich aufgrund ihrer hohen mittleren Windgeschwindigkeit besonders für die Windenergienutzung eignen, in der ausgewählten Regression höher bewertet. Die erhaltenen Zusammenhänge sind deutlicher, wenn eine Bias-Korrektur, die großräumige Unterschiede zwischen dem verwendeten Windatlantas und dem Windmodell ausgleicht, und die beschriebene Gewichtung durchgeführt wird. Die Zusammenstellung und Verarbeitung der Daten erfolgte mit ArcGIS und der offenen Statistik-Software R und kann daher leicht auch für andere Gebiete durchgeführt werden.

Page 75: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

73

Institut für Managementwissenschaften

Roland Mühlbachler Unparteilichkeit von Zertifizierungsstellen - Anforderungen und Maßnahmen zur Sicherung der Unparteilichkeit von Zertifizierungsstellen Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Ass.Prof. Dr. Peter Kuhlang Die TÜV AUSTRIA CERT GMBH und TÜV AUSTRIA SERVICES GMBH betreiben eine Zertifizierungsstelle für Managementsysteme. Die verbindliche Norm ISO 17021 fordert die Gewährleistung der Unparteilichkeit des Unternehmens und einen einmal jährlich tagenden Ausschuss zur Sicherung der Unparteilichkeit. Dieser Ausschuss hat eine Bewertung über die Unparteilichkeit der Zertifizierungsstelle und deren Zertifizierungssentscheidungen durchzuführen. Ziel meiner Arbeit ist es, Anforderungen zur Gewährung der Unparteilichkeit heraus zu arbeiten und dem Ausschuss eine Hilfestellung zur Bewertung der Unparteilichkeit zu präsentieren. Durch die Analyse von Normen, EU-Richtlinien, Verhaltensrichtlinien, Gesetzen und weiterer Literatur wurden Anforderungen ausgearbeitet. Interviews mit Fachkräften, wie internen Qualitätsbeauftragten, Konkurrenten und zuständigen Behörden für Konformitätsbewertungen erweiterten den Wissensstand. Aufbauend auf diese Ergebnisse wurde die Akten-Checkliste für den Ausschuss erweitert und die Organisation von diesem geändert. Ausschuss erstellt. Eine Checkliste für die Überprüfung der Unparteilichkeit wurde erstellt. Nach einer IST-Analyse wurden sieben Verbesserungsvorschläge erarbeitet und die beiden Dokumente der TÜV AUSTRIA, Konzernrichtlinien zum Thema Verhaltenskodex und die Analyse der Interessenskonflikte für Managementsystem-Zertifizierungen, erweitert.

Thomas Müllner Design of Risk-based Earned Value Management Systems Studium: Masterstudium Business Informatics Betreuer: Univ.Prof. Dr. Walter Schwaiger Project management is essential to ensure that the results develop according to the plans and target of the project. A general introduction into the earned value management is given by Fleming and Koppelman [FlK02]. Throughout a deterministic approach is used. Following the idea of stochastic modeling for financial options by Merton [Mer73] and Cox, Ross and Rubinstein [CRR79] this thesis considers stochastically modeled risks in the earned value (EV) management. Based on the project context the model proposes a stochastic foundation for project planning, valuation and control which helps the project system to work under uncertainty. Following the Project Management Institute [PMI08] the underlying project risk management is a systematic process of identifying, analyzing, and responding to project risk. For this

Page 76: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

74

process a graphical Business Process Modelling and Notation (BPMN) based process model is provided. The linear approach shows a simplification of the deterministic earned value model. For the latter cumulated values play an important role to track project status. An improvement index to complete projects according to plans was given by Cioffi [Cio06]. In the field of earned value management Vanhouckel and Vandevoorde [VaV07] used it to forecast project duration. Different forecasting methods based on last or average increase are formalized to estimate a projects duration or cost. The trinomial probabilistic model assumes three possible realizations. One is the default branch for planned value. The others prepare for possible risks and opportunities each with impact and probability. A possible implementation perspective for the trinomial system is given by a data model. To manage the system the immediate target adaption index is compared to an improvement vs. do-nothing strategy. The last part of the work covers a Monte Carlo simulation. Thereby the risk management strategies are examined empirically based on the stochastic framework.

Duy Tan Nguyen Organisation of a Business Continuity Plan focus on Disaster Recovery in the Businss System Departement in an environment of a pharmaceutical Company Studium: Masterstudium Business Informatics Betreuer: Ass.Prof. Dr. Peter Kuhlang Diese Diplomarbeit soll anhand eines praktischen Beispiels zeigen, wie ein Business Continuity Plan erstellt und eingeführt werden kann. In einem pharmazeutischen U nternehmen wird auf einem Disaster Recovery Plan einer IT Abteilung und einer Business Impact Analyse anderer Abteilungen aufbauend ein Business Continuity Plan erstellt, der bei Eintreten einer Katastrophe zur Anwendung kommen soll.

Page 77: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

75

Institut für Konstruktionswissenschaften und

Technische Logistik

Armin Steinwandter Wissensmanagement mittels Semantic Wiki Aufbau eines Semantic Wiki für das Themengebiet PDM Studium: Masterstudium Business Informatics Betreuer: Univ.Prof. Dr. Detlef Gerhard Wissensmanagement ist eine große Herausforderung für Organisationen unserer Zeit. Häufig dienen textbasierte Wikis hierfür als Softwarelösung. Da diese allerdings sehr einfach strukturiert sind und keine komplexen Abfragen erlauben, stellt sich die Frage, ob SemanticWikis fürWissensmanagement besser geeignet sind. Dies wird anhand eines Vergleichs zweier konkreter, vorab ausgewählter Softwarelösungen eines textbasiertenWikis (MediaWiki) und eines Semantic Wikis (Ontowiki) überprüft. Gleichzeitig erfolgt eine Anforderungsanalyse an die semantische Struktur, welche anschließend erstellt und mit Begriffen aus dem Produktdatenmanagement exemplarisch befüllt wird. Um eine umfassende Bewertung der Softwarelösung zu ermöglichen, wird die semantische Struktur darauf folgend in das Ontowiki eingespielt. Der Vergleich beider Softwarelösungen bestätigt, dass Semantic Wikis textbasierten Wikis besonders bei der Suche überlegen sind und komplexe Sachverhalte besser darstellen können. Gleichzeitig gestaltet sich die Benützung aufwendiger und setzt höhere technische Kenntnisse voraus. Auch wird deutlich, dass besonders die Darstellung der Suchergebnisse im Ontowiki noch verbessert werden sollte hierfür werden konkrete Verbesserungsvorschläge erarbeitet. Da sich die Überlegenheit von SemanticWikis fürWissensmanagement nicht eindeutig bestätigt, ist im jeweiligen Fall zu entscheiden, welche Softwarelösung für die betroffene Zielgruppe und die vorherrschende Komplexität der Daten besser geeignet ist. Für den konkreten Anwendungsfall eines gelungenen Wissensmanagements von Produktdaten an der Technischen Universität Wien erscheint Semantic Wiki als bessere Lösung, nicht zuletzt aufgrund der Anbindung an das Semantic Web.

Page 78: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

76

Department für Raumentwicklung, Infrastruktur- und

Umweltplanung

Elisabeth Grill Cyberstalking Studium: Masterstudium Wirtschaftsingenieurwesen Informatik Betreuer: Ass.Prof. Dr. Markus Haslinger Der Übergang vom Offline- zum Online-Stalking, die rasche Entwicklung der Technologien, die bei dieser Form der Belästigung Anwendung finden, sowie die Anonymität im Internet erschweren Behörden die Strafverfolgung. Opfer in Österreich sind durch die Virtualität der sozialen Gewalt vorerst überfordert und suchen nach Anzeige bei der Polizei Hilfe bei den zuständigen Gewaltschutzzentren und Interventionsstellen. Cyberstalking ist auch für diese ein neues Themenfeld mit dem sich deren MitarbeiterInnen zur Opferberatung auseinandersetzen müssen. Die wichtigsten Anforderungen wurden gesammelt, aus Fallbeispielen und Fragestellungen herausgearbeitet und in dieser Arbeit untersucht. Neben einem kurzen Einblick in Stalking- und Cyberstalking-Theorien wird vor allem der komplexe Technikeinsatz, dessen sich der Cyberstalker bedienen kann, aufgezeigt. Zusätzlich werden proaktive und reaktive Maßnahmen gegen Cyberstalking-Angriffe erläutert. Die gesellschaftliche Relevanz des Problems wird anhand einer österreichweiten Studie dargestellt. Cyberstalking-Handlungen werden in Österreich unter dem Auffangtatbestand der 'Beharrlichen Verfolgung' unter Strafe gestellt, wobei der Geltungsbereich von Fall zu Fall geklärt werden muss. Grundlagen dieser Arbeit waren Bücher unterschiedlicher Universitätsbibliotheken, e-Books, Artikel aus Online-Datenbanken, Gesetzestexte, kriminologische Zeitschriften, Zeitungsberichte, ein Forschungsbericht des bmvit sowie Studien zu diesem Thema. Die Ergebnisse werden in digitaler Form auf einer Webseite den Gewaltschutzzentren zur Verfügung gestellt.

Page 79: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

77

Institut für Wirtschaftsmathematik Klaus Ackermann A simulation model of the Italian economy Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Gerhard Hanappi The integration of Europe into one European Union accordingly resulted in the integration of Europes individual economies. Meaning that the economic development and stability of one country depends to a greater extent on the success of the rest of the European partners. This reliance was heightened by the introduction of the European Monetary Union in 1999 with the Euro as the common currency. Despite the Euro member states having a central bank, it is each countrys responsibility to finance its government debt through the emission of governmental bonds. The risk premiums that have to be paid by each country differ through-out the Euro zone. The concern that Italy, with the present state of its economy and development prospects, could introduce future implications of its high government debt to the European Union as a whole. An analysis of the Italian economy will explore this likelihood. The concern here is to give an analysis of the Italian Economy and development with its future implications of high governmental debt. Economic growth and welfare is measured in the Gross Domestic Product (GDP). The classical macroeconomic models with the GDP as a sum of the consumption, investment, government purchases and net exports of a country are classical Keynesian models. The standard estimation approach for a macroeconomic model is to explain endogenous variables through exogenous variables. It considers governmental debt as a decreasing factor, such as payment for interest on bonds, and not the absolute amount of the government debt. This problem will be addressed by applying the econometric model E2012 to Italy, which takes the national debt as stock variable into account.

Alexander Preuss Past and possible future of economic firm level data analysis Studium: Masterstudium Business Informatics Betreuer: Ao.Univ.Prof. Gerhard Hanappi Firm size and firm growth rates are important economic measures which affect peoples live around the world. The reasons for firm entry, growth and exit are influencing employment levels, their understanding is therefore crucial to make economic predictions. This thesis reviewed in a first step the existing literature by Robert Gibrat, Herbert Simon, Boyan Jovanovic and a popular paper summarizing the historical literature by John Sutton. A study on European multinational firms showed that firm size has a negative impact on growth and thus do not support Gibrats law of proportional effect. Studies performed on Portuguese and Italian firms also did not support Gibrats law,

Page 80: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

78

showing a highly right skewed distribution which gets flatter with firm age. It was shown that financial constraints are strongest for young entrepreneurs as well as for young firms, that financially constrained firms have on average less employees and show a lower growth rate than firms that are not financially constrained. The important fields of globalization and productivity was discussed in detail. All potential influencers of firm size and growth that were introduced were summarized in a comprehensive table at the end of Chapter 3. The last chapter of this work applied the introduced concepts and potential influencers to existing OECD and Eurostat data sources. Productivity calculations based on the OECD Structural Demographic Business Statistics data base outlined that productivity levels across Europe are highly heterogeneous, also differing by firm size classes and sectors. Eurostat data were used to calculate firm survival rates across European countries, showing that the one- to five year survival rates differ strongly between countries. An Eurostat survey, including 25 000 firms in 20 member states, was used to show that in total more that 20% of the polled firms stated that the general economic outlook will be one of their top-five growth limiting factors between 2010 and 2013.

Page 81: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

79

Institut für Analysis und Scientific Computing

Markus Michael Hilscher Real Time Processing and Synchronization in Hybrid Hippocampal Microcircuits Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof.i.R. DDr. Frank Rattay Objectives: Synchronization among neurons is thought to arise from the interplay between excitation and inhibition but the connectivity rules that contribute to synchronization are unknown. Neuronal networks are extremely complex, not only because of the huge amount of cells involved but also because of the variety of different actions contributing to network activities. We studied this problem by investigating hippocampal microcircuits in CA1 using the multi channel patch clamp technique and real-time computing. Methods: The real-time system in combination with the patch clamp technique which is often referred to as dynamic clamp, allowed us to build hybrid neuronal networks containing both biological and artificial (modeled) cells. We were able to introduce the synaptic response from other cells to patched neurons during network activity. By connecting a model interneuron with two pyramidal cells (PC), we were able to test the role of different connection rules in synchronizing pyramidal cell activity. Results: Our experiments demonstrated that eliminating the feedback from PCs to the interneuron produced the greatest level of synchronization. We investigated several aspects of interneuron-PC-PC communication and studied the synchrony level of the two patched pyramidal cells by simulating different biological realistic hippocampal microcircuits. Moreover we investigated the role of intrinsic membrane mechanisms contributing to synchronization. Conclusion: Our results shed light on how hippocampal microcircuits can synchronize and generate oscillatory activity. Additionally, we suggest how hippocampal neurons are connected and how these connections alter the way these circuits process information. We also demonstrate that changes in the conductance of HCN channels, by blocking them pharmacologically, can modulate hippocampal network synchronization.

Martin Weinkopf Automatic Detection of Epileptic Spikes in the EEG utilizing Clustering Methods Studium: Masterstudium Medizinische Informatik BetreuerIn: Ao.Univ.Prof.i.R. DDr. Frank Rattay Epilepsie ist eine chronische Hirnfunktionsstörung, die sich durch wiederkehrende Anfälle auszeichnet. Zur Diagnose von Epilepsie wird das Elektroenzephalogramm (EEG) visuell vom medizinischen Personal untersucht um sogenannte epileptische Spikes - interiktale pathologische Muster - zu

Page 82: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

80

finden, die je nach Typ der Krankheit eine charakteristische Ausprägung haben. In dieser Diplomarbeit wird eine neue Methode präsentiert mit der man automatisch epileptische Spikes im EEG erkennen kann. Die Methode verbindet die Vorteile von patienten-adaptiven Ansätzen und Mehr-Kanal-Ansätzen. Sie besteht aus drei Stufen: 1) kanalweise Erkennung von eindeutigen Spikes mit vordefinierten Kriterien auf Merkmalen, die die Morphologie der Spikes beschreiben, 2) Gruppierung der detektierten Spikes anhand ihres Ursprungs und morphologischer Merkmale, und 3) Erkennung der Spikes unter Berücksichtigung aller Kanäle mithilfe eines statistischen Hypothesentests, der das Vorwissen ausgewählter Cluster nutzt. Die vorgeschlagene Methode wurde mit den EEGs von drei Patienten getestet, die in einer Epilepsy Monitoring Unit untersucht wurden. Die Spikes wurden von EEG-Experten annotiert. Die Resultate haben die Vorteile des mehrstufigen Ansatzes bestätigt. Verwendet man ausschließlich die initiale Detektionsstufe (Stufe 1), dann ergibt sich eine Sensitivität von 47% mit einer Fehlalarmrate von 20 Falsch-Positiven pro Stunde für den ersten Patienten. Mit der dreistufigen Erkennungsmethode erhält man eine Sensitivität von 67% bei gleichbleibender Fehlalarmrate. In den Experimenten erreicht die Präzision (Anteil der Richtig-Positiven an den Detektionen) der initialen Stufe einen Wert von 86%. Mit der letzten Erkennungsstufe steigt sie auf insgesamt 90% und damit enthalten die Detektionen fast ausschließlich echte Spikes. Die Experimente mit den anderen zwei Patienten ergaben ähnliche Werte für Sensitivität und Fehlalarmrate, während die Präzision bei beiden niedriger war als für den ersten Patienten.

Page 83: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

81

In Zusammenarbeit mit anderen wissenschaftlichen

Einrichtungen

Universität Wien

Klemens Frick Zugang junger Menschen zur Informatik Studium: Masterstudium Informatikdidaktik Betreuerin: Ao.Univ.Prof. Dr. Renate Motschnig Diese Arbeit befasst sich mit dem Zugang und der Einstellung junger Menschen zur Informatik und wie diese positiv beeinflusst werden können. Es wird dafür die Informatik im gesellschaftlichen, schulischen und universitären Kontext sowie als Fachwissenschaft betrachtet. Studien zur Wahrnehmung sowie curriculare Verankerung der Informatik werden dabei besonders untersucht. Als Methode zur Verbesserung der Umstände wurde im Zuge eines Forschungsaufenthaltes an der Freien Universität Berlin eine Unterrichtsreihe entwickelt, welche sich auf eine innovative Methode zur Planung, Ausführung und Reflexion von Informatikunterricht stützt. Diese Reihe wurde in verkürzter Form an drei Wiener Gymnasien gehalten und die Auswirkungen dieser auf die Perzeption der Informatik evaluiert. Zentrales Ergebnis der Arbeit ist, dass die Einstellung zur Informatik von vielen Einflüssen geprägt ist. Dazu gehören vor allem die Erfahrungen in der privaten und beruflichen Nutzung sowie die Darstellung von Informatik in Medien und im Informatikunterricht in der Schule. Diese Wahrnehmung ist vielfach mit negativen Assoziationen verbunden. Durch den Ansatz, dieser Einstellung in der Schule mit kontextorientiertem Informatikunterricht zu begegnen, konnten positive Erfahrungen gemacht werden. Darüber hinaus konnten Probleme im strukturellen Aufbau des Bildungssystems, deren Ausprägungen sich in der Quantität und der Qualität des derzeitigen Informatikunterrichts widerspiegeln, aufgezeigt werden.

Josef Maier Erhebung der derzeitigen reellen Lehrinhalte im Informatikunterricht an AHS Schulen der 9. Schulstufe Studium: Masterstudium Informatikmanagement Betreuer: Dr. Andreas Ulovec Das Thema Informatik begleitet uns in der heutigen Zeit unser Leben lang, sei es nun im Privat- oder Berufsleben. Daher ist es sehr wichtig, die dafür erforderlichen Kenntnisse so früh als möglich zu erwerben. Derzeit kann eine Vermittlung der notwendigen Informatikkenntnisse für alle Schüler der Allgemeinbildenden Höheren Schule (AHS) aber nur in der 9. Schulstufe gewährleistet werden. Der für den Informatikunterricht in dieser Schulstufe

Page 84: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

82

vorhandene Lehrplan lässt den Schulen bzw. LehrerInnen relativ viel Spielraum in der Unterrichtsgestaltung. Daher stellen sich die Fragen, was in diesem Gegenstand wirklich unterrichtet wird, ob es Trends zu bestimmten Inhalten und Methoden gibt, und ob dieser Unterricht für die informatische Bildung der Schüler ausreicht um für das spätere Berufs- und Privatleben angemessen vorbereitet zu sein oder ob eine Standardisierung des Informatikunterrichtes notwendig wäre. Diesen Fragen wurde erfolgreich versucht mittels Ergebnissen aus mehreren qualitativen Interviews sowie einer quantitativen Schüler- und Lehrerbefragung an allen AHS-Schulen Österreichs nachzugehen. Demnach ist beinahe jeder Informatikunterricht der 5. Klasse AHS vom anderen verschieden, wobei Ähnlichkeiten im Bezug auf manche Unterrichtsinhalte vorhanden sind. So sind die Bereiche Textverarbeitung, Tabellenkalkulation und Präsentation Inhalt fast jedes Informatikunterrichtes. Wie dieser Arbeit aber entnommen werden kann, wäre eine Standardisierung des Informatikunterrichtes empfehlenswert.

Christian Sagmeister E-Learning Systeme in der Vermittlung von Fachwissen an Universitäten - Interdisziplinariät aus der Sicht von TPACK Studium: Masterstudium Informatikmanagement Betreuer: Univ.Prof. Dr. Wilfried Grossmann Kontext: Mit Verwendung neuer Computertechnologie entstehen neue Herausforderungen für die Aufbereitung von Wissen. In den letzten Jahren kommen immer mehr innovative Lehr- und Lernformen zum Einsatz, welche auch einen erhöhten Anspruch an die jeweiligen E-Learning Systeme stellen. Durch den verstärkten Einsatz dieser Lernformen im Unterricht entstehen mitunter auch neue Methoden der Didaktik in der Vermittlung von Fachwissen im Hochschulbereich. Fragestellungen: Didaktische Fachmodelle sind zumeist auf ihr Fach beschränkt. Als eines der wenigen fachdidaktischen Modelle beschäftigt sich das Technological Pedagogical Content Knowledge Framework, kurz TPACK, mit dem Thema Interdisziplinarität im E-Learning Bereich. Die Arbeit analysiert die im TPACK vorgestellten Werkzeuge zum Thema Interdisziplinarität im Detail und beschreibt mit Hilfe von Experteninterviews allgemeine Anforderungen, welche bei der Einführung von E-Learning zu beachten sind. Methodik: Für die Analyse der Anforderungen an ein E-Learning System werden zunächst die unterschiedlichen Arten von Lerntheorien herausgearbeitet. Die Forschungsfragen werden mittels Leitfadeninterviews, Dokumentenanalyse des TPACK Frameworks und unterschiedlicher Literatur beantwortet. Ergebnisse: Bezogen auf die Interdisziplinarität streicht das TPACK Framework sieben kognitive Werkzeuge (Perceiving, Patterning, Abstracting, Embodied Thinking, Modeling, Deep Play und Synthesizing) hervor, welche eine interdisziplinäre Betrachtung von E-Learning Komponenten ermöglichen. Die Definition von E-Learning zeigt seitens der Experten eine weite Bandbreite. Zumeist nur als administratives Hilfsmittel gesehen kann es bei richtigem Einsatz auch einen anderen Blickwinkel auf das Fachthema bieten. Da E-

Page 85: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

83

Learning kein Out-of-the-box system ist erfordert es eine intensive Auseinandersetzung seitens des Lehrenden um die richtige Balance zwischen den Komponenten des TPACK Modells für sich zu finden.

Daniel Schwarz Virtuelle Gewalt Computerspiele und deren Wirkungsdebatte im pädagogischen Kontext Studium: Unterrichtsfach Informatik/Informatikmanagement Betreuer: Univ.Prof. Dr. Stefan Zahlmann Diese Arbeit bietet einen Überblick sowie eine Analyse des derzeitigen Stands des wissenschaftlichen, als auch des breiteren gesellschaftlich-medialen Diskurses der Kontroverse um gewalthaltige Computerspiele (gemeinhin bekannt unter der sogenannten Killerspiel-Debatte), eine Vorstellung der Medienwirkungsforschung, gefolgt von einem Blick auf historische Wirkungsdebatten sowie eine medienpädagogische Betrachtung des Computerspiels. Der Kontext der Arbeit liegt vor allem darin, dass ich einerseits als Pädagoge, andererseits als Computerspieler mein Wissen zu diesem Themenbereich vertiefen wollte. Die Prüfung der naheliegenden Hypothese, die Nutzung gewalthaltiger Medien im speziellen Computerspielen ziehe negative Auswirkungen insbesondere was reale Aggression und gewalttätiges Verhalten betrifft nach sich, bildet eine zentrale Frage, und hier kann Entwarnung gegeben werden, da sie im Wesentlichen nicht bestätigt wird. Darüber hinaus gilt es, meine eigene leitende These zu stützen, wonach die Voraussetzungen für eine objektive und rational geführte Debatte, bedingt durch eine starke Lagerbildung in Befürworter und Gegner vorgenannter Hypothese sowie Einflussnahmen diverser Interessensgruppen, derzeit kaum gegeben sind. Im historischen Kontext kann ich eine Wiederholung der Geschichte, bezogen auf die Reaktionen gegenüber neuen Medien, feststellen, während medienpädagogisch die Unersetzbarkeit elterlichen Engagements die Kernaussage bildet. Die Analyse des Diskurses mündet in der Entwicklung einer Typologisierung der Diskursteilnehmer, als auch einem Entwurf eines Diskursmodells. Methodisch verfolge ich einen geisteswissenschaftlich-phänomenologischen Ansatz. Dies, sowie die Quellenlage des Themas, implizieren eine interdisziplinäre Herangehensweise. Die Quellen im wissenschaftlichen Bereich stellen Überblicksdarstellungen sowie ausgewählte Fachbeiträge, im populär-medialen Bereich vorwiegend Zeitungsartikel sowie Onlineforendiskussionen dar.

Page 86: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

84

Index der Autorinnen und Autoren

Ackermann Klaus - Institut für Wirtschaftsmathematik

Akay-Gönenc Ülkühan - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Angerbauer Max - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce

Antic Christian - Institut für Informationssysteme, Arbeitsbereich Knowledge Based

Systems

Auer Daniel - Institut für Computersprachen, Arbeitsbereich Programmiersprachen

und Übersetzer

Barbaric Slavica - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information & Software Engineering

Biesinger Benjamin - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Algorithmen und Datenstrukturen

Birsak Michael - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Computergraphik

Bliem Bernhard - Institut für Informationssysteme, Arbeitsbereich Database and

Artificial Intelligence

Bryniarski Jan - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Cygan Daniel - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich

Multidisciplinary Design

de Haan Ronald - Institut für Computersprachen, Arbeitsbereich Theoretische

Informatik und Logik

Dubsky Jörg - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich

E-Commerce

Dünser Johannes - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Information & Software Engineering

Dusberger Frederico - Institut für Computergraphik und Algorithmen,

Arbeitsbereich Algorithmen und Datenstrukturen

Ecker Valentin - Institut für Technische Informatik, Arbeitsbereich Real Time

Systems

Ellmauthaler Stefan - Institut für Informationssysteme, Arbeitsbereich Database and Artificial Intelligence

Feledi Daniel - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich

Information & Software Engineering

Fest Florian Rudolf - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Forstner Martin - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Frick Klemens - Universität Wien

Fried Alexander - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems

Page 87: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

85

Füresz Andrea - Institut für Computersprachen, Arbeitsbereich Theoretische

Informatik und Logik

Ganglberger Florian - Institut für Rechnergestützte Automation, Arbeitsbereich

Computer Vision

Gebhard Philipp - Institut für Computergraphik und Algorithmen, Arbeitsbereich Algorithmen und Datenstrukturen

Gerger Roman - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Interactive Media Systems

Geyer Clemens Bernhard - Institut für Technische Informatik, Arbeitsbereich Real

Time Systems

Graf Tobias - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich

Business Informatics

Greiner Thomas - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Grill Elisabeth - Department für Raumentwicklung, Infrastruktur- und

Umweltplanung

Grosinger Jasmin - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich

Human Computer Interaction

Gruber Dominik - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Hammerer Tobias - Institut für Informationssysteme, Arbeitsbereich Distributed Systems

Hecher Michael - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Computergraphik

Hiermann Gerhard - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Algorithmen und Datenstrukturen

Hiller Elias - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive Media Systems

Hilscher Markus Michael - Institut für Analysis und Scientific Computing

Hirner Richard - Institut für Energiesysteme und Elektrische Antriebe

Hirsch Jürgen - Institut für Computersprachen, Arbeitsbereich Programmiersprachen und Übersetzer

Hofer Thomas - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Huber Hermann - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich E-Commerce

Ivezic Ivan - Institut für Computergraphik und Algorithmen, Arbeitsbereich Algorithmen und Datenstrukturen

Kascha Michael Alexander - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Information & Software Engineering

Kavelar Albert - Institut für Rechnergestützte Automation, Arbeitsbereich Computer

Vision

Kimmel Florian - Institut für Informationssysteme, Arbeitsbereich Distributed

Systems

Kloimüllner Christian - Institut für Informationssysteme, Arbeitsbereich Knowledge Based Systems

Page 88: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

86

Kontner Dominik - Institut für Computersprachen, Arbeitsbereich Theoretische

Informatik und Logik

Krall Stephan - Institut für Informationssysteme, Arbeitsbereich Formal Methods in

Systems Engineering

Krombholz-Reindl Katharina - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce

Kügler Philip - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Kuntner Andreas - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich

Multidisciplinary Design

Lampacher Martin - Institut für Technische Informatik, Arbeitsbereich Real Time

Systems

Lang Werner - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision

Lehrbaum Andreas - Institut für Informationssysteme, Arbeitsbereich Database and

Artificial Intelligence

Lemme Thomas - Institut für Computersprachen, Arbeitsbereich Theoretische

Informatik und Logik

Leonhartsberger-Schrott Martin - Institut für Informationssysteme, Arbeitsbereich

Distributed Systems

Li Jinze - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce

Limbeck Philip - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Bildverarbeitung und Mustererkennung

Maier Martin - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Maier Josef - Universität Wien

Mauser Christian - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Mayrhofer Manuel - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich Multidisciplinary Design

Mühlbachler Roland - Institut für Managementwissenschaften

Müllner Thomas - Institut für Managementwissenschaften

Nake Viktoria - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich

Interactive Media Systems

Nastic Stefan - Institut für Informationssysteme, Arbeitsbereich Distributed Systems

Nebehay Georg - Institut für Rechnergestützte Automation, Arbeitsbereich

Computer Vision

Neubauer Barbara - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Information & Software Engineering

Nguyen Duy Tan - Institut für Managementwissenschaften

Perl Johannes - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision

Posch Markus - Institut für Technische Informatik, Arbeitsbereich Embedded

Computing Systems

Pötzl Daniel - Institut für Informationssysteme, Arbeitsbereich Formal Methods in

Systems Engineering

Page 89: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

87

Presle Philipp - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich

Interactive Media Systems

Preuss Alexander - Institut für Wirtschaftsmathematik

Reicht Ignaz - Institut für Computergraphik und Algorithmen, Arbeitsbereich

Bildverarbeitung und Mustererkennung

Riedl Maximilian - Institut für Computertechnik

Rössler Lukas - Institut für Computergraphik und Algorithmen, Arbeitsbereich Computergraphik

Sadauskas Martin - Institut für Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-Commerce

Sagmeister Christian - Universität Wien

Schaat Samer - Institut für Computertechnik

Schacherl Martin - Institut für Computersprachen, Arbeitsbereich Theoretische

Informatik und Logik

Scharf Andreas - Institut für Informationssysteme, Arbeitsbereich Distributed

Systems

Schmelz Dominik - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Schönberger Martin - Institut für Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme

Schwarz Daniel - Universität Wien

Schwengerer Martin - Institut für Informationssysteme, Arbeitsbereich Database

and Artificial Intelligence

Simon Sebastian - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Stary Karl - Institut für Informationssysteme, Arbeitsbereich Distributed Systems

Steinwandter Armin - Institut für Konstruktionswissenschaften und Technische Logistik, Arbeitsbereich

Stern Patrick - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich

Human Computer Interaction

Stransky Sabine - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Interactive Media Systems

Stransky Sabine - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Information & Software Engineering

Sturm Martin - Institut für Computergraphik und Algorithmen, Arbeitsbereich Algorithmen und Datenstrukturen

Thillen Francois - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Information & Software Engineering

Trenkwalder Martin - Institut für Informationssysteme, Arbeitsbereich Distributed

Systems

Vallaster Stefan - Institut für Informationssysteme, Arbeitsbereich Distributed

Systems

Vogl Wolf-Dieter - Institut für Rechnergestützte Automation, Arbeitsbereich Computer Vision

Weinkopf Martin - Institut für Analysis und Scientific Computing, Arbeitsbereich

Wieser Martin - Institut für Computersprachen, Arbeitsbereich

Programmiersprachen und Übersetzer

Page 90: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

88

Wieser Phillip - Institut für Rechnergestützte Automation, Arbeitsbereich

Automatisierungssysteme

Zankl Georg Michael - Institut für Computergraphik und Algorithmen,

Arbeitsbereich Bildverarbeitung und Mustererkennung

Zarnikov Jan - Institut für Computersprachen, Arbeitsbereich Programmiersprachen und Übersetzer

Zeller David - Institut für Gestaltungs- und Wirkungsforschung, Arbeitsbereich

Human Computer Interaction

Zima Matthias - Institut für Rechnergestützte Automation, Arbeitsbereich

Computer Vision

Zingerle Mathäus - Institut für Softwaretechnik und Interaktive Systeme,

Arbeitsbereich Interactive Media Systems

Page 91: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

IMPRESSUM

Zentrum für Koordination und Kommunikationder Fakultät für Informatik

1040 Wien, Favoritenstraße 9/195www.informatik.tuwien.ac.at

Konzept: DI Karin Hraby(c) 2012 Technische Universität Wien

Fakultät für Informatik

Alle in diesem Band angeführten Abstracts stammen von den AutorInnen der jeweiligen Diplomarbeit. Abstracts der Diplomarbeiten werden von den BetreuerInnen approbiert.

Page 92: EPILOG - TU Wien Informatics · To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found

Technische Universität WienFakultät für Informatik

1040 Wien, Favoritenstraße 9-11/195T: +43-1-58801-19501F: +43-1-58801-19599E: [email protected]