EXPO2000FBI


Verzeichnis der
Demonstrationen und Poster

Hauptraum D-125 –129 (RZ),
außerdem:
D-223 (ASI), F-433 (WSV) und F-633 (IMA)



TIS

Elektronisches Computergrafik-Tutorium

Das Computergrafik-Tutorium entstand aus der Idee den Studierenden, zusätzlich zu etablierten Veranstaltungen im Bereich Computergrafik des Arbeitsbereichs TIS, die Möglichkeit zu geben, sich interaktiv mit Teilbereichen der Computergrafik auseinanderzusetzen. Die verschiedenen Teilbereiche werden von Studenten in Form von Studienarbeiten erarbeitet. Das Ergebnis dieser Studienarbeiten sind Online-Dokumentationen, die zusammen eine allgemein zugängliche Lernumgebung schaffen sollen. Der Lernende kann aus dem enstehenden Themenangebot, entsprechend seinem Interessenschwerpunkt auswählen.

(http://tis02.informatik.uni-hamburg.de:4242/cg/index.html)

Yildiz Sünneli, Nurdan Turan, Andreas Baudry, Michael Bungenstock, Stefan Kögler, Michael Shani Kim, Martina Reck
(Betreuer: Werner Hansmann)


KOGS

Poster "Marine pollution in European coastal waters monitored by the ERS-2 SAR: a comprehensive statistical analysis"

Das Institut für Meereskunde der Universität Hamburg ist am europäischen Forschungsprojekt "Clean Seas" beteiligt. Im Rahmen dieses Projektes wurden Ölverschmutzungen in ausgewählten Testgebieten der Ostsee, der Nordsee und des Mittelmeeres über einen Zeitraum von zwei Jahren von Dezember 1996 bis November 1998 untersucht. Insgesamt haben wir über 700 Synthetic Aperture Radar (SAR-) Bilder der drei Testgebiete vom Zweiten Europäischen Fernerkundungssatelliten (ERS-2) erhalten. Die Bilder wurden mit Unterstützung aus dem Fachbereich Informatik ausgewertet. Unsere statistischen Analysen zeigen deutlich die gute Eignung des satellitengestützten SAR für die Erkennung von Ölverschmutzungen sowohl in den Küstenregionen als auch entlang der Schifffahrtswege.

Wir haben fortgeschrittene Bildverarbeitungsmethoden für die Klassifikation der beobachteten Radarsignaturen eingeführt, insbesondere die Berechnung der fraktalen (Box Counting-) Dimension. Anscheinend gibt es Unterschiede zwischen der maximalen fraktalen Dimension von Ölflecken und anderen ozeanischen Phänomenen – möglicherweise aufgrund der kleineren Ausmaße von Ölflecken. Wir glauben, dass vorhandene Ölfleck-Erkennungsalgorithmen mit dem fraktalen Analyseverfahren deutlich verbessert werden können. Derartige Erkennungs- algorithmen sind als Bausteine für ein zukünftiges automatisches Ölfrühwarnsystem zur großräumigen Überwachung sensibler mariner Ökosysteme geeignet.

Martin Gade (Inst. f. Meereskunde), José M. Redondo (UPC, Barcelona) und Jochen Scholz
(Diplomarbeit, Betreuer: Fr. Dreschler-Fischer)


WSV

Unterstützung multipler Sichten auf Informationsmengen

Große Informationsmengen sind nur dann effektiv und effizient nutzbar, wenn sie strukturiert sind. Hierarchische Strukturierungsmethoden führen zu sehr spezifischen Sichten auf Informationen in den erzeugten Strukturen. Eine Suche in diesen Strukturen muss der vorgegebenen Sicht entsprechend durchgeführt werden, auch wenn dies der Aufgabe nicht angemessen ist. Wir schlagen hier Halbverbände als grundlegendes Prinzip der Strukturierung von Informationsmengen vor; der Nutzer erhält die Möglichkeit, angemessene Sichten auf die Informationen im Verlauf seiner Suche aufgabenbezogen selbst zu wählen.

Beispieldomänen, welche eine Unterstützung multipler Sichten auf Informationsmengen erfordern, sind Online-Warenmärkte und -Hilfesysteme. In ihnen sind eine Vielzahl von Einträgen enthalten, die vom Anbieter auf unterschiedliche Art, d.h. aus unterschiedlichen Sichten heraus, strukturiert werden können. Eine einzige Sicht ist in der Regel unzureichend; es gilt, Strukturen zu finden, welche es den Benutzern erlauben, die enthaltenen Einträge aus unterschiedlichen Blickwinkeln zu betrachten und sich möglichst unbeschränkt in der Informationsmenge zu bewegen, ohne dass sie auf die gewohnten Vorteile einer strukturierten Umgebung verzichten müssen: Die eigene Position und Bewegungsrichtung im Suchraum sollte für einen Benutzer stets leicht erkennbar sein.Gezeigt werden die zugrundeliegenden Prinzipien am Beispiel eines Online-Marktes für Gebrauchtwaren.

Sven Bertel, Hartmut Obendorf, Kai-Florian Richter, Jesco von Voss
(Projektarbeit betreut von Prof. C. Habel, Thomas Barkowsky)


WSV [Robotik-Labor / Raum F-433]

Pfadplanung für mobile Roboter

Mobile Roboter werden in ersten Anwendungen als Hauspost-Austräger oder Tour-Guides eingesetzt. Um dies zu erreichen, müssen mobile Roboter a) durch Räume fahren, ohne mit Möbeln oder Personen zu kollidieren, und b) ein Gedächtnis für Orte haben, um diese später wiederfinden zu können. Wir präsentieren, wie unser Roboter "in echt" und in einer Simulation durch Büroräume fährt und dabei ein Ortsgedächtnis, eine Karte, aufbaut. Außerdem wird gezeigt, wie eine vorgegebene Karte der Umgebung für das Ansteuern eines Ziels eingesetzt werden kann.

Jesco v. Voss, Jan Oliver Wallgruen


TGI

Sozionik: Präsentation einer Fallstudie. Das "Garbage Can"-Problem. Petrinetze und Sozialtheorien

Sozionik ist ein interdisziplinäres Projekt der Sozialwissenschaften und der Informatik, gefördert durch die DFG. Das Projekt "Agieren in sozialen Kontexten" der Universität Hamburg beschäftigt sich mit der Modellierung und Analyse von Verhaltensmustern in öffentlich-rechtlichen Organisation. In diesem Rahmen präsentieren wir eine Fallstudie:

Ein wichtiger Schritt im Verständnis von Organisation ist die Erklärung wie Organisationen Entscheidungen treffen. Es ist unzureichend Organisationen als Ort der Strukturiertheit und Rationalität zu betrachten. Das "Garbage Can Model of Organisational Choice" von Cohen, March and Olsen (1972), fundamental für eine Verhaltensbeschreibung von Organisationen, blickt auf "organisierte Anarchien" und eröffnet neue Betrachtungsweisem auf unvorhergesehene Entscheidungssituationen. Referenznetze, ein "high-level" Petrinetz-Formalismus, bietet für eine Modellbildung eine formale Semantik, eine graphische Repräsentation, die Mächtigkeit, nebenläufiges Verhalten zu beschreiben, und die Möglichkeit, das Modell auszuführen. Diese Punkte scheinen die grundlegenden Anforderungen zur Modellierung soziologischer Theorien darzustellen. Das hier präsentierte Modell dient als Ausgangspunkt für weitere interdisziplinäre Arbeiten im Sozionikprojekt.

http://www2.informatik.uni-hamburg.de/tgi/forschung/projekte/sozionik/

Sven Heitsch, Marcel Martens


TKRN

Untersuchung der Bildqualität übertragener Videos in Abhängigkeit von Übertragungsverlusten und der Qualitätsverbesserung mit Hilfe von Fehlertoleranzverfahren im Empfängerendsystem

Bildtelefonie und Videokonferenzen sind Beispiele für Anwendungen, die verlustfreie und realzeitnahe Übertragung von Bildströmen (Videos) fordern. Während die verlustfreie Übertragung digitaler Daten ohne zeitliches Limit heute als technisch gelöst betrachtet wird, so ist die realzeitnahe (rechtzeitige) Lieferung der Daten über diensteintegrierte, digitale Netze eine technologische Herausforderung. Messungen von TKRN im Internet legen die Annahme nahe, dass der Empfänger damit rechnen muß, daß abhängig vom Lastprofil bis zu 30% der darzustellenden Daten nicht rechtzeitig ausgeliefert werden. Applikationen zur Unterstützung von Bildtelefonie und Videokonferenzen werden darum mit Techniken zur Verbesserung der Bildqualität zur Laufzeit ausgestattet. Ein Ansatz dabei ist die Fehlerbehandlung im Endsystem des Empfängers.

Hier werden verschiedene Techniken zur Generierung von Fülleinheiten für Verluste im Endsystem des Empfängers dargestellt. Die Techniken wurden mit Hilfe eines erweiterten H.263-Dekoders auf Beispielvideos angewandt. Die Ergebnisse können am Stand in Augenschein genommen werden.

Neben der subjektiven Beurteilung der Bildqualität spielt die objektive Bewertung durch statistische Meßgrößen eine gleichgeordnete Rolle. Die Berechnung gängiger Kennwerte wird erläutert und deren Aussagen über die Beispielvideos an Grafiken verdeutlicht. Das präsentierte Material stammt aus Vorarbeiten meiner Diplomarbeit, die zwei Ziele verfolgt. Zum einen werden die Anwendungsbereiche der Fehlertoleranzmaßnahmen bezüglich Verlustsituation und Bewegungsintensität untersucht, zum anderen wird der Frage nachgegangen, ob statistische Messgrößen die Aussagen von Betrachtern zuverlässig prognostizieren können. Online-Ressourcen zu dem Themenkomplex fehlertolerante Videokommunikation sind auf der Seite http://www.stud.uni-hamburg.de/users/ts/avance/ zusammengetragen.

Tim Suchanek


Oberthema: Modellierungsverfahren zur lastabhängigen Verhaltensprognose von Kommunikationsnetzen in Echtzeit

Aus dem seit Jahren anhaltenden starken Wachstum im Bereich Telekommunikation und Rechnernetze sowie einer rasanten und ständigen Weiterentwicklung der in diesem Sektor verwendeten Standards erwächst in zunehmendem Maße das Bedürfnis, Aussagen über die Leistungsfähigkeit von Kommunikationsnetzen oder einzelnen Kommunikationsverbindungen anhand von Modellen zu treffen.

In der Präsentation wird ein Netzsimulator vorgestellt, der es erlaubt, Modelle zur Verhaltensprognose von Kommunikationsnetzen in Echtzeit auszuwerten. Die Verhaltensprognose bezieht sich dabei auf die zu erwartenden Paketverzögerungen bzw. -verluste. Die Auswertung in Echtzeit gestattet es insbesondere, die in einem Experiment verwendete Last aus realen und künstlichen Anteilen zu kombinieren.

Der Netzsimulator stellt verschiedene Verfahren zur Verhaltensprognose zur Verfügung: Es können Trace-basierte, analytische sowie simulative Auswertungen verwendet werden. Durch diese Flexibiltät kann der Netzsimulator in einem breiten Anwendungskontext eingesetzt werden. In den vorgestellten Diplomarbeiten wurde eine entsprechende Architektur entwickelt und implementiert, in Experimenten wurden Funktionalität und Leistungsfähigkeit der Implementation gezeigt.

Die Präsentation besteht aus zwei Diplomarbeiten:

1. Diplomarbeit Fabian Bühring: "Entwicklung eines Kommunikationsnetz-Simulators zur flexiblen Simulation des lastabhängigen Verzögerungs- und Verlustverhaltens". Es werden Konzept und Architektur des Netzsimulators motiviert und präsentiert.

2. Diplomarbeit Christian Scherpe: "Echtzeitsimulation zur Unterstützung lastabhängiger Verhaltensprognosen für Kommunikationsnetze": Im Mittelpunkt stehen der Aufbau der simulativ arbeitenden Auswertungskomponente, exemplarische Modelle sowie Experimente mit diesen Modellen.


Realisierung von Stabilisierungsmechanismen für H.261/H.263-codierte Videoströme in IP-basierten Rechnernetzen

Die Bedeutung von Multimediaübertragungen in IP-basierten Netzen wird aufgrund steigender Leistungsfähigkeit der Netzinfrastruktur und der Endgeräte in Zukunft deutlich wachsen. Für Videokonferenzen bieten sich wegen ihrer ausreichenden Qualität und relativ geringer Bandbreiteforderung die Normen H.261/H.263 an. Da der IP-Dienst die aus den Randbedingungen der Videokommunikation resultierende Echtzeitanforderung nur "best effort" erfüllen kann, wird ein gemäß H.26x codierter Videostrom teilweise erheblichen Verlusten unterzogen. Aber selbst geringe Verluste können zu weitreichenden Störungen der decodierten Videosequenz führen. Die Auswirkungen dieser Störung können bereits durch eine geeignete Datenkapselung (application level framing) deutlich verringert werden.

Trotz dieser Maßnahme akkumulieren sich die noch vorhandenen Störeinflüsse zu immer deutlicheren Bildfehlern. Daher ist es notwendig, in geeigneten Abständen eine Bildauffrischung durchzuführen. Diese sollte in Abhängigkeit von der Fehlerrate geschehen, um eine möglichst gleichbleibende Bildqualität zu gewährleisten. Dazu werden Modelle für Bildfehlerakkumulation und Fehlerbewertung auf Transportebene motiviert.

Untersuchungen zeigen jedoch, daß Bildauffrischungen zu Lastspitzen führen. Daher werden aufbauend auf diesen Stabilisierungsmechanismen noch weitere lastregulierende Maßnahmen untersucht.

J.W. Kerse
(Betreuer: Hr. Zaddach)


SWT

Ansätze zur Kooperationsmodellierung im Vergleich (Diplomarbeit)

Die enge Verflechtung von Softwareentwicklung einerseits und die Gestaltung kooperativer Arbeit andererseits ist heutzutage unumstritten. Es entsteht ein Bedarf nach Ansätzen zur Modellierung, die sowohl für die Organisationsentwicklung als auch die für die Softwareentwicklung eine Hilfestellung bieten. Die Auswahl von Ansätzen, die wesentlicheAspekte von Kooperation im Modell sowohl visuell als auch konzeptionell explizit machen, ist keinesfalls trivial. Die Diplomarbeit hat das Ziel, SoftwareentwicklerInnen bei dieser Auswahl zu unterstützen. Zu diesem Zweck werden verschiedene Sichtweisen der Kooperationsmodellierung herausgearbeitet, vier Ansätze zur Kooperationsmodellierung ausgewählt, analytisch und praktisch verglichen sowie abschließend bewertet. Das Poster präsentiert den Vergleich der ausgewählten Ansätze zur Kooperationsmodellierung am Fallbeispiel "Prüfungsleistung Diplomarbeit" und die Bewertung der Ansätze.

Nilgün Özek (Betreuer: Ralf Klischewski)


PJS: Vernetztes Wissen in der Softwareentwicklung und -anpassung

Das Projektseminar behandelt die Entwicklung von Software in netzbasierten Projektumgebungen. Durch solche Projektumgebungen, so die Annahme, entsteht durch die Zusammenarbeit der Beteiligten vernetztes Wissen. Dieser Prozess ist heute unter dem Schlagwort Wissenskokonstruktion bekannt. Wir haben uns mit den Nutzungsmöglichkeiten solcher Projektumgebungen sowie den Anforderungen an die selbigen beschäftigt.

Das Ziel des praktischen Seminarteiles war die Entwicklung eines Web-Informationssystem für Studierende des ersten Semesters auf der Grundlage des Lebenslagen-Konzept, welches von einer Personengruppe ausgeht, die sich in einer bestimmten Lebenssituation befindet, z.B. Hochzeit, Berufsbeginn, Umzug oder eben Studienbeginn. Den Menschen in einer solchen Lebenssituation sollen im Internet gezielt Informationen, oder Kommunikations- möglichkeiten wie Diskussionsforen, Pinnwände oder Email, zur Verfügung gestellt werden.

Um diesen Personen helfen zu können muss man ihre Bedürfnisse genau kennen. Deshalb haben wir gezielt Interviews mit Neustudierenden geführt und herausgefunden was sie in ihrer Lebenslage 'Studienbeginn' interessiert und darauf aufbauend ein Web-Informationssystem entwickelt, welches in der jetzigen Form ein Prototyp für Studierende der Informatik im ersten bzw. zweiten Semester ist.

Als Projektumgebung stand uns das hier am Fachbereich entwickelte CommSy (Community System) zur Verfügung, welches einiges zu unserer Koordination beigetragen hat. Wir freuen uns nun darauf, Euch auf der Fachbereichs-Expo den aktuellen Zwischenstand unseres Produktes präsentieren zu dürfen. Also dann, schaut bei uns vorbei!

Teilnehmer: Arne Bestmann, Martti Jeenicke, Wolfgang Riese, Cetin Tongaloglu, Matthias Witt
(Veranstalter: Christiane Floyd, Volker Wulf, Wolf-Gideon Bleek)


Eine Helpdesk-Anwendung in JWAM

In einer Organisation treten zu Themengebieten, z.B. Rechnerprobleme, immer wieder Fragen von Benutzern auf, die von jemanden beantwortet werden müssen. Eine 'Helpdesk'-Anwendung unterstützt einen solchen Vorgang. In den Diplomarbeiten von Michael Otto, Norbert Schuler und Holger Bohlmann wird ein solches System entwickelt, wobei der Schwerpunkt auf der Gestaltung unterschiedlicher Frontends zur Bedienung des Systems liegt. Als Technologiebasis wird das JWAM-Framework verwendet, das im AB SWT nach dem WAM-Ansatz entwickelt wurde und nun von der Firma Apcon WPS in verschiedenen Projekten eingesetzt wird.

Holger Bohlmann


ASI/ VSYS am LEM – Labor für elektronische Medien

Neue Visualisierungsmöglichkeiten zur Unterstützung der Navigation im Web
Untertitel: Ergebnisse des Projektseminars "Medieninformatik: Schwerpunkt Web"

Immer noch bereitet die Navigation im World Wide Web den Benutzern Schwierigkeiten. Die Navigationsmöglichkeiten heutiger Browser können in vielerlei Hinsicht erheblich verbessert werden. Ansätze dazu wurden im Projektseminar in Form von "Mockups" und Prototypen entwickelt. Zum Beispiel werden die besuchten Seiten in einer dynamisch erzeugten Visualisierung neben dem Browserfenster angezeigt. Das bietet Übersicht und schnelleren Zugriff auf bereits besuchte Seiten. Auszüge aus den Arbeiten werden auf der Expo vorgestellt.

Matthias Mayer


ASI [Raum D-223]

CommSy - ein Produkt, ein Projekt, ein Happening

CommSy als Abkürzung für "Community System" bezeichnet nicht nur eine web-basierte Anwendung zur Unterstützung der Kommunikation, Koordination und Kooperation von Arbeitsgruppen, sondern bezeichnet auch ein Gruppe von ca. 30 Studierenden, wissenschaftlichen Mitarbeitern und Professoren, die in einer etwas anderen Art das Produkt "CommSy" zusammen entwickeln.

Mit dem Produkt "CommSy" lassen sich grundsätzlich alle Formen der gruppenbasierten Zusammenarbeit unterstützen, die sich auf asynchrone Kommunikation abstützen. Es können u.a. Termine und Neuigkeiten einer Arbeitsgruppe und von Teilarbeitsgruppen verwaltet werden; Ein Mitgliederverzeichnis gibt über alle Mitglieder Auskunft. In einer Quellen bzw. Literaturdatenbank können Dokumentationen gesammelt werden; Dateien können als Attachments an beliebigen Einträgen des CommSys gehängt werden; Diskussionsforen können zweckgebunden oder frei zu verschiedenen Themen von allen Mitgliedern der Arbeitsgruppe angelegt werden; In Workspaces können Mitglieder einer Arbeitsgruppe zusammen Texte entwickeln; Eine integrierte Tagebuchfunktion macht es den einzelnen Personen leicht, ihre Aktivitäten zurückzuverfolgen. Darüber hinaus unterstützt CommSy die Sprachen Englisch und Deutsch. Technisch fußt das CommSy auf der Skriptsprache PHP3, einem Webserver, einer MySQL-Datenbank und optional einem Directory Server mit LDAP-Schnittstelle zur Benutzerverwaltung.

Da die Unterstützung von Technik noch keine erfolgreiche Projektarbeit ausmacht, sondern vielmehr das Umfeld der Arbeitsgruppe und die Arbeitsgruppe selbst wesentlichen Einfluß auf die Projektarbeit hat, beschäftigt sich die Gruppe "CommSy" nicht nur mit der Entwicklung des Produkts "CommSy". Es werden u.a. Marketingstrategien zur Verbreitung des CommSys, Einführungsstrategien zur projektförderlichen Einführung des CommSys in Arbeitsgruppen, Moderationsstrategien zur anhaltenden Nutzung des CommSys und Evaluationsstrategien zur Auswertung von CommSys als Grundlage einer Rückkopplung entwickelt. Weiterhin entstehen in der Gruppe "CommSy" Studien- und Diplomarbeiten sowie Konferenz- und Tagungsbeiträge. Diese Vielfalt an Aktivitäten erfordert natürlich auch eine Projektkoordination, die Workshops, Social events und Beiträge z.B. zur Informatik Expo 2000 organisiert. Die Vielfalt bei CommSy ist groß und es finden sich immer wieder (auch neue) Leute, die verschiedenste Aufgaben übernehmen oder als neue CommSy-Mitglieder Ideen in die Gruppe einbringen. Alle Interessierte machen alles bzw. das, wozu sie Lust haben. Es herrscht teilweise ein Chaos, welches auf dem schmalen Grad zwischen Kreativität und Trübsinn wandelt. Aber es funktioniert. Und warum machen wir das alles? Weil CommSy eine Spielwiese ist, auf der wir eine Menge ausprobieren können und das ganze unheimlichen Spaß macht!

Aussteller: Die CommSy-Gemeinschaft
(M. Janneck, ASI+ SWT)


ASI

Eine Energiebilanz für den FBI

Der FBI hat in den letzten zwei Jahren ca. 16% seiner Energiekosten eingespart, insgesamt 110.000 DM! Dies geschah größtenteils durch Verhaltensänderungen der Nutzer, also der Studenten und Mitarbeiter.

Diese Studienarbeit unterstützt dies, in dem das Thema \textbf{Energiemanagement} näher betrachtet und eine Software zur Verbrauchskontrolle erarbeitet wurde. Basierend auf Microsoft Excel können nun die Verbrauchsdaten von Strom, Gas und Wasser direkt nach der monatlichen Ablesung eingegeben und ausgewertet werden. So hat der Technische Dienst schnell die Möglichkeit, Unregelmäßigkeiten aufzudecken und Ursachen zu suchen. Die Verbrauchsdaten werden künftig auch auf den WWW-Seiten des UmweltTEAMs (http://www.informatik.uni-hamburg.de/Info/Umwelt/) veröffentlicht werden.

Auf der EXPO haben Sie die Möglichkeit, die Software selbst zu testen und die Verbrauchswerte Ihres Gebäudes seit 1995 zu analysieren.

Arne Witte, (Studienarbeit),
Betreuer: Prof. Dr. Arno Rolf/Hr. Gottschick


PJS Schnittstellengestaltung: Contextual Design

In Rahmen des Projektseminars Schnittstellengestaltung haben wir uns anhand von realen Anwendungsbeispielen mit der Methode des "Contextual Design" beschäftigt. Dabei handelt es sich um eine Reihe von Entwurfsschritten, bei denen Benutzer in den Entwurfsprozess einbezogen werden, um eine möglichst benutzergerechte Oberfläche gestalten zu können. Mit Hilfe von formalisierten Arbeitsmodellen werden Erfahrungen aus verschiedenen Interviews zusammengetragen und Modelle der Arbeit und des Arbeitsumfeldes geschaffen. Auf Basis dieses Ist-Zustands wird ein Soll-Zustand für Arbeit und Arbeitsabläufe definiert und mit Hilfe von detaillierten Beschreibungen der zukünftigen Arbeit ("Storyboards") und Papierprototypen ("Mock-Ups") konkretisiert. Wir präsentieren sowohl die Methode als auch unsere unfertigen Arbeitsmaterialien, um den Vergleich zwischen den festgelegten Arbeitsschritten und unseren praktischen Beispielen möglich zu machen.

Michael Janneck


NATS

Grundstudiumspraktikum: Natürlichsprachlicher Zugriff zum KVV

Im Rahmen eines Grundstudium-Praktikums wurde ein Interface entworfen und implementiert, welches natürlichsprachliche Anfragen an das kommentierte Vorlesungsverzeichnis erlaubt. Das Interface wurde als verteilte Architektur realisiert. Der Benutzer gibt dabei seine Anfrage über ein Formular in seinem Browser ein, der sie dann über einen Kommunikations-Server an das sprachverarbeitende System weiterleitet. Dieses System besteht aus mehreren Komponenten, welche die Anfrage syntaktisch und semantisch analysieren und schließlich Datenbankabfragen für die bestehende KVV-Datenbank erzeugen. Der Server leitet die erzeugten Abfragen an die Datenbank weiter und schickt das Ergebnis zurück an den Browser.

Kai Siemonsen
(Betreuer: Hr. Menzel)


RZ / das DFN-Firewall-Labor

"httpf" — Ein Proxy zum Filtern von HTML

Mit der zunehmenden Kommerzialisierung des "World Wide Web" (WWW) wird in HTML-Dokumente immer häufiger ausführbarer Code integriert. Dieser vom Webserver übermittelte Code wird vom Webbrowser auf dem lokalen Rechner ausgeführt. Diese Ausführung von ungeprüften Programmen bietet jedoch viele Angriffsmöglichkeiten. httpf ist ein filternder Proxy, der das Herunterladen und die Ausführung von Programmcode verhindern kann.

Dies geschieht, indem nur bekannte, ungefährliche Sprachelemente an den Webbrowser weitergeleitet werden. Auch die Einträge in den HTTP-Köpfen können gefiltert werden, so dass z.B. keine Informationen über das Betriebssystem des Client-Rechners an den Server übergeben werden.

O. Gellert und G. Goldbach


Sicherheitsdienste im TCP/IP-Protokollstapel

Mit dem Wachstum des Internets und seiner zunehmenden Kommerzialisierung nimmt auch die Anzahl der Computer und Netzwerke zu, die sensitive Daten verarbeiten, auf einen Internetzugang jedoch nicht verzichten können. Hieraus entsteht die Notwendigkeit, beim Datentransfer und Nachrichtenaustausch über Netzwerke u.a. Vertraulichkeit, Authentizität und Integrität der Daten zu gewährleisten. Die heutigen Internetprotokolle und darauf aufsetzende Anwendungen weisen jedoch gerade in dieser Hinsicht erhebliche Lücken auf. Beispiele hierfür sind im Klartext übermittelte Passwörter und fälschbare Absenderadressen.

Im Rahmen einer Diplomarbeit wurde das Protokoll TCP, das von den meisten Anwendungen für die Kommunikation eingesetzt wird, erweitert. Diese Erweiterungen wurden in einem Prototyp realisiert. Beim Aufbau einer Verbindung wird hierbei der Einsatz von Sicherungsmethoden ausgehandelt. Diese umfassen die automatische Authentisierung des Kommunikationspartners und eine Verschlüsselung der übertragenen Daten. Auf diese Weise wird eine deutlich höhere Sicherheit der Kommunikation erreicht, ohne die bestehenden Anwendungen zu verändern.

O. Gellert

(Betreuer beider Projekte: Carsten Benecke)


IMA [Raum F-633]

Der Computer lernt sehen und hören

Diese Laborbesichtigung gibt einen Einblick in aktuelle Forschungsarbeiten aus den Gebieten Bilderkennung (Computer Vision), Robotik und Chipdesign für Akustikanwendungen.

Prof. Dr.-Ing. Bärbel Mertsching mit Mitarbeitern und Studierenden der AG IMA


Datengetriebene Aufmerksamkeit anhand dynamischer Features (Studienarbeit)

Für ein intelligentes System ist es von zentraler Bedeutung, Bewegung wahrzunehmen und zu bewerten. Eine Aufmerksamkeitssteuerung hat die Aufgabe, ohne viele Annahmen über die Umgebung die wesentlichen Punkte eines Eingangsbildes zu finden. Aus psychophysischen Experimenten ist bekannt, dass dabei lokale Eigenschaften wie Symmetrie, Farbkontrast und eben Bewegung eine Rolle spielen. wird eine Komponente zur Aufmerksamkeitssteuerung, die Bewegung in einer Szene detektiert und bewertet. Die Daten werden für die bestehende Aufmerksamkeitssteuerung des aktiven Sehsystems NAVIS in eine geeignete Darstellung gebracht. Die Basis der verwendeten Algorithmen ist ein bestehendes System zur Objektverfolgung. Bewegungen in einer Szene werden mittels Korrelation von Kanten detektiert. Die Kanten werden nach gemeinsamen Schicksal gruppiert und nach der Bewegungsrichtung in Featuremaps repräsentiert. In die Bewertung der Bewegung fließen ein: die Sicherheit der Zuordnung, die Grüße der detektierten Bewegung, die relative Geschwindigkeit und der Grad, in dem die Bewegungsrichtung der Vorzugsrichtung der Karte entspricht.

Christine Reese


Off- und Online-Verfahren zur Kamerakalibrierung aktiver Sehsysteme (Studienarbeit)

In vielen Bereichen der Bildverarbeitung, in denen Kamerabilder verwendet werden, ist es notwendig, die Kameras im Rahmen eines geeigneten Kameramodells durch Parameter zu beschreiben. Für Tiefenschätzungen in der Stereoskopie zum Beispiel ist neben Kenntnis der Stereobasis auch eine Modellvorstellung der inneren Geometrie einer Kamera wichtig, die es erlaubt, Konzepte wie Winkel zwischen Sehstrahlen einzuführen. Da die innere Geometrie einer handelsüblichen Kamera nur in grobem Rahmen bekannt ist und von Gerät zu Gerät nicht unerheblichen Schwankungen unterliegt, ist in der Regel eine nachträgliche Parameterbestimmung, also eine Kalibrierung, notwendig.

Es soll ein Überblick über existierende Methoden der Kamerakalibrierung gegeben werden unter dem Gesichtspunkt des Messaufwandes und der Messgenauigkeit. Offline-Verfahren benötigen einen relativ aufwendigen Messaufbau und zeitintensive Messverfahren, liefern allerdings fast beliebig genaue Ergebnisse. Da speziell bei aktiven Sehsystemen oft keine Messungen unter Laborbedingungen durchgeführt werden können, sind sogenannte Online-Verfahren von besonderem Interesse, die unter möglichst geringen Rahmenbedingungen an die jeweilige Umwelt und mit geringem Zeitaufwand funktionieren. Einige der aktuellen Verfahren werden vorgestellt und mit den Standardverfahren hinsichtlich der möglichen Ergebnisse verglichen.

Martin Babos


Entwurf und Implementation einer durch parallele Hardware beschleunigten Gabor-Filterbank (Diplomarbeit)

In der Bildverarbeitung werden in einer Vorverarbeitungsstufe häufig sogenannte Gaborfilter eingesetzt, die es ermöglichen, orientierungsselektiv Intensitätsänderungen aus dem Bild zu extrahieren. Die auf IEEE-Gleitkommazahlen basierende Implementierung des Filters ist jedoch für eine Echtzeitverarbeitung zu langsam.

Es soll dargelegt werden, wie der mathematische Algorithmus der Gaborfilterung effizient auf Hardware umgesetzt werden kann. Es sollen sowohl algorithmische Aspekte, als auch auf die zur Verfügung stehende Hardware bezogene Entwurfskriterien diskutiert werden.

Nikolaus Voss


Konzeption und Realisierung einer Systemarchitektur für einen mobilen sicht- und sonargestützten Roboter (Diplomarbeit)

Mittlerweile existieren technische Grundlagen und Verfahren zur Realisierung autonomer Systeme, die "intelligentes" Verhalten zeigen sollen über 80 Jahre nach der ersten Verwendung des Begriffs "Robot". Ein solches System soll konzipiert und mit einem sonar- und kamerageführten "Pioneer I"-Robot realisiert werden.

Exemplarisch für eine Klasse von Anwendungsbereichen der Servicerobotik soll ein Einsatz des Systems in einem Spielszenario stattfinden, das eine Reihe von zu lösenden Teilproblemen mit sich bringt:

- die Selbstlokalisierung und die Lokalisierung der zu manipulierenden Objekte,

- die Detektion und das Umfahren von Hindernissen,

- die Kartierung der Umgebung mit Planung der nächsten Spielschritte,

und als steuernde Instanz (in diesem Fall) die eigentliche Spielstrategie.

Es werden grundsätzliche und spezielle, sich bei der gewählten Konfiguration ergebende Probleme mit ihren Lösungsmöglichkeiten erläutert, Begründungen für die Wahl der jeweils verwendeten Lösungsansätze, ihre Stärken und Einschränkungen dargelegt und ein Überblick über den Stand der Realisierung der Gesamtarchitektur geben.

Johannes Bitterling


Ortsvariante Analyse und Repräsentation von Multi-Objekt-Bewegungen für ein aktives Sehsystem (Diplomarbeit)

Durch die Entwicklung mobiler autonomer Roboter, die ihr Umfeld durch Auswertung visueller Informationen wahrnehmen und erforschen, gewinnt das auf biologischen Vorbildern basierende Konzept des aktiven Sehens immer mehr an Bedeutung. Dabei wird der Prozess des Sehens um eine dynamische Komponente erweitert, die den Beobachter in seiner Umgebung agieren lässt, um so Einfluss auf das Gesehene zu nehmen. Neben der Auswertung der statischen Eigenschaften der beobachteten Szene ist die Analyse der dynamischen Merkmale der zu erforschenden Umgebung einer der wichtigsten Aufgaben eines Sehsystems. Es wird ein Verfahren zur Bewegungsanalyse vorgestellt. Aufgabe des Verfahrens ist es, zuerst bewegte Objekte in einer durch ein monokulares Kamerasystem beobachtete Szene zu finden. Das Verschiebungsvektorfeld wird durch die Auswertung der lokalen Phase, die aus den Antworten richtungsselektiver Quadraturfilter gewonnen wird, bestimmt und mittels eines selbstorganisierenden neuronalen Netzes bzgl. der 3D-Bewegung segmentiert. Um die Komplexität des Verfahrens zu reduzieren wird der Ansatz der ortsvarianten Bildverarbeitung gewählt. Dabei werden die Eingangsbilder in eine polar-logarithmische Darstellung überführt, wodurch eine erhebliche Datenreduktion erzielt werden kann ohne wesentlichen Informationsverlust im fovealen Bereich des Bildes. Die Wahl dieser Darstellung wird zusätzlich dadurch motiviert, dass sie die retino-kortikale Datenrepräsentation im visuellen Systemen von höheren Lebewesen modelliert.

Michael Jesikiewicz


Entwurf und Implementierung von Datenschnittstellen und Integration eines kombinierten AD/DA-Wandlers für das "Silicon Ear"-System (Studienarbeit)

Im Projekt "Silicon Ear" wird ein ASIC-Entwurf für einen Chipsatz zur gehörgerechten Sprachverarbeitung durchgeführt. Im Rahmen einer Studienarbeit sind die entstandenen Designs auf einer Demonstrator-Plattform, einem PCI-Board mit einem FPGA (Xilinx Virtex-800), derart zu integrieren, dass ein Datenfluss sowohl über den Host als auch über einen AD/DA-Wandler erfolgt. Dafür sind ein Controller auf dem FPGA, eine Ansteuerung per Hostsoftware und eine externe Leiterkarte mit Verstärker und AD/DA-Wandler aufzubauen und zu testen.

Michael Scholz


Zurück zur Hauptseite der EXPO2000FBI