Haptic Interaction Device. Erstellung eines Geräts zur haptischen Navigation in einer Musikdatenbank


Diplomarbeit, 2003
131 Seiten, Note: 1,7

Leseprobe

Gliederung

1.0 Einleitung

2.0 Grundlagen
2.1 Einleitung
2.2 User Interfaces
2.2.1 Mensch Maschine Interaktion
2.2.2 Usability
2.2.3 Haptische Interfaces
2.2.4 Produkte mit haptischen Feedbackelementen
2.2.5 Zusammenfassung
2.3 Domain Musik
2.3.1 Online-Musik
2.3.2 Musiksuche Online
2.3.3 MP3-Player
2.3.4 Hörer/Hören
2.3.5 Fazit
2.4 Design mobiler Endgeräte
2.5 Zusammenfassung

3.0 Konzept
3.1 Einleitung
3.2 Konzeptideen
3.3 Auswertung der Konzeptideen
3.4 Grundlegendes
3.5 Funktion und Aufbau

4.0 User Study
4.1 Erste Befragungen
4.2 Ziele
4.3 Versuchsaufbau

5.0 Design
5.1 Gestaltungsidee
5.2 Formentwicklung
5.3 Designbeschreibung
5.4 Funktionseinheiten
5.5 Ergonomie und Dimensionierung
5.6 Umsetzung
5.7 Modellfotos

6.0 Ausblick

7.0 Literatur

1.0 Einleitung

Musik ist allgegenwärtig und Teil des Alltagslebens geworden. Zuhause, in öffentlichen Räumen und im Auto: fast überall sind wir von ihr umgeben. Sie beeinflusst unser Befinden, und wir versuchen, mit Musik auf unsere Stimmung zu reagieren. Jeder geht anders damit um, aber fast jeder hört zur Entspannung, im Stress und bei besonders schönen oder schlechten Situationen die entsprechende Musik. Spätestens seit der Einführung des Walkman auch mobil: auf dem Weg zur Arbeit, zur Discothek oder am Strand hört man Musik, die entweder der Laune entspricht oder die Stimmung verbessert.

Bis vor wenigen Jahren war Musik an Tonträger wie LPs oder CDs gebunden. Die Einführung digitaler Formate, allen voran MP3-Files, und deren Verfügbarkeit im Internet haben aus Musik eine unbegrenzte Datenmenge gemacht. Der Benutzer hat nicht mehr eine begrenzte Anzahl Alben daheim im Schrank, die er kennt und aus der er die Musik auswählt, die er gerade hören will. Er hat vielmehr Zugriff auf eine unüberschaubare Zahl von Alben und Titeln.

Dies erfordert nicht nur neue Technologien für die Speicherung und Wiedergabe, sondern vor allem auch neue Interfaces. Der Musikhörer braucht im Umgang mit einer nahezu unendlichen Datenmenge andere Strategien als im Umgang mit seiner Plattensammlung.

Das vorliegende Konzept stellt ein Tool vor, welches Menschen den Zugriff auf Musikdatenbanken insbesondere in mobilen Situationen erleichtern soll. Eine haptische Schnittstelle nutzt dabei harmonischen Fähigkeiten des Menschen und gibt ihm die Möglichkeit, Musik auf eine neue Weise zu entdecken.

Mimite ist ein mobiles Musikabspielgerät, dem ein neues Prinzip der Musiksuche zugrunde liegt und das mit einem haptischen Interface zur Interaktion ausgestattet ist. Der Name Mimite setzt sich aus den beiden japanischen Silben <mimi> und <te> zusammen. Diese bedeuten Hand und Ohr und stehen für die beiden Gegenspieler des neuartigen Interaktionskonzepts.

Dem Konzept zugrunde liegt die Beobachtung, dass viele Musikhörer weniger künstlerorientiert Musik hören, sondern eher zu Anlässen oder Stimmungen einen bestimmten Typ von Musik möchten. Anstatt der bisherigen Suchparameter Künstler, Album oder Genre wählt man mit Mimite nach Entstehungszeit, Rhythmus und anderen, selbstdefinierten Kriterien - die passende Musik für den Augenblick.

Mimite wird über ein haptisches Interface anstatt eines graphischen Interface bedient. Diese Schnittstelle ist so aufgebaut, dass der Nutzer mit den einzelnen Fingern Suchparameter verändert, vergleichbar mit dem Spielen eines Instruments - eine bestimmte Kombination ergibt ein bestimmtes Suchergebnis. Dabei soll nach und nach eine harmonische Bewegung zur Interaktion mit der Musikdatenbank entstehen. Und es soll Spaß machen.

Im zweiten Kapitel, dem Researchteil dieser Arbeit, gebe ich Einblick in die Grundlagen der Mensch-Maschine Interaktion und versuche, einen Überblick über die Themen Haptik und Usability zu verschaffen. Danach gehe ich auf den Kontext Musik ein und zeige technische Entwicklung, das Umfeld mobilen Musikkonsums, Hör- und Suchgewohnheiten und Produkte. Das führt zu einem Anforderungskatalog für das Gerät. Im Kapitel 3 erläutere ich meine Ideen und den Weg zu dem Konzept Liquido. Eine geplante Studie, die die Konzeptgrundlagen überprüfen soll, wird im Kapitel 4 beschrieben.

Im fünften Teil stelle ich mein Designkonzept und die Umsetzung im Modell vor und gebe abschließend in Kapitel 6 einen Ausblick auf die Weiterarbeit, die aus diesem Projekt entstehen soll.

2.0 Grundlagen

2.1 Einleitung

Was ist unter einem haptic interaction device zu verstehen?

Interface <Grenzfläche, Schnittstelle>

Haptic <den Tastsinn, die Hand betreffend> Device <Einheit, Gerät, >

Mobile <beweglich, nicht ortsgebunden>

Es geht um ein System, das die Interaktion eines Users mit einer Computingeinheit ermöglichen soll, wobei „manuelle Ereignisse“ bei der Eingabe und der Ausgabe im Mittelpunkt stehen. Um den Zusammenhang Mensch-Maschine-Interaktion zu erklären, gebe ich in den folgenden Kapiteln eine Einführung in das Thema User Interfaces (UI) und zeige einige wichtige Aspekte der Usability von UI auf. Im Kapitel 2.4 stelle ich den Stand der Technik im Forschungsbereich vor und diskutiere Produkte, die haptische Interfaces beinhalten.

2.2 User Interfaces

2.2.1 Mensch Maschine Interaktion

„Ziel der Entwicklung von Mensch-Maschine-Schnittstellen ist, von den Eigenschaften der menschlichen Kommunikationskanäle und Fertigkeiten auszugehen und dann Geräte, Interaktionstechniken und Schnittstellen zu entwickeln, die eine effektive wechselseitige Kommunikation mittels dieser Kanäle zulassen“ (Ziesler, 1998)

In Bezug auf multimodale Mensch-Maschine-Interaktion gibt es viele verschiedene Konzepte. Die Grundannahme ist, dass es mindestens zwei physikalisch getrennte Handelnde gibt, und zwar einen Menschen und eine Maschine. Diese sind in der Lage, Informationen über eine Reihe von Informationskanälen auszutauschen.

Im folgenden wird ein statisches Input/Output-Modell benutzt, um kurz die verschiedenen Kanälen zu betrachten.

Auf Seiten des Nutzers unterscheidet man zwei Prozesse: Wahrnehmung und Steuerung.

Im Wahrnehmungsprozess unterscheidet man

- Human Input Channels (HIC) - Computer Output Media(COM). Im Steuerungsprozess unterscheidet man
- Human Output Channels (HOC) - Computer Input Modalities (CIM).

In beiden Beteiligten gibt es eine kognititive bzw. verarbeitende Komponente, die Input-Information verwertet und den Output erzeugt. Ebenso verfolgen beide eine Absicht, entweder im Falle nicht-intelligenter Maschinen implizit durch Programmierung oder im Falle des Menschen bzw. hochentwickelter Computern explizit durch Ziele und Überzeugungen.

Abbildung in dieser Leseprobe nicht enthalten

Nicht alle diese Sinne sind vorrangig für die Schnittstellengestaltung interessant, im wesentlichen sind Sehsinn, Hörsinn und somatische Rezeptoren von Bedeutung. Geschmack und Geruch sind geeignet für den Informationstransport. Es fehlt aber ein Gerät zur Geschmackserzeugung, und der Informationstransport per Geruch hat in diesem Zusammenhang praktische Probleme, obwohl die chemischen Sinne eine eigene Gedächtnisstruktur haben und zur Raumkennzeichnung und Wegmarkierung eingesetzt werden könnten.

Der Sehsinn spielt für den Informationsprozess die wichtigste Rolle. Man unterscheidet

Lichtintensitätswahrnehmung Farbwahrnehmung

zeitliche Wahrnehmung räumliche Wahrnehmung Beim Hörsinn unterscheidet man Tonhöhe

Lautstärke Klangfarbe

räumliche Wahrnehmung

Die Hauptunterscheidung bei der somatischen Wahrnehmung besteht in taktiles und haptisches Ereignis. Des weiteren unterteilt man in Druck, Berührung, Vibration sowie Kälte und Wärme. Auch können Muskeln und Gelenke Lage und Kraftausübung wahrnehmen. Dies fasst man in der Lehre der Kinesthetik zusammen, die besagt, dass Bewegungen an das Gehirn gemeldet und dort zu Informationen über den Zustand des Körpers verarbeitet werden.

- Gelenkstellung
- Muskelaktivität
- Kopfbewegungen
- Hautpositionen relativ zu Berührungspunkten
- Balance

Die Computereinheit hat verschiedene Möglichkeiten, den Sinnen des Menschen Informationen zu übermitteln.

Visuell

Die visual display unit (VDU), also Bildschirmdarstellung ist der häufigste Feedbackteil zwischen User und Computer zur zweidimensionalen Darstellung von Informationen.

Autostereoscopic Displays

Bei Autostereoscopic Displays wird das Bild in Spalten für das linke und rechte Auge dargestellt. Diese bewegliche Optik vor dem Bild erzeugt einen Tiefeneffekt.

Cave

Von drei bis sechs Seiten wird mit ein bis zwei Projektoren pro Seite eine virtuelle

Umgebung erzeugt. Dabei muss eine Shutter oder Polarisationsbrille getragen werden. Über ein tragbares Eingabegerät können Zoom, Rotation und z.B. Tageszeiten (Beleuchtungssituation) eingestellt werden.

Head Mounted Displays (HMD)

Integriert werden kann auch ein Eye-Trackingsystem.

Abbildung in dieser Leseprobe nicht enthalten

nach: http://users.auth.gr/~iantonio/HOME3DIm2.jpg

Abbildung in dieser Leseprobe nicht enthalten

Bildquelle: http://www.informatik.uni- oldenburg.de/~iug07/hypes/images/

Akustischer Output

Man unterscheidet zwischem sprachlichem und nichtsprachlichem akustischen Output. Nichtsprachlich sind z.B. auditive Icons (Microsoft trashcan für Löschen), “Earcons“ (tonbasierte Symbolsets, in denen Worte durch Lautsymbole ersetzt sind), Tonifizierung, permanentes akustisches Signal oder Klangfeld, das sich durch Änderung von Daten verändert, räumlicher Klang, z.B. 3D Soundfelder Haptische Outputs werden im Kapitel 2.2.4 behandelt.

Human Ouput / Computer Input

Der Mensch kommuniziert im wesentlichen über Sprache und Gesten.

Um mit einem Rechner zu kommunizieren, bedient sich der Mensch zumeist eines Zeigegerätes oder bestimmter Eingabeknöpfe. Zu diesen sogenannten legacy devices zählt man Pointing devices, z.B. Maus, Zeichentablett, Lightpen, Touchscreen, Dataglove und Keyboards, z.B. ASCII, Numeric, Cursor. An Elektrogeräten und öffentlichen Computern findet man zudem Eingabeknöpfe, die für eine bestimmte Aktion genutzt werden.

Die Erkennung der Handschrift wird inzwischen entweder direkt oder über eine Eingabesprache in großem Umfang genutzt, insbesondere bei den Handhelds.

Die Spracherkennung ist soweit entwickelt, dass sie in bereits in Mobiltelefone und Software integriert ist und dort mit einer Fehlerquote von ca. 90% zum Einsatz kommt.

In den letzten Jahren hat es eine Reihe von Entwicklungen gegeben, die versuchen, andere Eingabekanäle zu nutzen und die Mensch-Maschine-Kommunikation der zwischenmenschlichen anzunähern. Hier werden vor allem Gesten genutzt: auf den Kopf bezogen Kopfgesten wie Nicken und Schütteln oder Mimiken, also spezifische Bewegungen der Gesichtsphysiognomie. Auch Augenbewegungen können erfasst und in Signale umgesetzt werden.

Das Eyegaze System setzt Augenbewegungen in Signale um (Eyetracking), mit deren Hilfe man auf einem Bildschirm einen Cursor bewegen kann (und so kommunizieren oder steuern).

Das Gestikulieren mit den Händen, das Bewegen von Objekten sind Versuche, das HandArm-System mit einzubeziehen. Dabei werden die Gesten mit einer Kamera aufgenommen oder die Koordinaten der Hände im Raum durch spezielle Geräte erfasst .

Verschiedene Eingabemöglichkeiten können zu Bi- oder Multimodalen Steuerungen verknüpft werden. Dabei werden mehrere Eingabemöglichkeiten, z.B. Visuell-Gestik, Visuell-Handschrift, Handschrift-Sprache oder Visuell-motorisch kombiniert.

Multimodalität soll es dem User ermöglichen, in der Kommunikation mit Maschinen und technischen Systemen unterschiedliche Eingabeformen zu benutzen. Multimodale Systeme sind dadurch gekennzeichnet, dass sie mehr als einen Sinneskanal des Menschen zur Mensch-Computer Kommunikation nutzen. Während heutzutage Informationen meistens nur optisch auf einem Bildschirm dargestellt werden, wodurch die visuelle Sinnesmodalität des Menschen angesprochen wird, unterstützen multimodale Systeme auch eine akustische oder haptische Anzeige und beziehen damit auch die auditive, die taktile und die kinästhetische Sinnesmodalität in die MenschComputer Kommunikation ein ( nach Boles).

Im Unterschied zu beliebigen Multimedia Systemen geht es dabei nicht darum, unterschiedliche Medien in irgendeiner Form zur Bearbeitung oder Konsumption durch den Benutzer oder zur Präsentation von Ergebnissen zur Verfügung zu stellen. Vielmehr soll der Benutzer die Medien tatsächlich zur Verständigung mit dem Computer benutzen können, also insbesondere zur Mitteilung der Aufgaben, die er vom System erledigt haben möchte. Diese Möglichkeit macht aus einem Medium eine Modalität für die Kommunikation mit dem System.

Abbildung in dieser Leseprobe nicht enthalten

nach: http://users.auth.gr/~iantonio/HOME3DIm2.jpg

Bildquelle: http://www.smartkom.org/image/Architektur.jpg

Ein aktuelles Forschungsfeld sind Tangible User Interfaces. Mit diesen Schnittstellen wird versucht, das Interface vom Screen in die physikalische Umwelt des Nutzers zu bringen. Eine Entwicklung ist der Murmelanrufbeantworter, bei dem für jeden ankommenden Anruf eine Murmel in einen Behälter rollt. Will der Nutzer seine Anrufe anhören, so nimmt er die Murmeln und legt sie wieder zurück. Dabei werden die Anrufe abgespielt. Ishii und Ullmer formulieren die Vision: „to change the world itself into an interface“.

TUIs entstanden im Zusammenhang mit Forschungen zum sogenannten Ubiquitous-

Computing: Die Umgebung des Menschen wird mit Computing angereichert, dieses tritt aber nur dann in Erscheinung, wenn es gebraucht wird oder fügt sich als physikalisches Interface in die Umgebung ein. Im Beispiel von Philips werden alle momentan relevanten Informationen wie Nachrichten, Uhrzeit, Batteriestand des gerade benutzten Gerätes in die Umgebung projiziert.

Abbildung in dieser Leseprobe nicht enthalten

nach: http://users.auth.gr/~iantonio/HOME3DIm2.jpg

Ubiquitous Computing: www.philips.com

Bildquellen: http://cdn.hometone.com/wp-content/uploads/2012/07/ nebula_vaPPV_24702.jpg

http://www.golem.de/0205/20010-homelab_spiegel_artikel.jpg

2.2.2 Usability

Für die Gestaltung von Schnittstellen lassen sich auf der Grundlage ergonomischer,
physiologischer und psychologischer Erkenntnisse einige Grundsätze formulieren. Die Anwendung dieser Prinzipien soll zur Vereinfachung im Umgang von Menschen mit Maschinen führen.

Erlernbarkeit

Das System sollte überschaubar sein und dem Nutzer erlauben, schnell erste Aufgaben zu erledigen. Die Erlernbarkeit ist in mancher Hinsicht das grundlegendste Usability- Kriterium, denn die erste Erfahrung die ein neuer User mit einem System macht ist das Lernen, wie man das System bedient.

Es gibt unterschiedliche Ansprüche an die Erlernbarkeit eines Systems. So ist dem User eines professionellen CAD-Systems eine gewisse Lernzeit zuzumuten und wird auch akzeptiert, hat sogar eine gewisse qualitative Aussage, der Bediener eines digitalen Museumsführers jedoch muss quasi von Null an das System bedienen können. Einer solchen Userstudie muss also eine genaue Analyse der Benutzergruppen und der Benutzungssituation vorausgegangen sein. Dann wird dem Tester eine bestimmte bzw. ein Set von Aufgaben gestellt und die Zeit für das Erlernen der Funktionen des Systems sowie bis zur Unterschreitung einer bestimmten Zeit für das Durchführen von Aufgaben gemessen. So kann die Verstehzeit des Systems bestimmt werden und auch herausgefunden werden, wie schnell das System sichere und schnelle Handhabung ermöglicht.

Wenn man die Erlernbarkeit eines Systems analysiert, muss man beachten, dass die meisten User ein System nicht erst erlernen und dann benutzen. Sie beginnen meistens dann, wenn sie einen Teil des Systems verstanden haben (Diesem Umstand muss man auch bei den o.g. Messungen Rechnung tragen).

Für Try-And-Error Lernen ist wichtig:

-leicht zu verstehende Fehlermeldungen
-Aufteilung des Systems in Teile, die einzeln bedient werden können (Schreiben und Drucken ohne Tabellenerstellung)
-umfangreiche, evtl. differenzierte Undo-Möglichkeiten
-Sicherungsabfragen bei riskanten Operationen (Papierkorb wirklich leeren?)

Beständigkeit

Die Beständigkeit beschreibt den Sachverhalt, dass der User in ähnlichen Situationen ähnliche Aktionen auslösen kann und eine ähnliche Umgebung vorfindet. Sie ist ein entscheidender psychologischer Faktor, der für die „Loyalität“ des Systems steht. Ist ein Weg, den der Nutzer einmal erfolgreich beschritten hat, in einer ähnlichen Situation nicht mehr vorhanden, führt das zu Frustrationen und Ermüdung. „User´s trust of systems is fragile; one experience with misleading data or unexpected results will undetermine for a long time a person´s willingness to use a system.“(Shneiderman) Konsistenz ist auch ein „ökologischer“ Faktor, eine gleichbleibende Umgebung sorgt auch für größere subjektive Zufriedenheit beim User.

Effizienz der Kommunikation

Die Nutzereffizienz bezieht sich auf den Expert-User, der einen bestimmten Lernstatus erreicht hat und nun die Schnelligkeit und Sicherheit seiner Operationen verbessern kann.

Eine repräsentative Testgruppe für die Messung dieser Kriterien kann z.B. nach Arbeitsstunden mit dem System ausgewählt werden.

Zur Verbesserung der Kommunikation sollten

-möglichst wenige Einzelzeichen eingegeben werden müssen
-Meldungen und Dialoge kurz sein
-Metaphern eindeutig sein
-Entscheidungen nur gefordert werden, wenn sie auch nötig sind
-Displays visuelle Gestalt behalten (Konsistenz)
-Schnelle und eindeutige Hilfefunktionen zur Verfügung stehen
-Fehlermeldungen Hilfeanleitung beinhalten

Erinnerung

Die Systeme, die der Mensch häufig privat oder im Beruf nutzt, kann man von denen abgrenzen, die gelegentlich zur Erledigung bestimmter wiederkehrender Aufgaben benutzt werden, z.B. in öffentlichen Informationssystemen oder Automaten oder bei Programmierungen an mobilen Geräten (mobiles, PDAs, Fernbedienungen). Gelegenheitsnutzer lernen nicht von Anfang an, sondern müssen sich an die Struktur des Systems erinnern. Das ist auch wichtig für Systeme, die nur zu bestimmten Gelegenheiten zum Einsatz kommen. Ein Beispiel: einem Außenstehenden erklärt sich nicht sofort, was mit „Kiss&Ride“ gemeint ist. Erfährt man aber, dass es - vgl. Park&Ride - bestimmte Haltezonen in der Nähe von Bahnhöfen sind, in der Mitfahrer abgesetzt werden können, um einen Zug zu nehmen (inklusive des Abschiedskusses), wird die Analogie sehr klar und nicht mehr vergessen. Insgesamt ist dieser Bereich nicht sehr gut erforscht. User haben Schwierigkeiten, sich bestimmte Menüs zu merken, obwohl sie sie sofort verstehen und erinnern, wenn sie auftauchen. Hier spielt die Nähe der Analogie eine große Rolle. Eine Menüführung oder Systemablauf ist leichter zu merken, wenn er sich an Bildern oder Geschichten, vielleicht persönlichen Erfahrungen orientiert. Allerdings ist dabei auch zu beachten, dass es bestimmte Konventionen in der Menüführung gibt (z.B. Windows, Mac-Oberfläche), die genutzt werden können, ohne ein komplett neues Menü aufzubauen. Dies ist sicherlich auch aus Sicht der Informationsüberfrachtung (insbesondere visuell) vorteilhaft.

Fehlermanagement

Dem User soll es erschwert zu werden, Fehler bei der Bedienung des Systems machen.

Typischerweise werden Fehler als solche Aktionen definiert, die nicht zum gewünschten Ergebnis führen. Andererseits führen Fehler (wie zuvor beschrieben) auch zu einem Lerneffekt, wenn gutes Hilfemanagement angeboten wird.

Verhindert werden muss, dass es zu frustrierenden Abbrüchen kommt oder der User in Schleifen hängt, die ihn einer Lösung nicht näher bringen. Auch dürfen Fehler nicht fortgeführt werden und zu einem schlechten Arbeitsresultat führen. Dies ist sicher schwerer zu realisieren als ein Hilfemanagement, da der Arbeitserfolg des Nutzers subjektiven Kriterien unterliegt, die nur schwer vom System nachvollzogen werden können. An kritischen Punkten ist deshalb ein Hinweis oder eine Abfrage nützlich („eine Umwandlung in S/W-Modus ist nicht rückgängig zu machen“).

Modi

Modi sind Handlungssequenzen, die bei der Bedienung von Interfaces zu bestimmten Ergebnissen führen. Vom Modus ist abhängig, was eine Geste zum einem bestimmten Zeitpunkt für eine Systemleistung bewirkt (nach Raskin).

Die Schwierigkeit bei Modi besteht darin, dass dem Benutzer immer bewusst gemacht werden muss, in welchem Modus er gerade mit einem Gerät kommuniziert. Bei dem abgehobenen Telefonhörer 1980 war das offensichtlich und über drei Sinneskanäle repräsentiert: man sah den Hörer abgehoben, hielt ihn in der Hand und hörte auch das Freizeichen. Sucht man heute Aufschluss über den Modus, in dem sich ein Telefon gerade befindet, bekommt man ihn - wenn überhaupt - visuell, als Button oder Textanzeige im Display. Ähnliche Beobachtungen kann man für viele andere Bereiche anstellen, insbesondere verweise ich hier auf die Diskussion des iDrive. Modi sind also entweder zu vermeiden oder deutlich zu kommunizieren. Will man sie vermeiden, muss man für jede Aktion eine eigene Geste zur Verfügung stellen, was ab einer gewissen Komplexität eine Herausforderung wird (Vermeidung von vielen Tasten) und wiederum der Usability abträglich sein kann.

Raskin beschreibt auch Quasimodi. Der User ruft einen bestimmten Zustand hervor, der solange bestehen bleibt, wie eine gewisse Aktion ausgeführt wird. Ein Beispiel ist die Shift-Taste: durch haptische Doppelaktion kann man in den Quasimodus wechseln. Auch Kindersicherungstasten z.B. an Heizungsthermostaten oder Chemikalienflaschen haben einen solchen Quasimodus, mit dem eine zufällige oder Fehlbedienung verhindert wird.

Intuitivität

Intuitivität ist ein häufig genanntes Ziel bei der Interfacegestaltung, ist aber begrifflich umstritten. Intuitives Verhalten muss nicht „angeboren“ sein, es entsteht auch durch Wissen und Erfahrung. Das ein Wasserhahn nach links auf und nach rechts zuzudrehen ist, ist nicht intuitiv- oder doch? Es ist nicht natürlich, aber sehr stark verinnerlicht. Vertauscht man den Wasserhahn mit dem roten gegen den mit dem blauen Punkt, werden alle Benutzer kalt duschen, weil sie nur den roten Hahn probieren werden. Ein einfaches Zeichen, eine Farbcodierung löst ein intuitives Verhalten aus.

Interessant ist die Untersuchung, welche Bewegungen in welchen Zusammenhängen „intuitiv“ verinnerlicht sind (Kühlschrank ziehen, Wasserhahn und Flaschen drehen). Eine Interfacekonzeption, die auf solchen Zusammenhängen aufbaut, wird bald als „intuitiv“ empfunden werden, und leichter verstanden.

Bewertung der Usability

Usability kann mit zwei Methoden überprüft werden: als Expertenstudie oder an einer repräsentativen Testpersonenreihe. Beide Gruppen sollen ein bestimmtes Set von Aufgaben erfüllen. Dies kann auch als Feldversuch an „richtigen“ Nutzern während ihrer Arbeit geschehen, wenn es sich um eine „Arbeitssoftware“ handelt. Dabei ist die genaue Definierung von Nutzern und Aufgaben sehr wichtig (ein User wird ein System anders beurteilen, abhängig davon ob er einen oder hundert Briefe schreiben will). Subjektive Zufriedenheit ist das Usability Attribut. Wie angenehm ist es, das System zu benutzen? Das gilt für Spaßapplikationen wie Spiele, Multimediageräte usw. genauso wie für Programme im professionellen Einsatz. Unterscheiden kann man hinsichtlich des Unterhaltungswertes, den die Anwendung leistet- in einem CAD-Programm sollte dieser geringer sein als in einem Mobiltelefon oder einer Applikation, die benutzt wird, um Spaß zu haben (wie Spiele). Diesbezüglich sollte auch die Auswahl spielerischer Elemente erfolgen. Die subjektive Befriedigung ist schwer messbar, denn sie hängt von vielen, auch hier schon genannten Dingen ab. Auch spielt eine Rolle die generelle Einstellung des Nutzers zum Medium Computer und seine Erwartungen sowie die umgebenden Bedingungen. Messungen, also solche des Blutdrucks, EEG, Puls, Pupillenbewegungen, Hauttemperatur, können objektive Aussagen über den Stressfaktor beim Bedienen geben, wenn klar ist, ob der Stres von der Benutzung oder der Messsituation stammt. Ein erster Schritt bei der Beurteilung eines Interfaces ist es, den Nutzer einfach nach seinen Erfahrungen zu befragen. Dies wird auch in den meisten Usability-Studien gemacht.

2.2.3 Haptische Interfaces

Haptik ist die Beschäftigung mit dem Thema, wie man den menschlichen Tastsinn mit einer computererzeugten Welt verbinden kann. Das Thema wird besonders in der VirtualReality-Forschung bearbeitet, bekommt aber auch immer mehr Wichtigkeit in allen anderen Bereichen von Interaktionssystemen.

Man unterscheidet zwei Arten von haptischen Feedbackstrukturen:

Force Feedback ist der Bereich der Haptik, der sich mit der Interaktion über Muskeln und Sehnen befasst, die dem User das Erlebnis einer ausgeübten Bewegung oder Gegenkraft geben. Diese Geräte bestehen hauptsächlich aus mechanischen Vorrichtungen mit Motor, die gegen den User eine Kraft ausüben je nach virtueller Umgebung, in der er sich befindet. Möglichkeiten zur Umgebungsdarstellung sind z.B. Dämpfung der Bewegung, Widerstand und Spielraum.

Tactile feedback beschäftigt sich mit Vorrichtungen, die mit den Nervenenden der Haut korrespondieren, welche Hitze, Berührung und Oberflächenstrukturen übertragen können. Diese Geräte werden typischerweise benutzt, um Kontakt mit Gegenständen in virtuellen Umgebungen anzuzeigen. Auch können Oberflächen, Reibung usw. simuliert werden, ebenso Symbole tastbar gemacht werden (Braille-Schrift für Sehbehinderte).

„Der kinästhetische Sinn ist ein weiterer, unabhängiger Kanal zum Gehirn, ein Kanal, der sich weitegehend unterbewusst anpasst.“ (Ivan Sutherland)

Menschen nutzen ihre Hände zur Orientierung in Situationen mit schlechter oder keiner Sicht, so nutzen z.B. Taucher in modderigem Wasser haptische Sinne als Ersatz für visuelle Sinne. Menschen können dreidimensionale Objekte, die sie ertasten, sehr gut verstehen und erhalten ein „360°-Verständnis“ von dem Körper.

Die Haut

Das Organ der haptischen, insbesondere der taktilen Wahrnehmung ist die Haut. Sinnesnerven nehmen Hitze, Kälte, Berührungen, Oberflächen wahr. Diese sitzen unter der Epidermis und haben Rezeptoren, die auf Umweltveränderungen reagieren, sog. Mechanorezeptoren und Thermorezeptoren. Mechanorezeptoren bilden den Tastsinn und können Druck und Berührung wahrnehmen, ihre höchste Auflösung findet sich in den Händen und dort speziell in den Fingerspitzen, wo 1500 Rezeptoren pro cm²

vorhanden sein können.

Durch den Tastsinn empfinden wir Berührungen und gewinnen zusammen mit dem Muskelsinn Vorstellungen von der Beschaffenheit betasteter Gegenstände. Die Druckempfindungen vermittelnden Hautstellen werden als Druckpunkte bezeichnet. Am dichtesten stehen sie an den Fingerballen, wo auf 1mm2 der Oberfläche 23 Druckpunkte verteilt sind. In der Handoberfläche befinden sich insgesamt etwa 15000 solcher

Druckpunkte.

Die Wahrnehmung von Eindruckstiefen ist bei punktförmige Berührungsreize: 10 µm bei Vibrationsreize <10µm bei bis zu 10 kHz.

Die taktile Wahrnehmung (Oberflächensensibilität) erfolgt durch Rezeptoren in der Haut (Merkel-Zellen, Ruffini- , Meißner- und Pacini-Körperchen). Sie sind in der Lage Druck, Berührung und Vibrationen auf der Haut wahrzunehmen. Kinästhetisch nehmen wir mit Hilfe von Rezeptoren in Gelenken, Muskeln und Sehnen wahr

(Tiefensensibilität), die kognitiv zu einer Bewegung zusammengesetzt werden. Dies sind die Gelenksensoren, Muskelspindeln und Sehnen-Organe (Golgi-Organe). Vermutlich spielen auch die Hautrezeptoren und das Vestibularorgan (Gleichgewichtssinn, Geschwindigkeit) eine Rolle. Diese Rezeptoren ermöglichen es sowohl die Stellung und Bewegung der Gliedmaße, als auch die in den Muskeln aufgebrachten Kräfte zur Bewegung oder Fixierung der Körpers wahrzunehmen.

Die haptische Wahrnehmung setzt sich aus taktiler und kinästhetischer Wahrnehmung zusammen. Die aktive Bewegung von Händen und Fingern ermöglichen ein Ertasten der Umwelt. Das heißt, es findet eine Bewegung statt (kinästhetische Reizung), bei der z.B. Oberflächen von Gegenständen durch Dehnung und Bewegung der Haut (taktile Reizung) erkannt werden. Das einfache Ablegen einer Fingerkuppe auf eine Oberfläche bewirkt beim Menschen noch keine Wahrnehmung einer Oberflächenstruktur. Erst wenn der Finger über die Oberfläche gleitet, kann festgestellt werden, ob sie z.B. glatt oder rau ist. Somit ist das „Ertasten“ wirklich nur durch die Kombination von kinästhetischen und taktilen Informationen möglich. Der Mensch nimmt seine Eigenbewegung mit Hilfe des Vestibularorgans wahr, welches sich im Innenohr befindet und Beschleunigungen registriert.

Aufbau der Haut

Abbildung in dieser Leseprobe nicht enthalten

1, 2, 3:Tastkörperchen

4: Druck- und berührungsempfindliches Haarbalggeflecht

5: Schmerzempfindliche freie Nervenendigungen

6: Kälteempfindliche Körperchen (Krause Endkolben)

7: Wärmeempfindliches Körperchen (Ruffinisches Körperchen)

8: Druckempfindliches Lamellenkörperchen (Vatersches Körperchen)

Bildquelle: http://www.hamm-chemie.de/images/WP/haut/haut_7.JPG

Für die Feinheit des Tastsinns ist maßgebend, in welchem Mindestabstand voneinander zwei gleichzeitig aufgesetzte Zirkelspitzen als getrennte Berührungspunkte empfunden werden. Diese für die räumliche Trennung der Empfindungen wichtigen Werte werden als Raumschwelle bezeichnet. Dieser Wert ist für die unterschiedlichen Empfindungen unterschiedlich.

Setzt man einen schwachen Vibrator auf die Haut, spürt man die Vibration nur in einem kleinen Bereich. Man kann sich aber durch Betasten davon überzeugen, das die Haut auch außerhalb des Empfindungsbereiches vibriert. Setzt man neben den schwachen Vibrator noch einen starken auf die Haut, so spürt man nur dort eine Vibration, wo die stärkere Reizung erfolgt. Dies wird als gegenseitige Hemmung bezeichnet. Die Wärmepunkte sprechen auf höhere Temperaturen an und unterrichten hauptsächlich über die Temperaturverhältnisse im Körper. Sie sind viel spärlicher vorhanden (etwa 30000) und sind auch viel tiefer gelegen als die 250000 Kältepunkte. Die höchste Temperaturempfindlichkeit liegt in der Nähe des Körpertemperatur. Als Organ der Schmerzempfindung werden freie Nervenenden nahe der Hautoberfläche angesehen, welche auf Reize aller Art ansprechen. Unter den Hautsinnesorganen stehen die Schmerzpunkte mit etwa 3-4 Millionen an erster Stelle.

Die folgende Tabelle zeigt die Punktdichte der Hautsinne für die unterschiedlichen Empfindungsarten der Hand.

Abbildung in dieser Leseprobe nicht enthalten

Haptische Wahrnehmung und Steuerung

Interaktionen zwischen Hand und einem Gegenstand führen zu Verformungen, Temperaturveränderung und Schwingungen der Hautoberfläche, wodurch unterschiedliche Informationen gewonnen werden. Haptische Wahrnehmung umfasst alle Aspekte der Berührung unter Verwendung der Hände:

„Berührung kann definiert werden als das Ereignis, das entsteht, wenn die Haut in Kontakt kommt mit mechanischen, thermischen, chemischen oder elektrischen Stimuli.“ (Burdea)

Dabei unterscheidet man zwei Teilaspekte: Während oben genannte Reize als taktile Reize bezeichnet werden, geben kinästethische Reize über den inneren Zustand eines Körperteils, in unserer Betrachtung also des HandArm-Systems Auskunft durch Parameter wie Winkel des Gelenks oder Muskelspannung. Kinästhetische Empfindungen werden durch Informationen aus den Muskeln, Gelenken usw. ausgelöst. Taktile Reize dagegen werden direkt von Sensoren in der Haut vermittelt. Dynamische Reize sind dabei meistens stärker als statische Reize. Der Eindruck, der beim Gleiten über eine Oberfläche entsteht, ist stärker als der beim einfachen Tasten. Abtasten: Unterschiedliche Hand-ObjektInteraktionen zur Charakterisierung der Eigenschaften von Gegenständen werden erforderlich. Informationen über Eigenschaften wie Temperatur, Oberflächenstruktur und Festigkeit werden durch die Fingerspitzen gewonnen, Informationen über die Form, Größe und Anordnung eines Gegenstandes mit Griffmöglichkeiten der ganzen Hand.

Den Greifvorgang kann man in drei verschiedene Phasen einteilen: Kontaktphase: Die Phase, in der die erste Berührung der Finger mit einem Gegenstand stattfindet. Dafür sind die Rezeptoren in den Fingern zuständig. Der Kontakt wird 200ms nach dem Kontakt wahrgenommen. Ergreifen: Dies bietet die größte Flexibilität und Komplexität an, da man unterschiedliche Gegenstände je nach Form, Größe, Festigkeit und Zweck auf verschiedene Art und Weise greifen kann. Dazu können nur bestimmte Finger oder die ganze Hand eingesetzt werden. Die Position der Hände kann dann auch durch die Haltung der Arme verändert werden.

Aus: Burdea

Abbildung in dieser Leseprobe nicht enthalten

Abtasten: Unterschiedliche Hand-Objekt-Interaktionen zur Charakterisierung der Eigenschaften von Gegenständen werden erforderlich. Informationen über Eigenschaften wie Temperatur, Oberflächenstruktur und Festigkeit werden durch die Fingerspitzen gewonnen, Informationen über die Form, Größe und Anordnung eines Gegenstandes mit Griffmöglichkeiten der ganzen Hand.

Haptisches Feedback

Feedbackstrukturen (nach Jank, Worm)

Force Feedback

Force Feedback Systeme werden unterteilt in Ground und Body Based Force Feedback, das wird auf der folgenden Seite erklärt.

Haptische Displays

erzeugen eine taktile oder kinästhetische oder eine kombinierte Reizung und sind selber sensibel für haptische „Eingaben“ (siehe auch Produkte).

Pneumatisches Touch Feedback

Pneumatische Stimulation durch Verwendung von Luftkissen.

Vibrotaktiles Touch Feedback

Mechanische Stimulation über eine Matrix vibrierender Mikropins oder ein vibrierendes Bauteil (z.B. Vibrocons als taktile Navigationshilfen im Auto)

Elektrotaktiles Touch Feedback

Feedback mittels elektrischer Impulse, umstrittene Methode.

Neuromuskuläres Touch Feedback

Physische Kopplung zwischen Nervenenden und Elektronik, Signale an den Muskelnerven vermitteln dem Gehirn die Illusion, dass der Finger z.B. eine Reibung verspürt

Enhanced Touch Feedback

Enhanced Touch Feedback wird eingesetzt, um einen Eindruck der Temperatur eines Körpers zu vermitteln. Dazu werden Heizelemente eingesetzt bzw. Kältemittel auf die Haut gebracht. Durch exakte Temperaturinformationen kann das virtuelle Material simuliert werden.

Shape Forming

Mit Shape Forming können formveränderliche Objekte simuliert werden. Dazu werden bewegliche Stäbe (s. a. Haptische Displays) oder elektro-rheologische Flüssigkeiten (Viskositätsregulation) eingesetzt. Diese Systeme ermöglichen eine schnelle Umstellung auf andere Formen.

Ground Based Force Feedback

Bei Ground Based Force Feedback handelt es sich um Systeme, die nicht am Körper, sondern am Tisch oder Boden etc. befestigt sind, also dort ihren Referenzpunkt haben, z.B. Force Feedback Joysticks.

Body Based Force Feedback

Diese Systeme sind am Körper befestigt exoskelettartige Geräte, z.B. Handschuhe Für die Gestaltung von force-feedback Systemen ist interessant, wo der „Referenzpunkt“ für die haptische Ein- und Ausgabe ist. Wie bei jeder Kraftwirkung braucht die ausübende Kraft einen Fußpunkt. Bei desk-based devices ist dies die Verankerung mit dem Tisch, über die die Kraft gehebelt wird. Bei einem mobilen Gerät kann dies z.B. in dem opponierenden Daumen-Finger-System entstehen oder über die Befestigung des Geräts an Kleidung oder Körper.

Im Feld der Mensch-Maschine Interaktion ist bislang wenig Fokus auf den Tastsinn gelegt worden. Oft beschränkt sich das auf Eingabebuttons, Maus und in Einzelfällen taktiles Feedback. Lediglich im Spielebereich und der Teleoperation sowie in Bereichen der Forschung werden haptische Eingabegeräte mit force feedback angewendet.

2.2.4 Produkte mit haptischen Feedback-Elementen

Die meisten Produkte, die mit vibrotaktilen Elementen oder Force-Feedback-Elementen ausgestattet sind, wurden für Spielanwendungen entwickelt. Der „Realitätsgehalt“ solcher Feedbacksysteme ist entscheidend für die Erlebnisqualität des Spiels. Die meisten komplexen Entwicklungen wurden für den Bereich der 3D-Darstellung (Virtual Reality etc.) gemacht und dienen CAD-Modeling- oder Teleoperationsanwendungen. Stellvertretend werden hier einige vorgestellt.

Der Cyberglove Handschuh wurde ursprünglich dazu entwickelt, Gesten in Sprache umzuwandeln.

Deswegen wurde beim Cyber Glove auf eine möglichst detaillierte Darstellung der Bewegungen in elektrische Signale geachtet. Mit bis zu 22 zugempfindlichen Sensoren werden die Krümmungen und Seitenbewegungen der Finger inklusive Daumen gemessen. Außerdem existieren noch spezielle Sensoren, welche ein Abwinkeln und seitliches Kippen der Hand messen.

Die Finger- und Handbewegungen werden von einem Sensor und einem Satz kunststoffüberzogener faseroptischer Kabel auf dem Fingerrücken messen. Diese Faserkabel messen Beugung und Streckung aller Finger. Jedes Kabel führt zu einer elektronischen

Abbildung in dieser Leseprobe nicht enthalten

Bildquellen: https://www.utwente.nl/ctw/bw/vrlab/equipment/cyberglove.jpg

http://www.digitaltools.de/a_prod/werk/virtualtechnologies_cybertouch.jpg http://cft2.igromania.ru/upload/articles/92/46208/cybergrasps.jpg

Platine, die an der Vorderseite eines Steuerungskastens platziert ist. Jede Faser führt von der Platine durch einen Abschnitt beweglicher Gewebeleitungen zu einem HandgelenkAnker auf dem Handschuh.

Als Cybertouch wird Cyberglove mit vibrotaktilen Elementen ausgestattet, sodass er touch Feedback gibt. Als Cybergrasp kann er mit Force Feedback angewendet werden. Damit wird es möglich, Teleoperationen auszuführen und komplizierte 3D-Operationen am Bildschirm zu vollziehen.

Abbildung in dieser Leseprobe nicht enthalten

Bildquelle: http://justclaws.atari.org/

Aura,

Aura ist eine Entwicklung für Spiele und setzt tiefe Töne mittels einem speziellen Verstärker in „Vibrationen" um. Der Spieler hat das Gefühl, „getroffen“ zu werden.

Magnetic Levitation Haptic Device (MagLev) ist ein Eingabegerät mit haptischem Feedback.

Der Benutzer greift einen Körper (z.B. eine Kugel), der über elektromagnetische Felder gesteuert wird und Kräfte , Umrisse, Widerstände sowie Oberflächen und Texturen images/auravest.jpg

Abbildung in dieser Leseprobe nicht enthalten

Bildquelle: http://www.it.bton.ac.uk/staff/lp22/CS133/hand_op_web.JPG

MagLev

spürt. Vorteile sind 6 DOF mit einem beweglichen Teil, große Steuerungsbandbreite und gute Auflösung und Empfindlichkeit des Systems.

„Airstick“ ist ein Eingabegerät für Spiele: es ist unabhängig von der Unterlage, hat Vibrationsfeedback und Schwerkraftsimulation.

Airstick

Abbildung in dieser Leseprobe nicht enthalten

Bildquelle: http://www.chip.de/ii/201769575_215f1c6a01.gif

Haptische Displays

Ein Beispiel für ein taktiles Display sind vibrierenden Stifte, die in einer räumlich zweidimensionalen Matrix angelegt sind. Eine Fingerkuppe wird von diesen Stiften gereizt, wobei ausschließlich taktile Reize an die Rezeptoren der Haut geleitet werden. Indem nur einzelne Stifte oder Stiftgruppen der Matrix angeregt werden, können taktile Sinneseindrücke verschiedener Muster über die Fingerkuppe übertragen werden. Kinästhetische Displays (wie die beiden Feelex hier rechts) üben ihrerseits auch eine Kraft auf das Hand-Arm-System aus. So können z.B. Bewegungen von Fingern erzeugt, aber auch verhindert werden. Wenn das Gerät verhindert, dass der Mensch seine Finger aufeinander zubewegen kann, so erzeugen die Rezeptoren der Kinästhetik den

Gefühlseindruck eines festen Gegenstandes zwischen den Fingern.

Um den Tastsinn optimal zu reizen und eine gute Manipulation zu ermöglichen, ist eine Kombination beider Displaygruppen notwendig, also ein Gerät, das sowohl taktile, als auch kinästhetische Reize erzeugen kann.

Gamepads mit taktilem Feedback, Nachbildung originaler Steuersituation

Mouse mit feedback

Erste Versuche wurden gemacht, taktiles Feedback in Mäuse zu integrieren, um beispielsweise auf Fehlermeldungen aufmerksam zu machen.(Logitech Wingman, Saitek Touchforce Mouse). In erster Linie wird das Feedback jedoch in Spielen genutzt.

Abbildung in dieser Leseprobe nicht enthalten

Feelex Feelex 2

Bildquellen: http://intron.kz.tsukuba.ac.jp/overview/feelex1.jpg http://intron.kz.tsukuba.ac.jp/feelex/feelex2.jpg

Senseboard

Die beiden an den Händen getragenen Komponenten messen die Fingerbewegungen (pattern recognition) und erkennen, welche Taste angeschlagen oder welche Mausbewegung ausgeführt werde sollte.

Ein Bereich, in dem haptische bzw. taktile Produkte besonders wichtig sind, ist der Produktbereich Sehbehinderte. Die Braille-Schrift ist ein Blindenschriftsystem, mit dem man das Alphabet tastbar darstellen kann, im Jahre 1825 vom Franzosen Louis Braille (1809-1852) geschaffen. Dieses Braille-System setzte sich international durch und wurde für alle Sprachen - jeweils angepasst - zur Grundlage der Blindenschrift.

Das Grundraster des Braille-Zeichens besteht aus sechs Punkten, angeordnet wie die „Sechs“ auf einem Spielwürfel: in zwei senkrecht nebeneinanderstehenden Reihen je drei Punkte. Aus den sechs Punkten der Grundform lassen sich 63 verschiedene Zeichen bilden.

Zur mechanischen Erzeugung der Brailleschrift wurde ein Tastaturlayout geschaffen. Es erlaubt dem Benutzer die Eingabe über zweimal vier Finger.

Braille-Punktschrift

Abbildung in dieser Leseprobe nicht enthalten

Bildquellen: http://www.fb06.uni-mainz.de/cafl/doku/multimedia/webseiten-uebersetzung/images/brail_kl.jpg http://www.schwertner.net/Grafiken/paddy.jpg

Braille-Eingabegerät

Abbildung in dieser Leseprobe nicht enthalten

Bildquelle: https://mydata1.files.wordpress.com/2010/12/ senseboard-600x404.jpg

[...]

Ende der Leseprobe aus 131 Seiten

Details

Titel
Haptic Interaction Device. Erstellung eines Geräts zur haptischen Navigation in einer Musikdatenbank
Hochschule
Bergische Universität Wuppertal
Note
1,7
Autor
Jahr
2003
Seiten
131
Katalognummer
V117512
ISBN (eBook)
9783668107052
Dateigröße
3112 KB
Sprache
Deutsch
Schlagworte
Haptic, Interaction, Device
Arbeit zitieren
dirk mansen (Autor), 2003, Haptic Interaction Device. Erstellung eines Geräts zur haptischen Navigation in einer Musikdatenbank, München, GRIN Verlag, https://www.grin.com/document/117512

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Haptic Interaction Device. Erstellung eines Geräts zur haptischen Navigation in einer Musikdatenbank


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden