Sozio.Lab - Labor für empirische Untersuchungen
Kurzvorstellung der Professur Sozioinformatik und gesellschaftliche Aspekte der Digitalisierung und Darstellung aktueller Projekte
Im Forschungsfeld der Sozioinformatik werden empirische Fragestellungen interdisziplinär untersucht, was sich auch an der interfakultären Verankerung der Professur an der Fakultät für Informatik und Wirtschafsinformatik, der Fakultät für angewandte Sozialwissenschaften sowie der Fakultät Gestaltung zeigt. Dabei stehen vorwiegend Herausforderungen an der Schnittstelle zwischen Mensch und Technologie im Vordergrund. Dies beinhaltet biophysiologische Messungen bei der Mensch-Computer- bzw. Mensch-Maschine-Interaktion, wie bspw. Hautleitfähigkeit, Herzratenvariabilität, Eye-Tracking und Pupillometrie. Durch praxisnahe Forschungsprojekte der Professur Sozioinformatik und gesellschaftliche Aspekte der Digitalisierung konnten bereits wesentliche Beiträge zum wissenschaftlichen Diskurs geleistet werden. Dazu gehören Projekte, mit denen die Stadt Würzburg unterstützt wurde (Touristische VR Ansichten) sowie die Stadt Lohr a.Main (LohrOnPlan App-Entwicklung) und die Stadt Haßfurt (Fotogrammetrie zur Digitalisierung der Ritterkapelle im Rahmen eines Modellprojekts für die Smart Green City Haßfurt). Die Forschungsprojekte der Professur haben auch einen positiven Einfluss auf die Gestaltung der Lehre und die Qualität von Projektarbeiten, wodurch verschiedene Prototypen entwickelt werden konnten. Diese studentischen Projekt- und Abschlussarbeiten werden im Folgenden kurz dargestellt.
Schwerpunkte:
- Biophysiologische Messungen während der Technikinteraktion.
- Identifikation, Implementierung und Evaluierung innovativer Mensch-Computer-Interaktion.
- Ethische Implikation und Herausforderungen im Kontext der Digitalisierung.
Beispielprojekte
Die Professur arbeitet mehreren Projekten in unterschiedlichen Stadien. Die folgenden Beispiele geben einen Einblick in mögliche Abschluss- und Projektarbeiten im Gebiet der Sozioinformatik.
Mensch-Roboter-(Roboter)-Interaktion
Fernkommunikation gewinnt immer mehr an Bedeutung in einer globalisierten Welt, gerade auch in ganz speziellen Situationen und Lagen, wie bspw. einer Pandemie. Telepräsenzroboter sind mobile Computerplattformen, die - ausgestatt mit einem eigenen Bewegungsapparat, Mikrofonen, Kameras und einem Bildschirm - die Teilnahme an entfernten Events ermöglichen. Gegenüber regulären Videotelefonaten bieten Telepräsenzroboter den Vorteil, dass Nutzer sich autonom bewegen können, ohne auf Hilfe angewiesen zu sein.
Studien durch die Forschungsprofessur Sozioinformatik an der THWS zeigen, dass Menschen über einen Telepräsenzroboter ebenso Zuneigungen empfinden und Interaktionen ausführen können. So sind in Zukunft z. B. Touren in Hochschulen oder Museen für Menschen mit körperlicher Einschränkung oder aber ein Einsatz in Alten- und Pflegeeinrichtungen sinnvoll möglich.
Video-Link: https://youtu.be/W_PEO1xFj2o
Publikationen zum Projekt:
Keller, L.; Pfeffel, K.; Huffstadt, K. & Müller, N. H. (2020). Telepresence Robots and Their Impact on Human-Human Interaction. DOI: 10.1007/978-3-030-50506-6_31
Neue Formen der Mensch-Computer-Interaktion
Mensch-Computer-Interaktionen können per Maus, Tastatur und Gestensteuerung stattfinden. Fortschritte in den Fachbereichen der Neurowissenschaften, Medizin und Bioinformatik führen zur Erprobung von alternativen Schnittstellen zur Steuerung von Vomputern für motorisch eingeschränkte Patientinnen und Patienten. Die Forschungsprofessur Sozioinformatik an der THWS verfolgt zwei innovative Ansätze: die Steuerung per Muskelkontraktion (EMG) sowie die Erfassung von Gehirnaktivität mittels funktionaler Nahinfrarotspektroskopie (fNIRS).
An der THWS werden Mensch-Computer-Schnittstellen entwickelt und überprüft, wie sie im Hinblick auf Benutzbarkeit und Potential für mobile Anwendungen im Konsumentenbereich zu bewerten sind.
Video-Link: https://youtu.be/3KhvkPEW06Y
Publikationen zum Projekt:
Ulsamer, P.; Fertig, T.; Kraus, M.; Pfeffel, K. & Müller, N. H. (2020). Motor Imagery to Control Mobile Applications - An fNIRS Study.
Ulsamer, P.; Pfeffel, K. & Müller, N. H. (2020). Brain Activation in Virtual Reality for Attention Guidance. DOI: 10.1007/978-3-030-50506-6_14
Vibrotaktile Emotionsvermittlung
Alltägliche Face-to-Face Gesprächssituationen nutzen eine Vielzahl von Kommunikationskanälen. Menschen mit einer Beeinträchtigung bei der Erkennung, bspw. der Sehkraft sind durch diesen Umstand in der Interpretation einer Kommunikationssituation benachteiligt, da sie keinen Zugriff auf visuelle nonverbale Informationen haben, wie z. B. Gesichtsausdrücke. Dies führt dazu, dass eine Gesprächssituation nur unvollständig analysiert werden kann.
An einer Lösung arbeitet der Forschungsprofessur für Sozioinformatik an der THWS. Das Ziel ist es, die Gesprächssituation mit einem Interface zu unterstützen, das Emotionen erkennt, diese in taktile Reize umwandelt und über einen Vibrationshandschuh mitteilt. Die Lösung stützt sich dabei auf ein Kodierungssystem für Gesichtsmuskelbewegungen und ist gängiger Standard zur Erkennung von Emotionen anhand von Gesichtsausdrücken. Neu ist die Weitergabe essentieller Informationen über den Vibrationshandschuh. So kann einem Sprecher mit Beeinträchtigung während des eigenen Sprechaktes die Mimik des Zuhörers vermittelt werden.
Video-Link: https://youtu.be/5P9aQWOdHaQ
Publikationen zum Projekt:
Kushnir A. & Müller N. H. (2020). Haptic Feedback in Everyday Conversation Situations. DOI:10.1007/978-3-030-50726-8_31
Kushnir A. & Müller N. H. (2020). Development of a Wearable Vision Substitution Prototype for Blind and Visually Impaired That Assists in Everyday Conversations. (Best Paper Award)
Berühungsfreie Steuerung von Mobilgeräten - handicAPP
Die Steuerung von Mobilgeräten mit Touch- oder Tastatureingabe kann für Menschen mit Beeinträchtigungen der Motorik eine Herausforderung darstellen. Mit der handicAPP kann die Gerätesteuerung durch die Verwendung der Webcam erleichtert werden. Dabei handelt es sich um eine lokal auf dem jeweiligen Gerät ablaufende Software, welche die Kopf- und Gesichtsposition relativ zum Gerät erfasst. Je nach Winkelabweichung zur Kamera, wenn der Kopf z. B. nach links oder rechts gedreht wird, können diese Informationen für die Steuerung verwendet werden. Das Projekt wurde bei der Social Innovator Challenge der Universität und THWS in Würzburg mit dem ersten Platz ausgezeichnet.
Video-Link: https://youtu.be/VB8giMhA04I
Publikationen zum Projekt:
Pressemitteilung der THWS und der Universität Würzburg.
Fotogrammetrische Erfassung der Ritterkapelle Haßfurt
Im Rahmen der Smart City Initiative der Stadt Haßfurt wurde ein Modellversuch zur fotogrammetrischen Erfassung der Ritterkapelle von Haßfurt nach modernsten Verfahren durchgeführt, um eine Grundlage für zukünftige Digital-Twin-Projekte zu ermöglichen.
Mit Foto- und Drohnenaufnahmen wird durch photogrammetrische Rekonstruktion ein hochdetailiertes 3D-Modell der Kapelle erstellt und soweit optimiert, dass das fertige Modell in verschiedensten digitalen Umgebungen verwendet werden kann – in etwa auf dem Smartphone, auf einer Website oder bei virtuellen Rundgängen. Das Team der Professur setzt hierbei auf aktuellste Technik, Software und leistungsstarkes Equipment, um ein möglichst fotorealistisches Ergebnis zu erzielen. So entstehen aus rund 38.000 Fotos und etwa vier Stunden Videoaufzeichnungen ein zur Realität nahezu identisches, drei-dimensionales Abbild des Innen- und Außenbereichs der Ritterkapelle Haßfurt.
Der dabei entwickelte Workflow wird in Zukunft dazu verwendet, sowohl die Digitalisierung der Stadt Haßfurt voranzubringen, als auch in ähnlichen Städten mit historischen Wahrzeichen eine dauerhafte Speicherung von Kunstwerken und architektonischen Besonderheiten zu gewährleisten.
Video-Link: https://youtu.be/LinMY9GgVaA
Publikationen zum Projekt:
Projektbericht auf der Smart City Webseite der Stadt Haßfurt.
Kontakt
- Leitung: Prof. Dr. Nicholas H. Müller
- Raum: I.3.12