Home  | Sitemap | Impressum | KIT
Portrait Monika Landgraf
Kontakt:
Monika Landgraf
Pressesprecherin, Leitung Presse

Tel: +49 721 608-47414
Fax: +49 721 608-43658
E-Mail

Infos zur CeBIT

Gelände- und Hallenpläne der CeBIT

CeBIT

Das KIT live von der CeBIT:


 

Das KIT auf der CeBIT 2017

CeBIT_Key Visual 2017

Rund um die Digitalisierung in Gesellschaft und Wirtschaft drehen sich die Themen des CeBIT-Auftritts des KIT in diesem Jahr. Roboter, die komplexe Greifaufgaben erfüllen, brauchen ein feines Gefühl für Objekte. Wo Kameras alleine nicht ausreichen, liefert der kapazitive Taktile NäherungsSensor TNS berührungslos Lagedaten aus den „Fingerspitzen“ des Roboters vor dem Zugriff. Der Höhenmesser RüttelFlug informiert Gleitschirmflieger durch Vibrationsmuster über aktuelle Sink- und Steigeraten, damit aufdringliche Displays und Tonzeichen das Flugerlebnis nicht stören. Eyezag entwickelt als Spin-Off des KIT nutzt handelsübliche Webcams, um die genaue Blickposition auf dem Bildschirm zu berechnen, sodass sich freiwillige Probanden am tatsächlichen Ort der Nutzung – dem Schreibtisch, dem Küchentisch oder dem Sofa –in ihrem authentischen Nutzerverhalten beobachten lassen. Im Projekt thingsTHINKING des KIT lernen Computer Sprache wie Menschen, also in Ihrer Semantik statt als statistische Auswertung zu erfassen, um die Lücken der Mensch-Computer-Interaktion zuschließen oder Mängel in natürlicher Sprache etwa bei technischen Texten zu lösen.

thingsTHINKING

thingsTHINKING entwickelt eine künstliche Intelligenz, die Text versteht und so etwa beim Aufspüren von Mängeln in technischen Dokumenten hilft.

Natürliche Sprache ist die neue Revolution in der Interaktion mit Maschinen. Machine Learning, Statistik und andere seit Jahren bestehende Ansätze werden die Lücken in der Mensch-Computer-Interaktion nicht schließen, solange Maschinen nicht die Bedeutung von natürlicher Sprache verstehen, sondern versuchen, diese mathematisch-statistisch zu fassen. thingsTHINKING unterscheidet sich von bisherigen Methoden im NLP/NLU (Natural Language Processing/Understanding), da es die Bedeutung von Konzepten (Semantik) in der Sprache versteht.

 

thingsTHINKING versteht, verarbeitet und verwendet die Semantik der natürlichen Sprache und ist daher verwendbar für eine Vielzahl von Anwendungsfällen. Die vorgestellte Software erkennt und löst Mängel in natürlicher Sprache von Anforderungsspezifikationen jeglicher Art. Einsatzmöglichkeiten bestehen im Industrie-4.0-Umfeld, bei Software-Herstellern und auch bei Beratungsunternehmen. Zukünftig kann der Kundendienst mit virtuellen Assistenten verbessert werden und eine LegalTech-Lösung könnte bei Entscheidungen und der Interpretation von Verträgen helfen.

 

Weitere Informationen: 

RüttelFlug

RüttelFlug ist ein Variometer, das auf dem Prinzip der sensorischen Augmentation basiert und vertikale Geschwindigkeiten mittels entsprechender Vibrationsmuster anzeigt. In anderen Worten: es handelt sich um ein innovatives Messgerät für Gleitschirmflieger, das mit dem Nutzer über ein vibrotaktiles Interface kommuniziert. Aufgabe eines Variometers ist es, die Vertikalgeschwindigkeit, also das Sinken und Steigen während des Fluges, zu messen und den Piloten darüber zu informieren. Gegenüber den oft als störend empfundenen Variometern mit einem auditiven oder visuellen Output präsentiert sich RüttelFlug als attraktive Alternative. Durch sein benutzerfreundliches Design kann das taktile Variometer ähnlich einem Armband einfach am Handgelenk getragen werden. Ein barometrischer Sensor ermittelt die Vertikalgeschwindigkeit und ordnet diese interessanten Klassen von Sink- und Steigwerten zu. Die Übertragung der ermittelten Klassen an den Gleitschirmpiloten erfolgt dann über die eindeutig zu unterscheidenden Vibrationsmuster. Dank dieses neuartigen Konzepts können Sink- und Steigbewegungen während des Gleitschirmfluges angenehm und weniger aufdringlich vermittelt werden. Was RüttelFlug von anderen Variometern unterscheidet ist allerdings nicht das geringe Störvermögen. Vielmehr kann der Fliegende die Geschwindigkeitsänderungen dank des vibrotaktilen Outputs direkt spüren. RüttelFlug ist als anwendungsorientiertes Gadget für alle Gleitschirmpiloten konzipiert, die unaufdringliche Rückmeldungen über Luftströme und Witterungsverhältnisse möchten, aber ebenso danach streben, das Momentum des Gleitschirmfliegens zu verlängern, zu verbessern und zu einem besonderen, taktil erfahrbaren Erlebnis zu machen.

 

Weitere Informationen

 

 

Eyezag

Eyezag entwickelt als Spin-Off des KITs eine Technologie mit der durch jede handelsübliche Webcam die genaue Blickposition auf dem Bildschirm berechnet werden kann. Studien, die bisher im Labor mit Spezial-Hardware und dazugehörigem Personal umgesetzt wurden, können nun einfach, schnell und parallel online durchgeführt werden. Die passende Zielgruppe lässt sich dabei über das Internet rekrutieren und es kann vom tatsächlichen Ort der Nutzung – dem Schreibtisch, dem Küchentisch oder dem Sofa – authentisches Nutzerverhalten aufgezeichnet werden. Die Benutzeroberfläche ist dabei so implementiert, dass weder Probanden noch Analysten spezielle Software oder Plugins installieren müssen – ein normaler Webbrowser öffnet den Weg ins virtuelle Eye-Tracking-Labor. Neben der Aufnahme und Berechnung bietet Eyezag eine rundum Online-Suite in der Studien angelegt, durchgeführt und umfangreich ausgewertet werden können. Es stehen dabei sowohl die klassischen Darstellungsformen wie Heatmaps, Gazeplots und andere Visualisierungen zur Verfügung, als auch können statistische Berechnungen für Areas-of-Interests durchgeführt werden.

Die Technologie wird ermöglicht durch eigenentwickelte State-of-the-Art Algorithmen und Machine-Learning-Ansätze, die selbstlernend das System immer weiter verbessern. In der Usability-, Markt- und Werbeforschung hat die Technologie ihr erstes Anwendungsfeld gefunden, bietet sich aber auch als Basistechnologie für weitere Entwicklungen in der Interaktion, Diagnose und Assistenz an.

 

Weitere Informationen

 

TNS – Taktiler Näherungs-Sensor

Ein intelligenter Roboter zeichnet sich durch die Fähigkeit aus, seine Umgebung wahrzunehmen, daraus ein Umgebungs-Modell zu schätzen und entsprechend darauf zu reagieren. Sowohl bei autonomen als auch bei fest-programmierten Robotern trägt eine berührungslose Detektion der umgebenden Objekte signifikant zur Sicherheit und Robustheit der Aktion bzw. Interaktion bei. Dies unterstützt zusätzlich die Durchführung komplexer Aufgaben wie bspw. das Greifen von unbekannten Objekten.
Die am KIT entwickelten Sensoren ergänzen etablierte Kamerasysteme und ermöglichen damit sowohl verbesserte als auch neuartige, vielfältige und komplexe Interaktion der ausgerüsteten Maschinen/Roboter mit ihrer Umgebung bzw. mit einem Werkstück.

Einer dieser Sensoren ist der TNS – Ein kapazitiver Taktiler NäherungsSensor, der sich die elektrische kapazitive Kopplung zunutze macht, um Objekte berührungslos zu detektieren, zu lokalisieren und – im Falle eines mechanischen Kontakts – die Druckkraft des Griffes zu erfassen.
Mit einem Demonstrator wird die Rolle solcher Sensoren bspw. in der Teleoperation verdeutlicht. Dabei werden die Sensordaten mit einem haptischen Display dargestellt, wodurch der Nutzer live die Umgebungs-Wahrnehmung des Roboters mitverfolgen kann.

 

Weitere Informationen