Da ist ein alptraumhafte Szene im Film von Guillermo del Toro aus dem Jahr 2006 Pans Labyrinth in dem wir mit einer finsteren humanoiden Kreatur namens „Blasser Mann“ konfrontiert werden. Ohne Augen in seinem monströsen, haarlosen Kopf sieht der bleiche Mann, der einem augenlosen Voldemort ähnelt, mit Hilfe der Augäpfel, die in seinen Handflächen eingebettet sind. Mithilfe dieser augenverstärkten Anhängsel, die er wie eine Brille vor sein augenloses Gesicht hält, ist der Blasse Mann in der Lage, seine Umgebung zu visualisieren und sich darin zu bewegen.
Inhalt
- Alle fünf Sinne
- Sensorisches Feedback
- Die Kraft der Berührung
Dies beschreibt bis zu einem gewissen Grad die Arbeit, die von Forschern des britischen Bristol Robotics Laboratory durchgeführt wird – allerdings ohne den ganzen erschreckenden Körperhorror-Aspekt. Nur hat der Pale-Man-Ersatz in ihrem Fall nicht einfach einen Augapfel in jeder Handfläche; er hat einen an jedem Finger.
Empfohlene Videos
„In den letzten vier oder fünf Jahren hat es im Bereich der taktilen Sensorik und der Robotik eine Veränderung gegeben, und zwar in Form einer Hinwendung zur Verwendung von Kameras als Sensoren.“
Professor Nathan Lepora, der die 15-köpfige Tactile Robotics Research Group für das Bristol Robotics Laboratory leitet, sagte gegenüber Digital Trends. „Man nennt es optische und visionsbasierte taktile Wahrnehmung. Der Grund dafür ist, dass man sich darüber im Klaren ist, dass es sich um hochauflösende Informationen handelt Inhalte aus den Fingerspitzen sind entscheidend für die künstliche Intelligenz, die zur Steuerung dieser Daten erforderlich ist Systeme.“Digitale Trends werden zuerst behandelt Leporas Arbeit im Jahr 2017Er beschrieb eine frühe Version des Projekts seines Teams als „bestehend aus einer Webcam, die in einem montiert ist 3D-gedruckte weiche Fingerspitze, die interne Stifte verfolgt und so konzipiert ist, dass sie wie die Berührungsrezeptoren des Menschen funktionieren Fingerspitzen.
Seitdem hat sich die Arbeit stetig weiterentwickelt. Zu diesem Zweck hat das Team kürzlich neue Forschungsergebnisse veröffentlicht Enthüllung der neuesten Schritte des Projekts: Erstellung einer 3D-gedruckten taktilen Haut, die eines Tages nachgeben könnte Prothesenhände oder autonome Roboter verfügen über einen Tastsinn, der weitaus mehr dem eines Menschen aus Fleisch und Blut entspricht Hände.
Das 3D-gedruckte Netz besteht aus nadelförmigen Papillen, die eine ähnliche Hautstruktur nachahmen, die zwischen der äußeren epidermalen und der inneren Hautschicht der menschlichen Haut zu finden ist. Diese können künstliche Nervensignale erzeugen, deren Messung den Aufzeichnungen echter Neuronen ähnelt die es den Mechanorezeptoren des Körpers ermöglichen, die Form und den Druck von Gegenständen oder Oberflächen zu erkennen berührt.
„Als wir diesen Vergleich der Signale unserer künstlichen Fingerspitzen mit den realen Daten durchführten, fanden wir eine „sehr ähnliche Übereinstimmung zwischen den beiden Datensätzen, mit der gleichen Art von Hügeln und Tälern [auf beiden gefunden]“, Lepora erklärt.
Das Team könnte diese 3D-gedruckten Hautrezeptorinformationen mit Daten kombinieren, die von winzigen eingebetteten Kameras stammen Hoffnungen werden der Schlüssel zur Verwirklichung eines langfristigen Traums in der künstlichen Intelligenz und Robotik sein: ein künstliches Gefühl von berühren.
Alle fünf Sinne
Auch wenn nicht alle Forscher unbedingt zustimmen würden, besteht das vielleicht umfassendste grundlegende Ziel der KI in der Replikation menschliche Intelligenz (oder zumindest die Fähigkeit, alle Aufgaben auszuführen, zu denen Menschen fähig sind) in einem Computer. Das bedeutet, Wege zu finden, die fünf Sinne – Sehen, Hören, Riechen, Schmecken und Tasten – in Softwareform nachzubilden. Nur dann können potenzielle Tests der Künstlichen Allgemeinen Intelligenz, wie der vorgeschlagene „Kaffeetest” (Ein wirklich intelligenter Roboter sollte in der Lage sein, in ein Haus zu gehen und die notwendigen Zutaten und Komponenten für die Zubereitung einer Tasse Kaffee zu beschaffen).
Bei der Bild- und Audioerkennung wurde bisher viel Aufmerksamkeit und Fortschritt erzielt. Dem Geruch und Geschmack wurde weniger Aufmerksamkeit geschenkt, aber immer noch etwas. Mit KI ausgestattete intelligente Sensoren können durch die Entwicklung eines „digitale Nase.” Digitale Geschmackstester, die objektive Maßstäbe für den Geschmack liefern können, sind ebenfalls Gegenstand der Untersuchung. Aber Berührungen bleiben verlockend unerreichbar.
Die menschliche Berührung ist äußerst nuanciert.
„Wir nehmen Bereiche wie das Sehvermögen bewusster wahr“, sagte Lepora und erklärte, warum der Fokus der Forscher häufig anderswo lag. „Aus diesem Grund messen wir ihm im Hinblick auf das, was wir jeden Tag tun, eine größere Bedeutung bei. Aber wenn es um Berührungen geht, sind wir uns meist nicht einmal bewusst, dass wir sie benutzen. Und schon gar nicht, dass es so wichtig wäre, wie es ist. Wenn Sie jedoch Ihren Tastsinn verlieren, wären Ihre Hände völlig nutzlos. Mit ihnen konnte man nichts anfangen.“
Das soll nicht heißen, dass Roboter die Interaktion mit realen Objekten vermieden haben. Seit mehr als einem halben Jahrhundert werden Industrieroboter mit begrenzten Bewegungsachsen und einfachen Aktionen wie Greifen und Drehen in Fabrikmontagelinien eingesetzt. In Amazon-Versandzentren spielen Roboter eine entscheidende Rolle dabei, den eintägigen Lieferprozess zu ermöglichen. Dank der Übernahme des Robotikunternehmens Kiva im Jahr 2012 gibt es in den Lagerhäusern von Amazon Heerscharen kastenförmiger Roboter Große Roombas, die durch die Produktregale schlendern und sie zu den menschlichen „Pickern“ bringen, um die richtigen Artikel auszuwählen aus.
Allerdings verkürzen diese beiden Prozesse die Zeit, die Menschen für die Erledigung dieser Aufgaben benötigen würden, erheblich Ohne fremde Hilfe führen diese Roboter nur begrenzte Funktionen aus – ein Großteil der Präzision muss von Menschen übernommen werden arbeiten.
Dafür gibt es einen guten Grund: Während für die meisten Menschen eine geschickte Handhabung eine Selbstverständlichkeit ist, ist sie für Maschinen eine außerordentliche Herausforderung. Die menschliche Berührung ist äußerst nuanciert. Die Haut verfügt über eine hochkomplexe mechanische Struktur mit Tausenden von Nervenenden allein in den Fingerspitzen, die eine extrem hochauflösende Empfindlichkeit gegenüber feinen Details und Druck ermöglichen. Mit unseren Händen können wir Vibrationen, Hitze, Form, Reibung und Textur spüren – bis hin zu Unvollkommenheiten im Submillimeter- oder sogar Mikrometerbereich. (Um eine einfache, niedrigaufgelöste Vorstellung davon zu bekommen, wie schwierig das Leben mit eingeschränkten Touch-Fähigkeiten ist, sehen Sie sich an, wie reibungslos Sie einen einzigen Tag mit dicken Handschuhen überstehen können. Die Chancen stehen gut, dass Sie sie lange vor dem Vormittag abreißen!)
Sensorisches Feedback
„Das, was den Menschen diese Flexibilität und Geschicklichkeit verleiht, ist das sensorische Feedback, das wir bekommen“, sagte Lepora. „Während wir eine Aufgabe erledigen, erhalten wir sensorisches Feedback von der Umgebung. Wenn wir unsere Hände benutzen, ist das wichtigste sensorische Feedback für die Geschicklichkeit unser Tastsinn. Es liefert uns hochauflösende, hochinformative Inhalte, Empfindungen und Informationen über unsere Umgebung, die unser Handeln leiten.“
Um dieses Problem zu lösen, sind Fortschritte sowohl in der Hardware als auch in der Software erforderlich: Flexiblere, geschicktere Robotergreifer mit überlegener Fähigkeit, zu erkennen, was sie berühren, und sich entsprechend zu verhalten. Kleinere, günstigere Komponenten helfen. Ansätze für Robotergreifer, die mithilfe von Kameras die Welt wahrnehmen, reichen beispielsweise mindestens bis in die 1970er Jahre zurück, mit Projekten wie dem der University of Edinburgh bahnbrechender Freddy-Roboter. Allerdings sind Kameras erst seit Kurzem so klein, dass sie durchaus in ein Stück Hardware von der Größe einer menschlichen Fingerspitze passen. „Vor fünf Jahren hatte die kleinste Kamera, die man kaufen konnte, vielleicht einen Durchmesser von ein paar Zentimetern“, sagte Lepora. „Jetzt kann man Kameras kaufen, die [nur ein paar] Millimeter groß sind.“
Es bleibt noch viel zu tun, bevor Innovationen wie die Erkennung weicher Fingerspitzen in Roboter integriert werden können, um ihnen taktile Wahrnehmungsfähigkeiten zu verleihen. Aber wenn dies geschieht, wird es eine Wende bedeuten – sei es für den Bau von Robotern, die in der Lage sind, eine größere Anzahl von Aufgaben auszuführen Sie können End-to-End-Aufgaben am Arbeitsplatz erledigen (denken Sie an ein vollständig automatisiertes Amazon-Lager) oder sogar „High-Touch“-Aufgaben wie das Ausführen von Tätigkeiten ausführen Betreuungsrollen.
Da Roboter immer enger in das Leben, wie wir es kennen, integriert werden, wird die Fähigkeit, sicher mit ihren Mitmenschen zu interagieren, immer wichtiger. Seit 1979 ein Fabrikarbeiter aus Michigan namens Robert Williams als erster Mensch in der Geschichte von einem Roboter getötet wurde, werden Roboter aus Sicherheitsgründen häufig von Menschen getrennt. Indem wir ihnen die Möglichkeit geben, sich sicher zu berühren, könnten wir damit beginnen, diese Barriere abzubauen.
Die Kraft der Berührung
Es gibt Hinweise darauf, dass Roboter dadurch ihre Akzeptanz beim Menschen steigern können. Lebewesen, sowohl menschliche als auch andere, berühren einander als Mittel der sozialen Kommunikation – und nein, nicht nur auf sexuelle Weise. Affenbabys, die keinen taktilen Kontakt mit einer Mutterfigur haben, können gestresst und schlecht ernährt werden. Beim Menschen gibt uns ein Schulterklopfen ein gutes Gefühl. Kitzeln bringt uns zum Lachen. Eine kurze persönliche Berührung durch einen Bibliothekar kann zu positiveren Bewertungen einer Bibliothek und ähnlichen „einfachen“ Ergebnissen führen. Berührungen können dazu führen, dass wir in einem Restaurant mehr Trinkgeld geben, mehr Geld in einem Restaurant ausgeben oder einen „Berührer“ als höher bewerten attraktiv.
Eine Studie zu diesem Thema, ein Aufsatz aus dem Jahr 2009 mit dem Titel „Die Haut als soziales Organ“ stellt fest: „Im Allgemeinen konzentriert sich die soziale Neurowissenschaftsforschung auf visuelle und auditive Kanäle als Wege für soziale Informationen. Da die Haut jedoch Schauplatz von Ereignissen und Prozessen ist, die entscheidend dafür sind, wie wir über einander denken, uns fühlen und miteinander interagieren, kann Berührung vermitteln soziale Wahrnehmungen auf verschiedene Weise.“ Würde die Berührung eines Roboters bei uns positive Gefühle hervorrufen, sodass wir Maschinen oder anderen Dingen gegenüber mehr Vorliebe empfinden Beruhigen Sie uns? Es ist durchaus möglich.
Da Roboterinteraktionen immer alltäglicher werden, wird Berührung wahrscheinlich ein wichtiger Aspekt ihrer sozialen Akzeptanz sein.
Eine Studie Von 56 Personen, die mit einer Roboterkrankenschwester interagierten, stellte sich heraus, dass die Teilnehmer von einem allgemein positiven Eindruck berichteten subjektive Reaktion auf vom Roboter initiierte Berührungen, sei es zum Reinigen der Haut oder zum Versorgen Komfort. Eine weitere, neuere Forschungsarbeit mit dem Titel „Die Überzeugungskraft der Roboterberührung“, untersuchte dieses Thema ebenfalls.
„[Frühere Untersuchungen haben gezeigt], dass Menschen höflich mit Computern umgehen, ein Verhalten, das auf den ersten Blick Computern gegenüber unvernünftig erscheint.“ Laura Kunold, Assistenzprofessor an der Fakultät für Psychologie im menschzentrierten Design sozio-digitaler Systeme an der Ruhr-Universität Bochum, sagte gegenüber Digital Trends. „Da Roboter physische Körper haben, habe ich mich gefragt, ob es positive Effekte wie positive emotionale Zustände oder Compliance gibt, die man von zwischenmenschlicher Berührung kennt.“ Forschung könnte auch durch Berührung eines Roboters ausgelöst werden.“ Sie bemerkte: „Menschen – Studenten in unserer Arbeit – sind im Allgemeinen offen für nichtfunktionale Berührungsgesten von a Roboter. Sie waren insgesamt amüsiert und beschrieben die Geste als angenehm und nicht verletzend.“
Da Roboterinteraktionen immer alltäglicher werden, wird Berührung wahrscheinlich ein wichtiger Aspekt ihrer sozialen Akzeptanz sein. Wie George Elliot schreibt (und zwar nicht speziell über Roboter) in Mittelmarsch„Wer soll die Subtilität jener Berührungen messen, die sowohl die Qualität der Seele als auch des Körpers vermitteln?“
Roboter werden immer leistungsfähiger. Vor einigen Jahren hat das Massachusetts Institute of Technology einen weichen Roboter gebaut, der so empfindlich ist Einen lebenden Fisch fangen und dann freilassen wie es in einem Tank schwimmt. Auch Obst- und Gemüsepflückroboter können Obst und Gemüse identifizieren und anschließend pflücken empfindliche Produkte wie Tomaten ohne sie zu Passata zu zerdrücken. Hoffentlich sind sie bald zuverlässig genug, um dasselbe mit Menschenhand zu tun.
Dank der Arbeit der Forscher des Bristol Robotics Laboratory kommen sie sich immer näher.
Empfehlungen der Redaktion
- Tech For Change CES 2023 Awards von Digital Trends
- Woher wissen wir, wann eine KI tatsächlich empfindungsfähig wird?
- Algorithmische Architektur: Sollten wir K.I. Entwerfen Sie Gebäude für uns?
- Emotionserfassende KI ist hier, und es könnte in Ihrem nächsten Vorstellungsgespräch sein
- Weltausstellung 2.0: Die Mission, die größte Technologiemesse aller Zeiten wiederzubeleben