Haben Sie sich jemals gefragt, wie der Apple HomePod Kann ich hören, wie Sie von der anderen Seite eines lauten Raums aus „Hey Siri“ sagen? Es brauchte viele sehr kluge Leute, um das zu erreichen.
Ein neuer Beitrag auf Apples Blog zum maschinellen Lernen beschreibt detailliert den gesamten Gedanken und die Technologie – sowohl Hardware als auch Software –, die hinter der Fähigkeit des Marshmallow-förmigen Lautsprechers stehen, jedes Wort mitzuhören. Es stellte sich heraus, dass die Herausforderungen ziemlich groß waren.
Empfohlene Videos
„Die typische Audioumgebung für den HomePod bringt viele Herausforderungen mit sich – Echo, Nachhall und Rauschen“, erklärt Apple. „Im Gegensatz zu Siri auf dem iPhone, das nah am Mund des Benutzers funktioniert, muss Siri auf dem HomePod in einer Fernfeldumgebung gut funktionieren. Benutzer möchten Siri von vielen Orten aus aufrufen, beispielsweise von der Couch oder der Küche, unabhängig davon, wo der HomePod steht.“
Verwandt
- Wie viel kostet Spotify Premium und gibt es ein Angebot?
- Bald können Apple AirPods Pro auf Ihre Umgebung reagieren
- So erhalten Sie The Last of Us kostenlos von AMD
Um diese Probleme zu lösen, nutzte das Team eine Mischung aus dem, was es „überwachtes Deep Learning“ nennt „unüberwachtes Online-Lernen“, um zu bestimmen, wie die Signale von seinen mehreren Onboard-Geräten zu interpretieren sind Mikrofone. Im Wesentlichen ist der Sprecher in der Lage, mithilfe dieses maschinellen Lernalgorithmus zu bestimmen, welcher Audiostream optimal ist zum Zuhören in jedem Moment, so dass es immer ein scharfes Ohr haben kann, wo es gerade „Hey Siri“ hört.
Es gibt jede Menge coole Software, die es dem Lautsprecher ermöglicht, die Spracherkennung zu optimieren und Dinge wie Musik, Umgebungsgeräusche und andere Nicht-Sprach-Audiodaten auszublenden. Aber selbst wenn es um Sprache geht, gibt es noch andere Herausforderungen.
„Die Fernfeld-Spracherkennung wird schwieriger, wenn sich ein anderer aktiver Sprecher, wie eine Person oder ein Fernseher, im selben Raum wie der Zielsprecher befindet“, heißt es in dem Beitrag. „In diesem Szenario können die Erkennung von Sprachauslösern, die Sprachdekodierung und die Endpunktierung erheblich beeinträchtigt werden, wenn der Sprachbefehl nicht von den störenden Sprachkomponenten getrennt wird.“
Das Team hat eine einzigartige Formel zur Lösung dieses Problems entwickelt – die tatsächliche Formel finden Sie auf die Website des Unternehmens – und entwickelte sogar spezielle Methoden zum Umgang mit Echounterdrückung und Unterdrückung.
Die Tatsache, dass so viel darüber nachgedacht wurde, ein Produkt wie den HomePod zu entwickeln und es tatsächlich funktionieren zu lassen, ist nicht allzu überraschend, aber es ist möglich direkt von Apple – einem der geheimnisvollsten Unternehmen der Welt – genau zu hören, was die Herausforderungen waren und wie sie gelöst wurden erfrischend. Für weitere Informationen empfehlen wir Ihnen, den vollständigen Blogbeitrag zu lesen.
Wenn Sie schon dabei sind, schauen Sie sich unbedingt unsere Liste an die besten Smart-Lautsprecher wenn Sie auf dem Markt sind.
Empfehlungen der Redaktion
- Wie viel kostet Apple Music und wie kann man es kostenlos bekommen?
- Was ist NFC? Wie es funktioniert und was Sie damit machen können
- Was ist Dolby Atmos-Musik und wie kann man sie zu Hause und unterwegs hören?
- Komm schon, Apple – wenn Sonos zugeben kann, dass es sich bei Bluetooth geirrt hat, kannst du das auch
- Apple AirPlay 2: Die drahtlose Audio- und Video-Streaming-Technologie ausführlich erklärt
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.