La traduction en direct peut indiquer l'avenir des lunettes Apple

Table des matières:

La traduction en direct peut indiquer l'avenir des lunettes Apple
La traduction en direct peut indiquer l'avenir des lunettes Apple
Anonim

Clé à emporter

  • Les nouvelles fonctionnalités d'accessibilité incluent les sous-titres en direct générés en temps réel, pour n'importe quelle vidéo ou conversation.
  • Si cette fonctionnalité n'est pas conçue pour les prétendues lunettes AR d'Apple, nous mangerons notre chapeau emoji virtuel.
  • Apple a l'habitude de tester les futures fonctionnalités des produits à l'intérieur des appareils actuels.
Image
Image

Les nouveaux Live Captions d'Apple ajoutent des sous-titres en temps réel à n'importe quoi, y compris la personne qui se tient devant vous.

Tout comme le concept AR Glasses de Google, annoncé cette semaine. Les sous-titres en direct d'Apple peuvent prendre l'audio entrant et le transcrire instantanément. La différence est que la version d'Apple sera livrée "plus tard cette année", ce qui signifie probablement qu'elle sera dans la version iOS 16 de cet automne. Mais la vraie nouvelle ici est qu'il s'agit du coup le plus évident d'Apple à ce jour pour tester les futures fonctionnalités des lunettes Apple à la vue de tous.

"En tant que quelqu'un qui a deux parents qui ont tous deux des difficultés à entendre, cela représente une grande aide", écrit Dan Moren, journaliste spécialisé dans Apple, sur son blog personnel Six Colors. "Je suis curieux de voir à quel point la fonctionnalité fonctionne réellement et comment elle gère un gros appel FaceTime avec un grand nombre de participants; Apple dit qu'il attribuera le dialogue à des locuteurs spécifiques."

Tour de passe-passe

Live Captions, auquel nous reviendrons dans une seconde, est loin d'être la première fonctionnalité de lunettes AR qu'Apple a testée. La plus évidente est l'inclusion de caméras LIDAR dans les iPhones et les iPads. Ces scanners aident à créer une carte 3D précise du monde extérieur et permettent à l'iPhone de superposer des modèles 3D sur le monde réel montré à travers l'appareil photo.

Je ne suis pas sûr que nous puissions faire plus confiance à la traduction en direct d'Apple qu'aux nouvelles lunettes AR de Google, mais je pense que nous pouvons être sûrs que la concurrence aidera à produire les meilleurs résultats.

Jusqu'à présent, cette technologie a été utilisée pour vous permettre de prévisualiser de nouveaux ordinateurs Apple sur votre propre bureau, de jouer à des jeux AR Lego, de tester des meubles IKEA dans votre salon, etc. Le matériel LIDAR est tellement absurdement redondant dans les iPhones qu'il ne doit être là que pour qu'Apple puisse perfectionner le matériel et les logiciels d'une véritable application AR: Apple Glasses.

Ce n'est pas seulement de la RA visuelle non plus. Les AirPod ajoutent des fonctionnalités AR intéressantes depuis des années maintenant. Le dernier, Spatial Audio, fait croire à notre cerveau que les sons proviennent de tout autour de nous et est un excellent moyen de regarder des films ou d'écouter des paysages sonores relaxants. C'est une fonctionnalité intéressante, mais ce sera encore mieux lorsqu'elle fonctionnera avec le futur produit de lunettes attendu d'Apple. Être capable de placer des sons dans un espace 3D pour correspondre aux objets AR vendra vraiment l'illusion.

Ou que diriez-vous de Live Text, la technologie iOS 15 qui reconnaît et lit le texte des photos, et en direct, via l'appareil photo de l'iPhone ? C'est une autre fonctionnalité idéale pour lire des panneaux, des menus et d'autres textes à travers des lunettes AR.

Live Captions

Live Captions prend la parole à partir d'un appel FaceTime, d'applications de vidéoconférence, d'une vidéo en streaming, etc. Votre téléphone prend l'audio et le transcrit à la volée, en fournissant des sous-titres, comme on le voit dans cette vidéo.

C'est super, mais ce qui est encore mieux, c'est que rien ne quitte jamais votre iPhone. Les légendes, dit Apple, sont générées sur l'appareil au lieu d'être envoyées à un serveur. Ce n'est pas seulement plus privé, c'est aussi beaucoup plus rapide.

"Je ne suis pas sûr que nous puissions faire plus confiance à la traduction en direct d'Apple qu'aux nouvelles lunettes AR de Google, mais je pense que nous pouvons être sûrs que la concurrence aidera à obtenir les meilleurs résultats", a déclaré Kristen Bolig, fondatrice de SecurityNerd, à Lifewire. par email."Maintenant que la concurrence est publique et que les problèmes liés à ce type de technologie (confidentialité, précision, etc.) sont bien connus, les deux entreprises seront non seulement dans une course pour créer le meilleur produit d'abord, mais aussi pour créer le produit le mieux adapté. résout ces problèmes."

Nous nous attendrions également à une sorte de traduction automatique intégrée comme celle que vous pouvez obtenir dès maintenant en utilisant l'application tierce Navi pour traduire automatiquement vos conversations FaceTime, ou peut-être un moyen d'enregistrer ces transcriptions lors d'entretiens pour un accès plus facile plus tard.

Nous bénéficions depuis longtemps des excellentes fonctionnalités d'accessibilité d'Apple, nous permettant de personnaliser nos appareils iOS dans une mesure presque absurde. Qu'il s'agisse de peaufiner l'affichage pour rendre les couleurs et le texte plus faciles à voir, de contrôler l'ensemble de l'interface utilisateur avec des périphériques externes, ou que le téléphone vous avertisse lorsque quelqu'un sonne à la porte ou qu'un camion de livraison arrive à l'extérieur.

Maintenant, nous bénéficions tous des avantages de la recherche accrue d'Apple dans la technologie de réalité augmentée. Nous ne nous soucions peut-être pas d'IKEA ou de LEGO, ni même de vouloir acheter une paire de lunettes AR légendaires d'Apple, mais cela ne signifie pas que nous ne pouvons pas tous profiter des fruits de cette recherche.

Conseillé: