La nueva función de iPhone para enseñarle a hablar con tu voz
A fin de año, Apple sorprenderá con unas funciones que ningún otro dispositivo tiene hasta el momento y que apuntan a ayudar a las personas a interactuar mejor con su alrededor.
A fin de año, Apple le traerá una sorpresa a todos los dueños y dueñas de un iPhone, iPad o computadoras Mac. Y es que la nueva actualización que planean sacar, vendrá con una interesante función que permitirá enseñarle al dispositivo a hablar con la voz del usuario y mejorar la accesibilidad.
Y es que esta herramienta está pensada para las personas que no pueden hablar con claridad por algún motivo de salud o que simplemente no tienen la confianza para hacerlo. De esta manera, Personal Voice, el nombre con el que bautizaron a la función, podrá ayudarlas a interactuar con el mundo con un poco más de facilidad.
¿Cómo funciona esta nueva función de Apple?
La función ‘Live Speech’ permitirá que la persona escriba mensajes y comentarios en su dispositivo Apple para que este lo lea en voz alta. Además, si hay frases u oraciones que utilice con frecuencia, se pueden guardar como accesos directos para reproducirlas con tan solo un toque en la pantalla.
Lo interesante de esto es que puede grabar su propia voz para que, al momento de pedirle al dispositivo que lea lo escrito, sea la de la persona. En caso de que no quiera grabarse, la voz de Siri leerá las palabras. Además, esta función funciona no solo para conversaciones cara a cara, sino también en llamadas telefónicas y FaceTime.
En esta línea, ‘Personal voice’ será la función que permitirá al iPhone, iPad o Mac tener la voz de su dueño o dueña, con una interesante tecnología que permite crear una voz con un sonido similar después de proporcionar tan solo 15 minutos de muestras habladas (no necesariamente tienen que ser de corrido).
Otras interesantes novedades para usuarios de Apple
‘Assistive access’, otra nueva función que llegará junto a las anteriores, está diseñada para usuarios con discapacidades cognitivas, por lo que elimina toda la interfaz que conocemos de los dispositivos Apple para brindar una forma más simple de interactuar con el dispositivo.
Así, el usuario podrá elegir una pequeña cantidad de aplicaciones para ocupar el centro del escenario que tendrá un ícono más grande para mejorar la visibilidad. Además, otras funciones claves del teléfono, como hacer llamadas, se podrán realizar con accesos rápidos de los nombres de sus contactos favoritos.
Y, finalmente, está el ‘Point and speak’, una interesante propuesta que estará presente en la aplicación Lupa de Apple: abres la cámara, apuntas con el dedo a algo que tengas en frente y la app leerá cualquier texto que esté sobre él o cerca de él.
Por ejemplo, una persona podría utilizarlo para leer el texto arriba de los botones de un microondas o letras demasiado pequeñas de otros artefactos. La única mala noticia es que, para que esta herramienta funcione, el requisito es que tenga un sensor incorporado, y solo los últimos iPhones y iPads Pro lo tienen.
Apple no dio más detalles sobre cuándo los usuarios podrán probarlo, pero sí que aparecerán en las nuevas versiones de software iOS, iPadOS y macOS que suelen lanzarse cerca del otoño estadounidense (primavera en Chile).
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.