Apple ha anunciado una serie de nuevas funciones de accesibilidad que llegarán más adelante este año para los propietarios de iPhone y iPad. Destaca entre ellas la capacidad de interactuar con las interfaces de iOS y iPadOS usando el movimiento ocular, algo que ya se ve en un sistema similar en el hardware de Mac.
La compañía lo llama Seguimiento Ocular, y es un sistema basado en los fundamentos de Control de Dwell. Hasta ahora, Control de Dwell ha estado disponible como parte del Teclado de Accesibilidad en macOS, permitiendo a los usuarios ejecutar acciones del ratón usando gestos oculares y de cabeza.
En el iPhone y iPad, el Seguimiento Ocular solo requerirá unos segundos para calibrarse y funcionará utilizando la cámara frontal. Una vez habilitado, permitirá a los usuarios con discapacidades físicas realizar gestos de deslizamiento y de botones con sus movimientos oculares.
Las acciones de Dwell también están disponibles para el visor Vision Pro. En la costosa máquina XR, están integradas como parte del sistema Assistive Touch en la configuración de accesibilidad. En las máquinas Mac, los gestos oculares y de cabeza permiten hacer clic con el ratón, arrastrar y soltar, y otros gestos básicos de control de la interfaz.
Para los usuarios con desafíos auditivos, Apple está agregando una función en los iPhones llamada Music Haptics. Una vez activada, el Taptic Engine integrado en el iPhone producirá vibraciones sincronizadas con la reproducción de música, utilizando una mezcla de golpes rítmicos, vibraciones suaves y texturas.
Esta función ya ha sido certificada para los millones de canciones en la biblioteca de Apple Music. Los desarrolladores también pueden aprovechar las interfaces de programación de aplicaciones (APIs) para habilitar la retroalimentación basada en vibraciones y hacer que sus aplicaciones sean más inclusivas y funcionalmente gratificantes para las personas con problemas auditivos.
Para las personas con dificultades relacionadas con el habla, Apple está agregando un par de nuevas funciones a sus teléfonos y tabletas. La primera es el Habla Atípica, que utiliza aprendizaje automático para identificar la firma de voz única de una persona y ayudarle a realizar tareas usando comandos de voz.
A continuación, está el Atajos Vocales. Esta función permite a los usuarios grabar señales de audio personalizadas y luego asignarlas como atajos para varias tareas en el dispositivo, que pueden ser de un solo paso o de varios pasos. Apple dice que estas funciones han sido “diseñadas para usuarios con condiciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular.”
Otra característica relacionada que se aproxima es la Voz Personal. Las personas que encuentran difícil decir o leer frases largas pueden crear una Voz Personal utilizando frases más cortas.
Apple también ha desarrollado una función de bienestar que tiene en cuenta el mareo por movimiento en situaciones dentro de vehículos. La función en cuestión se llama Señales de Movimiento del Vehículo, y una vez habilitada, mostrará puntos animados en la pantalla que se alinean dinámicamente con el movimiento direccional del vehículo. La idea es reducir el conflicto sensorial, facilitando la lectura del contenido en pantalla para los usuarios.
Pronto podrás controlar tu iPhone y iPad con los ojos
Apple ha anunciado una serie de nuevas funciones de accesibilidad que llegarán más adelante este año para los propietarios de iPhone y iPad. Destaca entre ellas la capacidad de interactuar con las interfaces de iOS y iPadOS usando el movimiento ocular, algo que ya se ve en un sistema similar en el hardware de Mac.
La compañía lo llama Seguimiento Ocular, y es un sistema basado en los fundamentos de Control de Dwell. Hasta ahora, Control de Dwell ha estado disponible como parte del Teclado de Accesibilidad en macOS, permitiendo a los usuarios ejecutar acciones del ratón usando gestos oculares y de cabeza.
En el iPhone y iPad, el Seguimiento Ocular solo requerirá unos segundos para calibrarse y funcionará utilizando la cámara frontal. Una vez habilitado, permitirá a los usuarios con discapacidades físicas realizar gestos de deslizamiento y de botones con sus movimientos oculares.
Las acciones de Dwell también están disponibles para el visor Vision Pro. En la costosa máquina XR, están integradas como parte del sistema Assistive Touch en la configuración de accesibilidad. En las máquinas Mac, los gestos oculares y de cabeza permiten hacer clic con el ratón, arrastrar y soltar, y otros gestos básicos de control de la interfaz.
Para los usuarios con desafíos auditivos, Apple está agregando una función en los iPhones llamada Music Haptics. Una vez activada, el Taptic Engine integrado en el iPhone producirá vibraciones sincronizadas con la reproducción de música, utilizando una mezcla de golpes rítmicos, vibraciones suaves y texturas.
Esta función ya ha sido certificada para los millones de canciones en la biblioteca de Apple Music. Los desarrolladores también pueden aprovechar las interfaces de programación de aplicaciones (APIs) para habilitar la retroalimentación basada en vibraciones y hacer que sus aplicaciones sean más inclusivas y funcionalmente gratificantes para las personas con problemas auditivos.
Para las personas con dificultades relacionadas con el habla, Apple está agregando un par de nuevas funciones a sus teléfonos y tabletas. La primera es el Habla Atípica, que utiliza aprendizaje automático para identificar la firma de voz única de una persona y ayudarle a realizar tareas usando comandos de voz.
A continuación, está el Atajos Vocales. Esta función permite a los usuarios grabar señales de audio personalizadas y luego asignarlas como atajos para varias tareas en el dispositivo, que pueden ser de un solo paso o de varios pasos. Apple dice que estas funciones han sido “diseñadas para usuarios con condiciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular.”
Otra característica relacionada que se aproxima es la Voz Personal. Las personas que encuentran difícil decir o leer frases largas pueden crear una Voz Personal utilizando frases más cortas.
Apple también ha desarrollado una función de bienestar que tiene en cuenta el mareo por movimiento en situaciones dentro de vehículos. La función en cuestión se llama Señales de Movimiento del Vehículo, y una vez habilitada, mostrará puntos animados en la pantalla que se alinean dinámicamente con el movimiento direccional del vehículo. La idea es reducir el conflicto sensorial, facilitando la lectura del contenido en pantalla para los usuarios.
{Traducido por Gigatech MSP}
{Articulo original por MSN}
Recent Posts
Recent Post
La nueva herramienta gratuita de Cloudflare detiene
septiembre 10, 2024El dispositivo «accesorio para el hogar» rumoreado
septiembre 6, 2024Cómo los distritos K-12 pueden prepararse para
septiembre 5, 2024Tags