Cali, febrero 15 de 2026. Actualizado: sábado, febrero 14, 2026 19:29
Google Research presenta Natively Adaptive Interfaces: una nueva forma de crear tecnologías inclusivas y personalizadas para más de 1.300 millones de personas con discapacidad en el mundo
Cómo la inteligencia artificial multimodal de Google está revolucionando el diseño universal accesible
En un mundo cada vez más digital, garantizar que la tecnología sea accesible para todas las personas es un desafío crucial.
Google Research ha dado un paso significativo con el lanzamiento de Natively Adaptive Interfaces (NAI), un marco innovador que utiliza herramientas de inteligencia artificial multimodal para adaptar las interfaces digitales a las necesidades únicas de cada usuario, especialmente personas con discapacidad.
¿Qué es Natively Adaptive Interfaces (NAI)?
NAI es una propuesta de Google Research que redefine el diseño universal, es decir, la creación de productos y entornos que puedan ser usados por la mayor cantidad de personas posible, independientemente de sus capacidades físicas o cognitivas.
En lugar de interfaces “de talla única“, NAI incorpora IA generativa capaz de comprender y adaptarse al contexto y preferencias del usuario en tiempo real.
Al integrar varios modos de interacción —como la voz, el texto y la visión— estas interfaces actúan como colaboradores activos que ajustan funciones de accesibilidad sin que el usuario tenga que configurar manualmente cada detalle.
Por ejemplo, en lugar de que una persona tenga que navegar por complejos menús para agrandar el texto o solicitar descripciones auditivas, la IA “Orquestadora” administra estos ajustes automáticamente, delegando tareas especializadas a sub-agentes expertos.
¿Por qué es relevante esta innovación?
El 16% de la población mundial —más de 1.300 millones de personas— vive con alguna discapacidad, y hasta ahora el acceso digital suele ser limitado o tardío.
Un problema conocido como la “brecha de accesibilidad” se refiere al retraso entre el lanzamiento de nuevas funciones y la adaptación para personas con discapacidades.
NAI busca cerrar esta brecha pasando de herramientas reactivas a sistemas nativos e inteligentes que incorporan accesibilidad desde su diseño inicial.
Además, el enfoque de Google va más allá de la tecnología: sigue el principio “Nothing About Us Without Us” (“Nada sobre nosotros sin nosotros”), involucrando activamente a comunidades con discapacidades en la co-creación de estas soluciones.
Con el apoyo de organizaciones como Google.org, el Rochester Institute of Technology (Instituto Nacional Técnico para Sordos), The Arc de Estados Unidos, RNID y Team Gleason, este desarrollo se alinea con modelos inclusivos que promueven la economía y el empleo bajo un paradigma colaborativo.
Cómo funciona la IA multimodal en este contexto
La IA multimodal implica que los modelos procesan simultáneamente diferentes tipos de datos: voz, imagen y texto.
Esto abre posibilidades para interfaces que no solo hablan con el usuario, sino que también “ven” y comprenden su entorno.
Por ejemplo, Google Research desarrolló prototipos que convierten videos en descripciones auditivas interactivas. Un usuario puede preguntar detalles específicos de lo que ve, como “¿Qué ropa lleva ese personaje?“, y recibir respuestas adaptadas a sus necesidades.
Otro caso destacado es StreetReaderAI, un asistente virtual para personas con baja visión que combina análisis visual y geográfico para ofrecer orientación precisa y contextual durante la navegación física.
También merece mención el proyecto Grammar Laboratory, que ofrece enseñanza del inglés a estudiantes sordos mediante IA bilingüe en lenguaje de señas americano e inglés, utilizando videos, subtítulos y narración hablada ajustada a las preferencias del estudiante.
Más allá del usuario con discapacidad: el efecto “curb-cut”
Las innovaciones desarrolladas para ampliar la accesibilidad suelen traer beneficios universales, un fenómeno conocido como efecto “curb-cut”.
Al igual que las rampas en las aceras fueron diseñadas para usuarios en silla de ruedas pero facilitan el tránsito a padres con cochecitos o viajeros con maletas, las interfaces adaptativas pueden mejorar la experiencia de uso de muchas personas.
Por ejemplo, los asistentes de voz útiles para personas con discapacidad visual también ayudan a quien está ocupado realizando otras tareas; las herramientas que sintetizan información para alguien con dificultades de aprendizaje pueden ayudar a profesionales ocupados a procesar datos rápido; y los tutores personalizados que atienden a estudiantes sordos pueden ser beneficiosos para todo tipo de usuarios.
Un futuro más accesible gracias a la IA
Google Research se posiciona a la vanguardia del “golden age”, o edad dorada, de la inteligencia artificial para la accesibilidad.
La capacidad de la IA multimodal para ajustarse a variadas formas de interacción humana transforma no solo la forma de usar dispositivos, sino cómo estos comprenden y colaboran con sus usuarios.
Este avance, impulsado por rigurosos avances científicos y un profundo compromiso social, representa un esfuerzo integral para hacer que las tecnologías digitales sean inclusivas, dinámicas y respetuosas con la diversidad humana.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

