Cali, marzo 4 de 2026. Actualizado: miércoles, marzo 4, 2026 22:25
Meta anuncia nuevas alertas parentales para cuentas supervisadas en Instagram; también prepara notificaciones similares para conversaciones con IA
Instagram notificará a padres si un adolescente busca repetidamente términos sobre suicidio o autolesión
En las próximas semanas Instagram empezará a enviar a los padres notificaciones si detecta que un adolescente bajo supervisión intenta repetidamente buscar términos asociados con el suicidio o la autolesión en un corto período de tiempo.
El anuncio, publicado por Meta el 26 de febrero de 2026, describe las alertas como una extensión de las herramientas de supervisión parental y de las políticas de protección ya vigentes en la plataforma.
Qué hará Instagram y cómo se activan las alertas
Instagram analizará la actividad de búsqueda de adolescentes que usan la función de supervisión parental.
Según Meta, entre las búsquedas que pueden activar una alerta se cuentan frases que promueven el suicidio o la autolesión, expresiones que sugieren que alguien quiere hacerse daño y términos explícitos como “suicidio” o “autolesión”.
La compañía indica que definió “un umbral” que requiere varias búsquedas en un periodo breve, con el objetivo de reducir falsos positivos y mantenerse “del lado de la precaución”.
Las alertas llegarán a los padres por correo electrónico, SMS o WhatsApp —según la información de contacto disponible— y también mediante una notificación dentro de la aplicación.
Al tocar la notificación, los padres verán un mensaje a pantalla completa que explica la razón de la alerta y ofrecerá recursos de expertos para ayudarles a abordar la conversación con su hijo o hija.
Protecciones existentes y recursos inmediatos
Meta recuerda que ya bloquea búsquedas claramente relacionadas con el suicidio y la autolesión: en esos casos no se muestran resultados, sino que la plataforma dirige a la persona a recursos y líneas de ayuda locales.
Además, cuando una búsqueda sugiere un riesgo inminente de daño físico, Instagram afirma que alertará a los servicios de emergencia —una medida que, según la compañía, ha salvado vidas en otras ocasiones.
Las nuevas alertas parentales se suman a esas protecciones y estarán disponibles primero en Estados Unidos, Reino Unido, Australia y Canadá; Meta planea extenderlas a otras regiones durante el año.
Por qué Meta defiende el cambio
En su comunicado, Meta plantea que estas notificaciones buscan empoderar a las familias para intervenir cuando la actividad en la plataforma sugiere que un adolescente podría necesitar apoyo.
La compañía afirma haber consultado a su Grupo Asesor sobre Suicidio y Autolesión para calibrar el umbral de las alertas y minimizar notificaciones innecesarias.
Expertos citados en el anuncio avalan la iniciativa. El Dr. Sameer Hinduja, codirector del Cyberbullying Research Center, dijo que permitir que un padre “intervenga puede ser extremadamente importante” cuando un joven busca información sobre suicidio o autolesión.
Vicki Shotbolt, CEO de Parent Zone, añadió que dar información a los padres puede ofrecerles “mayor tranquilidad” y facilitar el apoyo oportuno.
Consideraciones y límites del sistema
Meta reconoce que este umbral preventivo puede generar en ocasiones alertas sin un motivo real de preocupación, y por eso plantea que seguirá monitoreando y ajustando el sistema según comentarios y evidencia.
La compañía también subraya que la gran mayoría de adolescentes no realizan este tipo de búsquedas y que, cuando lo hacen, la política es bloquear el contenido dañino y ofrecer recursos.
Otro punto importante es la privacidad y la supervisión parental: las alertas solo se enviarán a padres que ya estén usando las herramientas de supervisión de Instagram, una función que vincula cuentas y permite cierto monitoreo de actividad.
El papel de la IA y próximos pasos
Meta anuncia además que está desarrollando notificaciones parentales similares para ciertas conversaciones que los adolescentes mantengan con su IA.
La empresa asegura que su IA ya está entrenada para responder de forma segura y ofrecer recursos cuando detecta temas de salud mental, pero que ahora trabaja en alertas específicas para informar a los padres si un joven intenta entablar cierto tipo de conversaciones sobre suicidio o autolesión con los sistemas conversacionales de la compañía. Meta anticipa compartir más detalles sobre ese desarrollo en los próximos meses.
Qué deben saber los padres
- Las alertas llegarán solo si los padres activaron la supervisión parental en Instagram.
- Las notificaciones incluirán recursos de expertos para ayudar en la conversación y enlaces a líneas de ayuda.
- La compañía pretende evitar la sobre-notificación mediante un umbral que exige varias búsquedas en un corto periodo.
- La funcionalidad se lanza primero en cuatro países y se expandirá gradualmente.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

