Cali, marzo 29 de 2026. Actualizado: domingo, marzo 29, 2026 20:48
La compañía inicia el despliegue del Meta AI support assistant en Facebook e Instagram y presenta resultados de pruebas de nuevas IA para mejorar la moderación de contenido
Meta lanza un asistente de soporte con IA y anuncia sistemas avanzados para detectar estafas y violaciones en sus apps
Meta presentó esta semana dos iniciativas basadas en inteligencia artificial destinadas a mejorar la ayuda que reciben los usuarios y la detección de contenido peligroso o ilegal en sus plataformas.
El anuncio, publicado en el newsroom oficial de la compañía, describe el lanzamiento del Meta AI support assistant —ya disponible en los países donde Meta AI funciona— y avances en “sistemas más avanzados de IA” para la aplicación de normas y la detección de fraudes.
Qué anunció Meta
Meta está desplegando el Meta AI support assistant dentro de las aplicaciones de Facebook e Instagram (iOS y Android) y también en los centros de ayuda en escritorio.
La compañía dijo que el asistente ofrece respuestas rápidas (típicamente en menos de cinco segundos) y, cuando el usuario lo autoriza, puede realizar ciertas acciones dentro de Facebook —en el futuro también en Instagram— para resolver problemas de cuenta.
Entre las funciones prácticas que Meta destaca están:
- Reportar estafas, cuentas de suplantación o contenido problemático.
- Explicar por qué se retiró un contenido y cómo apelar esa decisión, además de permitir el seguimiento del estado.
- Gestionar la configuración de privacidad.
- Restablecer contraseñas y actualizar ajustes de perfil.
Meta indica que el asistente ya se está desplegando en todos los idiomas que soportan Facebook e Instagram para temas de soporte.
La empresa comenzó además a ofrecerlo en casos selectos de acceso a cuentas (problemas para iniciar sesión) en Estados Unidos y Canadá, con planes de ampliar la cobertura.
Cómo funcionan (según Meta) y por qué importa
En el comunicado Meta presenta estas herramientas como “orientadas a la acción”: la idea es que los usuarios obtengan soluciones concretas, no solo recomendaciones.
Para una persona que pierde acceso a su cuenta, por ejemplo, el asistente podría acelerar el restablecimiento de la contraseña o guiar paso a paso el proceso de apelación en lugar de obligarla a buscar ayuda en páginas de soporte.
Para usuarios, las promesas prácticas son dos: menos tiempo de espera y una vía más directa para resolver problemas frecuentes (cuentas comprometidas, ajustes de privacidad, explicaciones sobre contenidos retirados).
Meta afirma que la mayoría de las personas que han probado el asistente reportaron una experiencia positiva.
Resultados de las pruebas de IA para moderación de contenido
En paralelo, Meta compartió resultados de experimentos con “sistemas más avanzados de IA” destinados a reforzar la detección de violaciones graves (terrorismo, explotación infantil, drogas, fraude y estafas) y reducir errores de sobreaplicación.
Entre los resultados que la compañía reportó están:
- Identificación y mitigación de 5.000 intentos de estafa por día que no había detectado antes el equipo de revisión.
- Reducción de las denuncias sobre las celebridades más suplantadas en más del 80%.
- Detección de dos veces más contenido de solicitud sexual con violación de normas, con una disminución de errores superiores al 60%.
- Prevención de una toma de control de cuenta al detectar un patrón de acceso en nueva localización, cambio de contraseña y ediciones en el perfil.
- Detección de un sitio falso que imitaba a una tienda usando el logo real con precios sospechosamente bajos; tras ampliar la prueba, la IA redujo en 7% las vistas de anuncios con estafas y otras violaciones graves.
Meta también destaca que estos sistemas amplían la cobertura lingüística: pueden operar en idiomas hablados por el 98% de las personas en internet (frente a la cobertura anterior aproximada del 80%) y adaptarse a matices culturales, jerga y símbolos que cambian con rapidez.
Qué cambia para la moderación y cuál es el papel de las personas
La compañía afirma que, en los próximos años, desplegará estos sistemas más avanzados si demuestran rendir mejor que los métodos actuales.
Ese despliegue implicará, según Meta, reducir la dependencia de proveedores externos de moderación y fortalecer sus sistemas y equipos internos.
Meta subraya que la IA no sustituirá la labor humana: expertos seguirán diseñando, entrenando, supervisando y evaluando los modelos, y las personas tomarán decisiones en los casos de mayor riesgo (por ejemplo, apelaciones de desactivación de cuentas o reportes a la policía).
Además, dice que está probando salvaguardas, evaluando desempeño para evitar sesgos y que sus Community Standards no cambian con este anuncio.
Qué deberían tener en cuenta los usuarios
- Más rapidez y automatización en soporte para problemas comunes; el asistente puede incluso actuar por el usuario con su consentimiento.
- Mejores detecciones de estafas y suplantaciones en pruebas internas, lo que podría traducirse en menos fraudes visibles.
- La moderación seguirá combinando IA y revisión humana para casos complejos.
- Meta dice que seguirá ampliando y probando las herramientas antes de su despliegue masivo.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

