“Recibimos muchos consejos de Meta que son simplemente basura”: así se rompe la promesa de seguridad infantil

La fiscalía sostiene que Meta no fue del todo honesta con el público sobre los riesgos reales que enfrentan niños y adolescentes en sus plataformas.

01 de marzo de 2026 a las 11:05h
“Recibimos muchos consejos de Meta que son simplemente basura”: así se rompe la promesa de seguridad infantil
“Recibimos muchos consejos de Meta que son simplemente basura”: así se rompe la promesa de seguridad infantil

En una sala de justicia de Nuevo México, un juicio silencioso está sacudiendo los cimientos de una de las mayores empresas tecnológicas del mundo. No hay explosiones ni discursos apasionados, pero el aire está cargado de tensión. Lo que se debate aquí no es solo responsabilidad legal, sino la transparencia de un gigante frente a uno de los problemas más urgentes de nuestra era la protección de los menores en internet.

La acusación ¿ocultar para vender seguridad?

La fiscalía sostiene que Meta no fue del todo honesta con el público sobre los riesgos reales que enfrentan niños y adolescentes en sus plataformas. Según la información recogida por Associated Press, la empresa habría presentado la seguridad de sus servicios de una forma que no se correspondía con los peligros reales. No se trata solo de que haya contenido dañino, sino de cómo se ha mostrado o encubierto ese riesgo.

Este caso no es aislado. Es parte de una oleada de demandas en Estados Unidos contra grandes tecnológicas, todas con un denominador común el impacto psicológico, emocional y físico que sus plataformas podrían estar teniendo en los más jóvenes. Pero aquí, el foco se estrecha. Se pregunta ¿hasta qué punto una empresa puede hablar de "seguridad" mientras omite información clave?

El flujo de alertas más no significa mejor

En teoría, cada red social tiene el deber legal de reportar cualquier contenido que sugiera abuso sexual infantil. Esa obligación recae sobre el National Center for Missing & Exploited Children (NCMEC), que actúa como central de alertas y las distribuye a las fuerzas del orden. Meta afirma cumplir con ello escrupulosamente, incluso alega haber mejorado sus sistemas año tras año.

Sin embargo, las voces de los agentes encargados de perseguir estos delitos pintan un cuadro más complejo. Desde el programa Internet Crimes Against Children (ICAC), coordinado con el Departamento de Justicia, varios funcionarios han descrito un aluvión de avisos provenientes de Meta tantos que empiezan a parecer un problema en sí mismos.

Benjamin Zwiebel, agente especial del ICAC en Nuevo México, fue contundente ante el tribunal

"Recibimos muchos consejos de Meta que son simplemente basura"

La frase, recogida por The Guardian, resume una frustración creciente. Muchos informes no describen conductas delictivas reales. Otros señalan posibles delitos, pero llegan sin imágenes, sin vídeos, sin fragmentos de conversaciones. Algunos incluso contienen datos parcialmente eliminados, lo que imposibilita identificar a los responsables o iniciar investigaciones.

Un sistema diseñado para cumplir con la ley puede estar fallando en su propósito real proteger a los niños. El volumen de alertas ha crecido, pero su utilidad no ha seguido la misma curva. Y eso plantea una pregunta incómoda ¿es este aumento una señal de mayor vigilancia o una estrategia para parecer proactivos sin resolver los problemas de fondo?

La defensa rapidez, colaboración y buenas intenciones

Meta no se queda en silencio. Kevin Huff, abogado de la compañía, ha sido claro la empresa no ha ocultado nada. Al contrario, asegura que ha sido transparente sobre los riesgos y que ha implementado herramientas avanzadas para detectar y eliminar contenido dañino. El núcleo del juicio, según Huff, no es si existe contenido problemático en redes sociales, sino si Meta ocultó información relevante.

Y hay datos que respaldan, al menos parcialmente, su postura. Meta afirma que en 2024 respondió más de 9.000 solicitudes de emergencia de autoridades estadounidenses, con un tiempo medio de respuesta de apenas 67 minutos. En casos de riesgo para menores o amenazas de suicidio, ese tiempo se reduce aún más. Un portavoz de la empresa subraya que el Departamento de Justicia ha reconocido en múltiples ocasiones esta rapidez.

Además, la compañía asegura que etiqueta los avisos más urgentes antes de enviarlos al NCMEC, colaborando activamente en la priorización. Incluso señalan que esta organización ha valorado positivamente su sistema de notificación. Para Meta, no solo cumple con la ley, sino que va más allá.

¿Qué cambió en 2024? La sombra del Report Act

Agentes citados por The Guardian señalan un posible gatillo para el aumento en el volumen de alertas la entrada en vigor del Report Act en noviembre de 2024. Esta nueva norma endurece las obligaciones de reporte para las plataformas, imponiendo sanciones más severas por incumplimiento. ¿Resultado? Un aluvión de avisos, muchos de ellos de baja calidad, que podrían responder más a un miedo a las multas que a una genuina intención de ayudar.

No es mala fe necesariamente, sino una reacción previsible ante un entorno regulatorio cambiante. Pero eso no resuelve el problema de fondo más alertas no equivalen a más justicia, ni a más protección real para los menores.

El verdadero desafío tecnología, ética y responsabilidad

Detrás de este juicio hay una paradoja moderna. Las plataformas usan sistemas automatizados para escanear millones de contenidos al día, una hazaña técnica impresionante. Pero la experiencia de los agentes del ICAC revela una desconexión entre capacidad técnica y eficacia real. Detectar no es lo mismo que prevenir. Reportar no es lo mismo que proteger.

Este caso no es solo sobre Meta. Es sobre cómo las empresas digitales gestionan su poder. Sobre cómo equilibran sus intereses comerciales con sus responsabilidades sociales. Y sobre si las leyes que regulan este mundo están a la altura de la realidad que intentan controlar.

El juicio en Nuevo México podría marcar un antes y un después. No porque vaya a cerrar Instagram o Facebook, sino porque pone sobre la mesa una exigencia cada vez más urgente la transparencia como condición para la confianza. Y en un mundo donde los menores pasan horas diarias en línea, esa confianza no puede ser solo una apariencia.

Sobre el autor
Redacción
Ver biografía