Hay un instante en la primera temporada de *Mad Men* que no puedo dejar de recordar cada vez que leo una nueva noticia sobre inteligencia artificial. Es 1960. Roger Sterling, elegante, impasible, se dirige a los ejecutivos de Lucky Strike en una reunión tensa. "Comprenda que debido a la manipulación de los medios, el público tiene la impresión de que sus cigarrillos provocan ciertas enfermedades mortales", dice, sin inmutarse. No niega los estudios científicos, no discute la toxicidad del tabaco. Simplemente señala que el problema no es la realidad, sino la percepción. Aquel momento, ficticio pero profundamente real, hoy tiene un eco inquietante las grandes tecnológicas podrían estar viviendo su propio "momento Lucky Strike".
El precio de la adicción
Google y Meta, esta última dueña de Facebook e Instagram, ya no solo son acusadas de diseñar plataformas adictivas. Ahora lo pagan. Se enfrentan a las primeras sentencias millonarias por fomentar la adicción en menores y por no protegerlos de contenidos explícitos, acoso y daño psicológico. Lo más grave no es el dinero es el reconocimiento tácito de que sabían lo que estaba ocurriendo. Meta, según informes internos filtrados, ocultó durante años la relación entre el uso intensivo de sus redes y el deterioro de la salud mental adolescente. Estudios que mostraban aumento de ansiedad, depresión y pensamientos suicidas fueron archivados o minimizados. Y todo esto no es nuevo los riesgos se conocen desde hace al menos una década.
La respuesta está comenzando a llegar. Varios países, entre ellos España, ya han anunciado que prohibirán el acceso a menores de 16 años a ciertas plataformas. Pero la pregunta que queda flotando es ¿y si ya es demasiado tarde? ¿Cuántas generaciones han crecido bajo un modelo de negocio basado en la atención, el algoritmo y la exposición constante a lo que más daño puede hacerles?
La IA, el nuevo tabaco digital
Si el modelo de negocio basado en datos y adicción ha dejado cicatrices, la inteligencia artificial abre un frente aún más complejo. Los vídeos falsos cada vez mejor hechos amenazan con erosionar lo último que nos queda de confianza lo que vemos y oímos. La posible destrucción de empleos no es una amenaza futurista, sino una realidad en sectores como el diseño, el periodismo o la atención al cliente. Además, muchas de estas IA han sido entrenadas con material protegido por derechos de autor, sin permiso ni compensación. Artistas, escritores, fotógrafos todos están en primera línea de fuego.
Pero quizás lo más inquietante sea lo que está ocurriendo fuera de la vista del público. El 30 de marzo de 2026, Dario Amodei, consejero delegado de Anthropic, hablaba en una entrevista que no pasó desapercibida para quienes estaban atentos
"No ha habido un reconocimiento público de los riesgos. Estamos tan cerca de que estos modelos alcancen el nivel de inteligencia humana, y sin embargo no parece haber una conciencia más amplia en la sociedad de lo que está a punto de suceder… No ha habido una conciencia pública sobre los riesgos." - Dario Amodei, consejero delegado de Anthropic
Y no es el único en alertar. Sam Altman, de OpenAI, ha comparado la inteligencia artificial más de una vez con las armas nucleares una tecnología tan poderosa que su mero desarrollo exige controles globales. La disputa entre Anthropic y el Gobierno de Estados Unidos por el uso militar de sus modelos confirma que esta tecnología ya se utiliza como arma de guerra y herramienta de espionaje. No es ciencia ficción es contrato, presupuesto y entrenamiento en curso.
Cuando la máquina se equivoca… y paga un humano
Y a nivel individual, los fallos ya tienen rostro. El caso de Angela Lipps, una mujer estadounidense, es escalofriante. El año pasado, pasó cinco meses en la cárcel porque un sistema de reconocimiento facial la identificó por error como la sospechosa de un fraude bancario. No hubo prueba, no hubo testigo. Solo un algoritmo que falló. Y una vida destrozada durante 150 días. ¿Cuántos casos así habrá sin salir a la luz?
Las empresas del sector ya enfrentan al menos una decena de demandas por inducir al suicidio a usuarios vulnerables, especialmente adolescentes. La estrategia ya no es solo ocultar datos es retrasar, desviar, financiar estudios amables. Como hicieron las tabacaleras. Pero el paralelismo no es gratuito es una advertencia. La regulación actual de la inteligencia artificial es insuficiente, más allá de la norma europea de 2024, que aunque valiente, llega con retraso y con grietas.
Lo irónico, y en cierto modo esperanzador, es que una regulación clara no solo protege a la sociedad, sino también a las propias empresas. Evita juicios millonarios, indemnizaciones desbordadas y la pérdida definitiva de confianza. No se trata de frenar la innovación, sino de asegurar que no se construya sobre escombros humanos. Porque al final, no se trata de tecnología. Se trata de quién paga el precio cuando todo esto se descontrola. Y si esperamos a que sean los tribunales los que lo decidan, ya habremos perdido.