50.000 millones a la IA en 2025: ¿por qué el 70% del capital ignora salud y educación?

22 de febrero de 2026 a las 08:05h
50.000 millones a la IA en 2025: ¿por qué el 70% del capital ignora salud y educación?
50.000 millones a la IA en 2025: ¿por qué el 70% del capital ignora salud y educación?

En una videoconferencia desde Seattle y San Francisco, dos voces críticas con el discurso dominante sobre la inteligencia artificial se conectan con calma, como si estuvieran acostumbradas a hablar contra corriente. Emily M. Bender, lingüista de la Universidad de Washington, y Alex Hanna, investigadora del instituto DAIR, no vienen a denunciar el futuro. Vienen a desmontarlo. Su libro, recién publicado en España por Paidós, se llama sin rodeos La estafa de la IA. Más de trescientas páginas que no buscan asustar, sino preguntar. Preguntas simples, incómodas, necesarias.

¿Qué es lo que realmente estamos llamando IA?

Antes de entrar en el fondo del asunto, Bender y Hanna proponen un ejercicio de precisión lingüística. No llamarlo inteligencia artificial. Preferirían hablar de máquinas generadoras de contenidos sintéticos. El cambio no es solo semántico. Es ético. Porque al decir IA, damos por hecho que hay inteligencia, que hay comprensión, que hay intención. Y eso, según ellas, es precisamente la trampa.

"Te seremos sinceras la IA es una trampa, una estafa, un engaño que nos están vendiendo para llenar los bolsillos de determinadas personas." - Emily M. Bender, profesora de Lingüística Computacional en la Universidad de Washington y Alex Hanna, directora de investigación en DAIR

Bender, que acuñó el término loro estocástico para describir los grandes modelos de lenguaje, explica con claridad casi didáctica que estos sistemas no entienden nada. Solo manipulan patrones. Repiten, con una sofisticación estadística impresionante, lo que ya se ha dicho antes. No piensan. Adivinan. Y lo hacen tan bien que nos engañan. Porque el lenguaje es poderoso. Y porque, como humanos, estamos programados evolutivamente para buscar sentido en las palabras.

"Cuando lees algo, es fácil pensar que alguien agrupó en palabras las ideas que tenía y las escribió; que ese texto te llegó a ti y que tú descodificaste su significado. Pero eso no es lo que pasa en realidad." - Emily M. Bender

Lo hacemos por reflejo. Interpretamos. Damos intención al azar. Y cuando un modelo como ChatGPT o Gemini genera un párrafo coherente, nuestra mente salta a la conclusión errónea hay una mente detrás. Pero solo hay números. Solo hay cálculos. Solo hay datos reciclados.

La burbuja del 70%

Mientras esto sucede, los millones fluyen. Hanna recuerda una cifra reveladora en 2025, 50.000 millones de dólares, el 70% de toda la inversión en Norteamérica, se destinaron a la IA. No a salud. No a educación. No a transición energética. A máquinas que imitan el lenguaje.

"Más allá de la valía de esta tecnología, se están invirtiendo enormes cantidades de capital riesgo. En 2025, unos 50.000 millones de dólares, el 70% de toda la inversión en Norteamérica, se destinó a la IA. La publicidad ha sido constante." - Alex Hanna

La pregunta que surge no es solo técnica, sino política ¿por qué tanta fe? ¿Quién gana con esta narrativa? Bender lo dice sin tapujos se está vendiendo la IA en medicina, educación, derecho, ejército, bajo la promesa de una mejora de la productividad que rara vez se demuestra. Y cuando falla, los errores no caen sobre los desarrolladores, sino sobre las personas más vulnerables.

Los dos extremos del miedo

En el debate público, apenas hay espacio para matices. Solo dos bandos los que creen que la IA lo arreglará todo y los que creen que nos destruirá a todos. A Bender y Hanna les suena a farsa. Ambos extremos parten del mismo supuesto que la IA ya existe, que es inevitable, que es inminente. La diferencia está en el desenlace.

"A veces parece que, en el debate sobre la IA, solo hay dos posturas la de los doomers y la de los boosters. Nosotras argumentamos que son dos caras de la misma moneda." - Emily M. Bender

Los primeros, los entusiastas, hablan de tratar a la IA como a un niño que hay que guiar. Los aceleracionistas van más lejos creen que salvará al mundo. Los catastrofistas, por otro lado, llegan a proponer cosas como bombardear centros de datos. Dos escenarios apocalípticos, dos narrativas que, curiosamente, desvían la atención de lo que está pasando ahora el uso real de estas tecnologías, su sesgo, su impacto ambiental, su dependencia del trabajo humano invisible.

La sombra del pasado

Hanna señala algo más profundo, más incómodo. El sueño de la IA general, esa máquina que pueda hacer todo lo que hace un humano, no nació en un garaje californiano. Tiene raíces oscuras. Está ligado a proyectos eugenésicos del Reino Unido y a experimentos en EE UU que clasificaban a las personas por raza y supuesta inteligencia.

"El origen de la búsqueda de la IAG se basa en distintas pruebas que diferenciaban y clasificaban a las personas según su inteligencia. [...] Una vez que profundizamos en la teoría, entre comillas, en la que se basan los experimentos que persiguen la IA general, vimos que al menos dos de los autores eran conocidos eugenistas." - Alex Hanna

La inteligencia, como concepto, ha sido históricamente un arma de exclusión. Y ahora se intenta replicar en código. Sin cuestionar el modelo. Sin preguntar por qué queremos construir eso, ni para quién.

¿Y qué pasa con Hinton?

El caso de Geoffrey Hinton, el "padre de la IA generativa", que dejó Google para advertir del peligro existencial, también entra en el análisis. Su giro repentino fue noticia mundial. Pero Hanna lo mira con escepticismo. Su preocupación, dice, es con la humanidad en abstracto. Pero las consecuencias reales de la IA ya están afectando a los más desfavorecidos trabajadores precarizados en África que etiquetan contenidos violentos, comunidades marginadas que sufren sesgos en algoritmos de justicia o salud.

"Dice que nuestras preocupaciones son menos importantes porque afectan a poca gente, mientras que él se fija en el conjunto de la humanidad. Casualmente, esa poca gente son sobre todo pobres o negros." - Alex Hanna

Hay una ironía brutal los que más sufren los efectos de la IA ahora son los que menos aparecen en las advertencias apocalípticas.

Resistir es posible

¿Todo está perdido? No, dicen. Bender recuerda que el futuro no está escrito. La narrativa de la inevitabilidad es una de las herramientas más poderosas del poder tecnológico. "Bueno, no nos gusta, pero tenemos que aprender a vivir con ello". Eso, para ella, es resignación. Y no es aceptable.

"Creo que podemos hacerlo. [...] Yo, por ejemplo, trato de no usar sistemas automáticos de generación de texto. Creo que otro foco posible de resistencia está en los trabajadores de Silicon Valley." - Emily M. Bender

Hay espacio para la acción. Para la desobediencia técnica. Para el sindicalismo digital. Para decir esto no es neutral. Esto no es inevitable. Esto no es inteligencia.

El libro de Bender y Hanna no es una profecía. Es una invitación. A mirar con más cuidado. A cuestionar lo que parece obvio. A recordar que las máquinas no tienen intenciones, pero quienes las construyen sí. Y que, mientras nosotros discutimos si la IA nos salvará o nos matará, alguien ya está ganando dinero con lo que nosotros creemos.

Sobre el autor
Redacción
Ver biografía