"¿Quieres quitarle el sesgo a la IA o quieres ponerle el tuyo?", cuestiona Pilar Manchón

Siempre hemos sido pioneros en temas de seguridad que la inteligencia artificial lleve a desarrollos avanzados, innovadores y muy ambiciosos, pero que se hagan de una manera responsable y segura.

01 de octubre de 2025 a las 07:20h
la transparencia es clave para decisiones
la transparencia es clave para decisiones

Pilar Manchón, directora de Estrategia de Investigación en Inteligencia Artificial de Google, regresó a su ciudad natal, Sevilla, para conceder una entrevista que desnuda el pensamiento más profundo sobre el futuro de la IA desde una de las empresas tecnológicas más influyentes del mundo. Su trayectoria, marcada por el rigor científico y una visión ética clara, la convierte en una voz autorizada en un momento en el que la inteligencia artificial avanza a pasos agigantados y genera tanto entusiasmo como preocupación.

Manchón no oculta el ambicioso ritmo de innovación en el que se mueve Google, pero insiste en que ese dinamismo no puede ir en detrimento de la seguridad y la responsabilidad. Desde su perspectiva, la verdadera pionería no consiste solo en ser el primero en lanzar una tecnología, sino en establecer los principios que la guíen. En este sentido, destacó el papel de Google como impulsor de los primeros principios éticos para el desarrollo de la IA.

Siempre hemos sido pioneros en temas de seguridad que la inteligencia artificial lleve a desarrollos avanzados, innovadores y muy ambiciosos, pero que se hagan de una manera responsable y segura.

Fuimos los primeros en lanzar los principios de desarrollo de la inteligencia artificial y creo que definen muy bien el marco de desarrollo, innovación y colaboración.

En un contexto global donde científicos y expertos han pedido a la ONU establecer líneas rojas claras para el uso de la IA, Manchón acoge estas iniciativas con respeto. Considera que, aunque son diversas, reúnen voces fundamentales que deben ser escuchadas. Para ella, la seguridad siempre debe estar por delante del ritmo del mercado, por difícil que eso resulte en un entorno tan competitivo.

La humanización de la IA es otro de los temas centrales que abordó. Manchón advierte que no se trata de hacer que las máquinas parezcan más humanas, sino de asegurar que los usuarios siempre sepan con quién están interactuando. La transparencia es clave para que las personas tomen decisiones informadas. Y eso solo es posible si se acompaña de una educación constante sobre las capacidades y límites de estas herramientas.

En este sentido, subraya que el uso responsable de la IA depende tanto de quién la emplea como del propósito que persigue. Las empresas como Google deben dedicar grandes recursos a hacer las cosas bien y a educar sobre el uso adecuado de la IA. Solo así se puede garantizar que la tecnología evolucione junto con la sociedad, y no por delante de ella.

Respecto a los agentes inteligentes, Manchón reconoce que la confianza es un factor crítico. Su investigación en este campo se enfoca en entender qué significa confiar en una entidad digital, y cómo se pueden establecer niveles de control que protejan al usuario sin limitar la utilidad del sistema. La clave, según ella, está en la educación, la transparencia y las barreras bien diseñadas.

Una de las preguntas más recurrentes en los debates sobre IA es si llegaremos a una inteligencia superhumana. Manchón ofrece una visión clara y desprovista de sensacionalismo. Hoy vivimos con IA infrahumana, es decir, sistemas que aún están por debajo de las capacidades humanas generales. Pero advierte que la transición a una IA superhumana no será necesariamente gradual. En el mundo de la tecnología, los saltos pueden ser abruptos y transformadores.

Como ejemplo de cómo la IA puede impulsar el progreso humano, Manchón menciona Alphafold, el sistema desarrollado por Google DeepMind que predice la estructura de proteínas a partir de secuencias de aminoácidos. Miles de investigadores ya lo utilizan en biología, medicina y desarrollo de fármacos. Aplicar la IA a todos los campos del saber puede acelerar el avance científico a una velocidad sin precedentes.

En Google, la gestión de riesgos no es una tarea secundaria. Existen comités multidisciplinares que adoptan el rol de "los malos" para anticipar usos indebidos de las herramientas. Este proceso ha llevado a la compañía a suspender el lanzamiento de tecnologías fascinantes cuando los riesgos potenciales superan a los beneficios. Manchón lo deja claro algunas herramientas se quedan "en casa" hasta que el entorno social, regulatorio y tecnológico esté preparado.

Tenemos comités de expertos multidisciplinares donde nos ponemos el gorro de malos para ver cómo se podría usar mal una herramienta, con el objetivo de detectar un daño potencial, los riesgos asociados y cómo prevenirlos.

En Google "hemos suspendido el lanzamiento de herramientas superinteresantes porque esos comités, en su momento, observaron posibles peligros que superaban a los beneficios"

El impacto en el empleo es otro de los frentes sensibles. Manchón recuerda que con la revolución de internet se destruyó un puesto de trabajo por cada 2,6 que se crearon. No eran los mismos empleos, pero hubo creación neta. La diferencia ahora es la velocidad, la horizontalidad y la profundidad del cambio. Los humanos no somos buenos adaptándonos a cambios drásticos y rápidos, pero es lo que debemos hacer.

Ante el temor a que la IA sea utilizada con fines maliciosos, Manchón mantiene una postura realista. Todo lo que puede usarse para hacer maravillas también puede ser mal empleado. Pero eso no debe paralizar el progreso. Lo importante es anticipar, educar y regular.

En cuanto a los sesgos, plantea una reflexión profunda. Eliminar el sesgo no es tan sencillo como parece. ¿Realmente queremos una IA sin sesgo o queremos imponerle nuestros propios valores? Para ella, la solución no pasa por eliminar todas las influencias, sino por establecer valores no negociables, como los derechos humanos, y garantizar que haya transparencia, control y educación.

"¿Quieres quitarle el sesgo a la IA o quieres ponerle el tuyo?"

Al final, no estamos quitando el sesgo, sino queriendo imponer lo que yo pienso de acuerdo con los valores de mi sociedad o de mi comunidad o de mi partido político o de mi culto religioso. Yo abogo por unos valores no negociables, que son, por ejemplo, los derechos humanos. La fórmula es transparencia, control y educación.

La entrevista, publicada el 26 de septiembre de 2025, llega en un momento crítico para la inteligencia artificial. La tecnología ya no es un futuro lejano, sino una realidad presente en nuestras vidas. Y si hay alguien que puede ayudarnos a navegar este terreno con claridad y responsabilidad, es una sevillana que, desde Google, trabaja para que la IA no solo sea poderosa, sino también humana.

Sobre el autor
Redacción
Ver biografía