Lyndon Drake no es un nombre habitual en los titulares de tecnología, pero su voz debería ser más escuchada. No viene de Silicon Valley ni de un laboratorio de robótica. Viene de los bancos de inversión, de las aulas de teología y ahora, de los pasillos de la Universidad de Oxford, donde trabaja en uno de los debates más urgentes de nuestra era cómo evitar que la inteligencia artificial se convierta en una fuerza ciega, desatada de cualquier brújula moral.
Antes de dedicarse a la ética de la IA, Drake movía millones como banquero en Barclays Capital durante la crisis de Lehman Brothers, un periodo en el que los mercados se tambalearon y muchos perdieron todo. Luego, en un giro que suena casi cinematográfico, se convirtió en archidiácono de la Iglesia Anglicana Maorí, una figura de liderazgo espiritual en Nueva Zelanda. Hoy, esa mezcla inusual de experiencia financiera, teológica y académica le permite ver la IA con una perspectiva que pocos comparten ni como un simple producto tecnológico ni como una amenaza apocalíptica, sino como un fenómeno profundamente humano, con implicaciones morales que no podemos ignorar.
Un juramento para los hacedores de algoritmos
En Oxford, Drake ha liderado el desarrollo del "Oxford Oath for AI Practitioners", un compromiso voluntario que aspira a convertirse en una especie de juramento hipocrático para ingenieros y científicos de la inteligencia artificial. No es una ley, no tiene sanciones legales, pero pretende algo más profundo cambiar la cultura del sector. El bien común debe prevalecer sobre la eficiencia técnica, dice el manifiesto. No se trata de frenar la innovación, sino de guiarla.
No es un freno a la innovación, sino una brújula para que la IA genere riqueza sostenible sin sacrificar valores - Lyndon Drake, investigador de la Universidad de Oxford
El juramento no impone reglas rígidas, pero sí cuestiones obligatorias. Por ejemplo, los profesionales deben reflexionar sobre cómo su creación transformará a los usuarios, no solo técnicamente, sino ética y emocionalmente. Uno de sus principios más contundentes los seres humanos tienen un valor moral superior al de cualquier entidad artificial. No es una declaración religiosa, sino una defensa de la dignidad humana frente a la tentación de tratar a las máquinas como si tuvieran alma.
Drake lo dice con claridad "Ese es un marco conceptual peligroso. Hemos asumido que el valor de una persona está ligado a su capacidad, especialmente en el ámbito del lenguaje. Que un ordenador sea bueno en matemáticas no lo hace humano ni lo convierte en un dios. Con los sistemas conversacionales tendemos a otorgarles un estatus de persona, pero no debemos tratar como dioses a cosas que simplemente son poderosas".
¿Y si la IA nos vuelve más humanos?
La ironía es que esta tecnología, diseñada para imitar la inteligencia humana, puede acabar distorsionando lo que significa ser humano. Drake lo advierte si equiparamos valor con capacidad, estaremos negando la dignidad de quienes, por enfermedad, discapacidad o edad, no cumplen ciertos parámetros. Una persona con discapacidad severa tiene una dignidad inmensa aunque sus capacidades sean limitadas. Esa es una verdad que la tecnología no puede medir, pero que debe respetar.
El lenguaje es otro campo minado. Hasta hace poco, la IA era buena con los números, pero torpe con las palabras. Ahora, los chatbots conversan con fluidez, escriben poemas, consuelan y aconsejan. Algunos ya usan chatbots para preguntar lo que nunca se atreverían a decir a un terapeuta o un líder religioso. Drake no lo rechaza "Los chatbots tienen algo positivo siempre son pacientes y amables, algo que a los humanos nos cuesta. Pero es una amabilidad compleja, de las que siempre te dicen que eres bueno, cuando a veces necesitamos escuchar lo contrario".
Y eso, advierte, puede volvernos más débiles. Si solo escuchamos lo que queremos oír, perderemos la capacidad de enfrentar la verdad incómoda, esa que nos hace crecer. La IA puede ayudarnos a comprendernos mejor, pero también puede alimentar nuestras ilusiones.
Ética sin leyes, pero con peso
¿Puede un juramento voluntario tener impacto real en una industria impulsada por ganancias y velocidad? Drake cree que sí. "Un juramento se realiza a través de la conciencia individual y de la comunidad. No dicta leyes, pero crea un ethos. Si ambos firmamos, podemos cuestionarnos mutuamente si nuestras acciones contradicen el compromiso".
No se trata de sustituir la regulación, sino de complementarla. Para Drake, la sociedad necesita tanto el marco legal como el Reglamento Europeo de IA como un consenso moral que legitime el uso de estas tecnologías. "Queremos algo parecido al juramento hipocrático de los médicos. Hay miles de profesionales que trabajan entre bastidores y quieren hacer el bien, pero no saben cómo hacerlo. El objetivo es incorporar la deliberación moral en su práctica diaria".
El juramento aún está en fase de revisión. Ya ha generado interés en grandes compañías tecnológicas, aunque no todas lo verán con buenos ojos. Pero Drake insiste "Esto no es una amenaza a la innovación. Es una invitación a redefinirla. Queremos una vía para desarrollar una IA que sea, ante todo, buena y útil".
El mayor peligro no es la máquina. Somos nosotros
Para Drake, el mayor riesgo de la IA no es la superinteligencia ni el apocalipsis robótico. Es el desempleo masivo, por su probabilidad y su impacto. "No solo por el dinero, sino también porque vinculamos nuestra identidad al trabajo. Integrar ese cambio en nuestra concepción del valor personal será muy difícil".
Pero aún más preocupante es otro fenómeno "Mi mayor preocupación es que se están creando sistemas diseñados, implícita o explícitamente, solo para captar nuestra atención en lugar de servir a un fin humano mayor. Si su único objetivo es secuestrar nuestro tiempo, terminarán por degradar lo más valioso que tenemos como humanidad".
Drake lleva 30 años en el mundo de la inteligencia artificial. Ha visto promesas incumplidas, crisis tecnológicas y avances inesperados. "Siempre hemos tenido la esperanza de que la solución esté a la vuelta de la esquina. Aunque siempre parece escaparse un poco, creo que estamos muy cerca de resolver la mayoría de las categorías de problemas, si bien no todos los casos concretos".
Pero resolver problemas técnicos no es suficiente. La verdadera prueba será si somos capaces de construir una IA que no solo sea inteligente, sino también humana.