El investigador Lyndon Drake sostiene que el desarrollo de la inteligencia artificial debe ir acompañado de una reflexión ética profunda que incluya no solo criterios tecnológicos o económicos, sino también valores humanos y filosóficos.
Drake, quien actualmente trabaja en la Universidad de Oxford, impulsó junto con otros especialistas el llamado Oxford Oath for AI Practitioners, un compromiso voluntario que busca funcionar como una especie de juramento hipocrático para profesionales de la inteligencia artificial.
La propuesta pretende que ingenieros, científicos de datos y desarrolladores prioricen el bien común y la dignidad humana al diseñar sistemas de IA.
Un puente entre tecnología, dinero y teología
La trayectoria de Drake combina campos poco habituales: trabajó como banquero en Barclays Capital durante la crisis financiera provocada por la caída de Lehman Brothers y también ha desempeñado funciones religiosas como archidiácono de la Iglesia Anglicana Maorí.
Desde esa perspectiva, afirma que la inteligencia artificial plantea preguntas morales que la teología y la filosofía han debatido durante siglos.
Según el investigador, la relación entre lenguaje, significado e identidad —uno de los avances más recientes de la IA— ha sido objeto de reflexión durante generaciones por parte de filósofos y teólogos.
IA poderosa, pero no humana
Drake advierte que uno de los riesgos actuales es que las personas empiecen a tratar a los sistemas conversacionales como si fueran entidades humanas.
El investigador señala que el hecho de que una máquina sea capaz de mantener conversaciones complejas no la convierte en una persona ni en una autoridad moral.
“Con los sistemas conversacionales tendemos a otorgarles un estatus de persona, pero no debemos tratar como dioses a cosas que simplemente son poderosas”, explicó.
Un juramento inspirado en la medicina
El juramento que impulsa Drake busca crear una cultura ética dentro del sector tecnológico similar a la del juramento hipocrático en medicina.
Entre los principios del Oxford Oath se encuentra la idea de que los seres humanos poseen un valor moral superior al de cualquier sistema artificial y que la inteligencia artificial debe estar al servicio del bienestar humano.
El objetivo no es imponer reglas técnicas específicas, sino promover la reflexión moral en el diseño de tecnologías que impactan la vida cotidiana.
Riesgos de la inteligencia artificial
Drake considera que la IA traerá beneficios significativos, especialmente en áreas como la medicina, donde podría ayudar a detectar enfermedades antes de que se desarrollen.
Sin embargo, también advierte sobre riesgos como el desarrollo de armas autónomas, el uso de sistemas diseñados para capturar la atención de las personas o la pérdida de habilidades humanas si se delegan demasiadas decisiones a los algoritmos.
Para el investigador, uno de los mayores desafíos será el impacto en el empleo y en la identidad personal.
“Si la tecnología redefine el trabajo, también tendremos que replantearnos cómo entendemos el valor de las personas en la sociedad”, señaló.





