06 de marzo de 2024
El observador permanente de la Santa Sede ante la ONU en Ginebra, Mons. Ettore Balestrero, reiteró la preocupación del Vaticano por el aumento del uso de armas dirigidas por la inteligencia artificial y el riesgo que conlleva darles “la última palabra” sobre la vida de las personas.
El prelado hizo esta advertencia ayer 4 de marzo durante los debates del Grupo de Expertos Gubernamentales sobre Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomas Letales (GEG LAWS por sus siglas en inglés), que se llevan a cabo en Ginebra (Suiza).
El GGE LAWS es una iniciativa de las Naciones Unidas creada en 2016 para revisar las regulaciones existentes sobre las armas autónomas, es decir, aquellas que por medio de sensores y software seleccionan sus objetivos sin intervención humana.
En su intervención, Mons. Balestrero citó el Mensaje del Papa Francisco para la Jornada Mundial de la Paz 2024, en el que señala que “la búsqueda de las tecnologías emergentes en el sector de los denominados ‘sistemas de armas autónomos letales’, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética”.
“Mirando el mundo que nos rodea, no podemos eludir las graves cuestiones éticas vinculadas al sector de los armamentos”, expresa el Santo Padre.
De acuerdo a Vatican News, el representante vaticano indicó en su discurso que “la urgencia de esta cuestión aumenta debido al amplio desarrollo y uso de drones armados, incluidos los drones kamikaze y de enjambre”.
Explicó que esto lleva a “una menor percepción de la devastación que causan y de la responsabilidad de su uso, contribuyendo a un enfoque aún más frío y distante de la inmensa tragedia de la guerra”.
En ese sentido, al profundizar en el aspecto ético, Mons. Balestrero recordó que “los sistemas de armas autónomos no pueden considerarse sujetos moralmente responsables”, pues “una máquina, por muy ‘inteligente’ que sea, sigue siendo una máquina”.
En cambio, “los seres humanos poseen una capacidad única de juicio moral y de toma de decisiones éticas que no puede ser reproducida por un complejo conjunto de algoritmos”.