4 ene 2022

ESTO PASA… DESAPERCIBIDO

 

 

 

 

 

ESTO PASA…

DESAPERCIBIDO

 

 

 

Los robots asesinos no son de ciencia ficción. Hay más presión para prohibirlos

 

Tras una reunión reciente de la ONU en la que se debatió la regulación de estas armas letales, han aumentado los pedidos para proscribirlas.

 

 

 

Un vehículo robótico de combate en el campo de misiles de White Sands, en Nuevo México, en 2008 Credit...Defense Advanced Research Projects Agency/Carnegie Mellon, vía Associated Press

 

Publicado 24 de diciembre de 2021

Adam SatarianoNick Cumming-Bruce y

¿La razón detrás del interés? 

 

Los robots asesinos —drones, armas y bombas que deciden por su cuenta, con cerebros artificiales, si van a atacar y matar— y lo que se debe hacer, si se llega a hacer algo, para regularlos o prohibirlos.

 

Aunque en algún momento solo formaban parte de películas de ciencia ficción como la serie de Terminator y Robocop, los robots asesinos, conocidos en términos más técnicos como Sistemas de Armas Autónomas Letales, se han inventado y probado a un paso acelerado y con poca supervisión

 

Además, se han usado algunos prototipos en conflictos reales.

 

La evolución de estas máquinas es considerada un evento trascendental para los conflictos armados, similar a la invención de la pólvora y las bombas nucleares.

 

Este año, por primera vez, una mayoría de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales (CCW, por su sigla en inglés) señaló que buscaba restricciones para los robots asesinos

 

Sin embargo, se les opusieron los miembros que están desarrollando estas armas, en particular Estados Unidos y Rusia.

 

La convención del grupo terminó el viernes 17 de diciembre tan solo con una vaga declaración respecto a considerar posibles medidas que fueran aceptables para todos. 

 

La Campaña para Detener a los Robots Asesinos, un grupo de desarme, comentó que el resultado “no estuvo a la altura del rigor de la situación”.

 

A veces conocida como la Convención sobre Armas Inhumanas, la CCW es un esquema de reglas que prohíben o restringen las armas que se considera que provocan un daño innecesario, injustificable e indiscriminado, como los explosivos incendiarios, los láseres cegadores y las bombas trampa que no distinguen entre combatientes y civiles. 

 

La convención no tiene ninguna disposición para los robots asesinos.

 

La Convención sobre Ciertas Armas Convencionales reunida en Ginebra el viernes 17 de diciembre. Credit...Fabrice Coffrini/Agence France-Presse — Getty Images

 

Aunque las opiniones sobre una definición exacta difieren, en general son consideradas armas que toman decisiones con poca, o ninguna, participación de seres humanos

 

Las rápidas mejorías en la robótica, la inteligencia artificial y el reconocimiento de imágenes están posibilitando ese tipo de armamento.

 

Los drones que Estados Unidos ha usado ampliamente en Afganistán, Irak y otros lugares no son considerados robots porque los operan personas, quienes eligen los blancos y deciden si deben disparar.

 

Para los responsables de planear las guerras, las armas prometen mantener a los soldados fuera de peligro y tomar decisiones más rápido que los humanos, al darles más responsabilidades en el campo de batalla a sistemas autónomos como los drones sin piloto y los tanques autónomos que deciden de manera independiente cuándo atacar.

 

Sus críticos arguyen que en términos morales es repugnante encargarles la toma de decisiones letales a máquinas, sin importar la sofisticación tecnológica. 

 

¿Cómo una máquina puede diferenciar entre un adulto y un niño, un combatiente con una bazuca y un civil con una escoba, un combatiente hostil y un soldado herido o que se está rindiendo?

 

“En esencia, a nivel ético, a la sociedad le preocupa que los sistemas de armas autónomas sustituyan a los humanos al momento de tomar decisiones de vida o muerte con sensores, software y procesos mecanizados”, dijo en la convención de Ginebra, Peter Maurer, presidente del Comité Internacional de la Cruz Roja y un adversario manifiesto de los robots asesinos.

 

Antes de la conferencia, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de Harvard pidieron que se adopte un acuerdo jurídicamente vinculante que exija el control humano en todo momento.

 

“Los robots carecen de la compasión, la empatía, la misericordia y el juicio necesarios para tratar a los seres humanos con humanidad, y no pueden entender el valor inherente de la vida humana”, argumentaron los grupos en un documento informativo para apoyar sus recomendaciones.

 

Una protesta en Berlín, en 2019, de la Campaña para Detener a los Robots Asesinos Credit...Annegret Hilse/Reuters

 

Otros afirmaron que las armas autónomas, en lugar de reducir el riesgo de guerra, podrían hacer lo contrario: proporcionar a los antagonistas formas de infligir daño que minimicen los riesgos para sus propios soldados.

 

“Los robots asesinos producidos en masa podrían reducir el umbral de la guerra al sacar a los humanos de la cadena de muerte y liberar máquinas que podrían atacar a un objetivo humano sin ningún humano en los mandos”, dijo Phil Twyford, ministro de desarme de Nueva Zelanda.

 

En general, para los expertos en desarme, la conferencia era considerada como la mejor oportunidad hasta el momento para idear mecanismos que regularan, o prohibieran, el uso de los robots asesinos conforme la convención.

 

Fue la culminación de años de debate de un grupo de expertos a los que se les pidió que identificaran los desafíos y las posibles estrategias para reducir las amenazas de los robots asesinos

 

Sin embargo, los expertos ni siquiera pudieron llegar a un acuerdo en cuestiones básicas.

 

Algunos, como Rusia, insisten en que todas las decisiones sobre los límites deben ser unánimes, lo cual veta de inmediato a quienes se oponen.

 

Estados Unidos arguye que las leyes internacionales actuales bastan y que prohibir la tecnología de las armas autónomas sería prematuro. 

 

El principal delegado de Estados Unidos en la convención, Joshua Dorosin, propuso un “código de conducta” no vinculante para el uso de los robots asesinos, una idea que los defensores del desarme desestimaron al considerarla una táctica dilatoria.

 

El ejército estadounidense ha invertido mucho en inteligencia artificial, trabajando con los mayores contratistas de defensa, como Lockheed Martin, Boeing, Raytheon y Northrop Grumman. 

 

El trabajo ha incluido proyectos para desarrollar misiles de largo alcance que detectan objetivos en movimiento basándose en la radiofrecuencia, drones enjambre que pueden identificar y atacar un objetivo, y sistemas automatizados de defensa de misiles, según las investigaciones de los opositores a los sistemas de armas.

 

Un dron Reaper de la Fuerza Aérea de Estados Unidos en Afganistán en 2018. Estos aviones no tripulados podrían convertirse en armas letales autónomas en el futuro. Credit...Shah Marai/Agence France-Presse — Getty Images

 

La complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres, afirmó Maaike Verbruggen, experta en tecnologías emergentes de seguridad militar del Centro de Seguridad, Diplomacia y Estrategia de Bruselas. 

 

Dijo que la falta de transparencia sobre lo que los diferentes países están construyendo ha creado “miedo y preocupación” entre los líderes militares que deben mantenerse al día.

 

“Es muy difícil hacerse una idea de lo que está haciendo otro país”, dijo Verbruggen, que está haciendo un doctorado sobre el tema. 

 

“Hay mucha incertidumbre y eso impulsa la innovación militar”.

 

Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, comentó que la “carrera armamentista de los sistemas de armas autónomas ya está en marcha y no se suspenderá pronto”.

 

Sí. 

 

Aunque la tecnología se vuelve cada vez más avanzada, ha habido reticencia a usar las armas autónomas en combate por temor a los errores, comentó Gady.

 

“¿Los comandantes militares confían en el juicio de los sistemas de armas autónomas? En este momento, la respuesta sin duda es ‘no’ y seguirá siéndolo en el futuro próximo”, agregó.

 

El debate sobre las armas autónomas llegó hasta Silicon Valley. 

 

En 2018, Google señaló que no iba a renovar un contrato con el Pentágono después de que miles de sus empleados firmaron una carta en la que protestaron en contra de la participación de la empresa en un programa que empleaba inteligencia artificial para interpretar imágenes que podían ser utilizadas para la elección de los blancos de los drones. 

 

La empresa también creó nuevos lineamientos éticos que prohíben el uso de su tecnología para armas y vigilancia.

 

Otras personas creen que Estados Unidos no está haciendo lo suficiente para competir con sus rivales.

 

En octubre, el exdirector de software de la Fuerza Aérea, Nicolas Chaillan, le comentó a The Financial Times que había renunciado porque consideraba débil el progreso tecnológico dentro del ejército estadounidense, en particular el uso de la inteligencia artificial

 

Chaillan señaló que los cuestionamientos éticos detienen a los responsables de la toma de decisiones políticas, mientras que países como China perseveran.

 

No hay muchos ejemplos verificados en el campo de batalla, pero los críticos apuntan hacia unos pocos incidentes que muestran el potencial de la tecnología.

 

En marzo, investigadores de la ONU señalaron que en Libia, fuerzas con respaldo del gobierno libio habían usado un “sistema de armas autónomas letales” en contra de milicianos. 

 

Un dron llamado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes mientras huían de un ataque con misiles, según el informe, el cual no aclaró si los drones habían estado bajo el control de algún ser humano.

 

En 2020, en la guerra en el Alto Karabaj, Azerbaiyán combatió contra Armenia con drones de ataque y misiles que merodeaban en el aire hasta que detectaban la señal de un blanco asignado.

 

Un funcionario armenio mostrando lo que supuestamente son drones derribados durante los enfrentamientos con las fuerzas de Azerbaiyán el año pasado. Credit...Karen Minasyan/Agence France-Presse — Getty Images

 

Muchos partidarios del desarme comentaron que el resultado de la convención había endurecido la que describieron como una resolución para presionar a favor de un nuevo tratado en los próximos años, similar a los que prohíben las minas terrestres y las bombas de racimo.

 

Daan Kayser, experto en armas autónomas en PAX, un grupo defensor de la paz con sede en los Países Bajos, comentó que la ausencia de acuerdos en la convención para negociar siquiera sobre los robots asesinos fue “una señal muy clara de que la CCW no está a la altura de la tarea”.

 

Noel Sharkey, experto en inteligencia artificial y presidente del Comité Internacional para el Control de las Armas Robóticas, señaló que la reunión había demostrado que era preferible un nuevo tratado a más debates en convenciones.

 

“Había un sentido de urgencia en el lugar de que, si no se avanzaba un poco, no estábamos preparados para seguir por este camino” comentó Sharkey.

 

John Ismaycolaboró con reportería.

Adam Satariano es reportero de tecnología y está radicado en Londres. @satariano

Nick Cumming-Bruce informa desde Ginebra, donde cubre las Naciones Unidas, los derechos humanos y las organizaciones humanitarias internacionales. Anteriormente, fue reportero del sudeste asiático para The Guardian durante 20 años y jefe de la oficina de Bangkok de The Wall Street Journal Asia.

Rick Gladstone es editor y periodista en la sección Internacional y está radicado en Nueva York. Ha trabajado en el Times desde 1997, cuando comenzó como editor en la sección Negocios. @rickgladstone

 

 

fuente

"THE NEW YORK TIMES", EE.UU., 24.12.2021 


Puede ser una imagen de texto que dice "¿ALGUNO DE USTEDES DIJO: Yo Yo MÁTENSE LOS NO TAMPOCO UNOS A LOS OTROS ? N"


No hay comentarios:

Publicar un comentario

¡BIENVENIDOS, GRACIAS POR ARRIMARSE!

Me atrevo a interpelar, por sentirlos muy cercanos, por más que las apariencias parecieran indicar lo contrario; insisto en lo de la cercanía, por que estamos en el mismo bote – que hace agua - , tenemos pesares, angustias y problemas comunes, recién después vienen las diferencias.

La idea es dialogar, hablar de nuestras cosas, hay textos que nos proporcionan la información básica – no única-, solo es una propuesta como para empezar. La continuidad depende de Ustedes, un eventual resultado adicional depende de todos.La idea es hablar desde un “nosotros” y sobre “nuestro futuro” desde la buena fe, los problemas exigen soluciones que requieren racionalidad, honestidad intelectual que jamás puede nacer desde la parcialidad, la mezquindad, la especulación.

Encontraran en “HASTA EL PELO MÁS DELGADO ...”, textos y opiniones sobre una temática variada y sin un orden temporal, es así no por desorganizado, sino por intención – a Ustedes corresponde juzgar el resultado -.Como no he vivido en una capsula, ya peino canas, tengo opiniones y simpatías, pero de ninguna manera significa dogmatismo, parcialidad cerrada.Soy radical (neto sin adiciones de letras ninguna), pero no se preocupen no es contagiosos … creo, solo una opción en el universo de las ideas argentinas. Las referencias al radicalismo están debidamente identificadas, depende de Ustedes si deciden “pizpear” o no.

El acá y ahora, el nosotros y el futuro constituyen la responsabilidad de todos.Hace más de cuatro décadas, en mi lejana secundaria, de una pasadita que nos dieron por Lógica, recuerdo el Principio de Identidad, era más o menos así: “Si 'A' no es 'A', no es 'A' ni es nada”, por esos años me pareció una reverenda huevada, hoy lo tomo con mucho más respeto y consideración. Variaciones de los mismo: no existe un ligero embarazo; no se puede ser buena gente los días pares.

Llegando al Bicentenario – y aunque se me tildé de negativo- siento que como pueblo, desde 1810, hemos estado paveando … a vos ¿qué te parece?. En algún momento perdimos el rumbo y ahí andamos “como pan que no se vende. Cuentan que don Ángel Vicente Peñaloza decía: “Como ei de andar, en Chile y di a pie, cuando hay de que no hay cunque, cuando hay cunque no hay deque”.

De tanto mirarnos el, ombligo y su pelusa, tenemos un cerebro paralitico, cubierto de telarañas y en estado de grave inanición. Padecemos una trágica concurrencia de factores que nos impiden advertir – debidamente -, este, nuestro triste presente y lo que es peor aún, nos va dejando sin futuro.

A los malos, los maulas, los sotretas, los villanos, los mala leche, los h'jo puta, los podemos enfrentar pero … ¿qué hacemos con los indiferentes, con los que solo se meten en sus cosas, y no advierten que el nosotros y el futuro por más que sean plurales son cosas personalisimas? Y luego dicen que quieren a sus hijos y su familia; ¡JA!, ¡doble JA!, ¡triple JA! (il lupo fero).

¡¡EL REY ESTÁ EN PELOTAS!!, dijo el niño de la calle, hijo de padre desconocido y madre ausente, ese niño es mi héroe favorito.

¿QUÉ ES PEOR LA IGNORANCIA O LA INDIFERENCIA?

¡¡NO LO SÉ Y NO ME IMPORTA!!

El impertinente, el preguntón es nuestra esperanza, nuestro “Chapulin Colorado”.

Mis querido “Chichipios” - diría don Tato- no olviden que además de ver el vaso medio vació o medio lleno, hay que saber que contiene – sino que le pregunten a Socrates - ¡Bienvenidos! Adelante. Julio


Mendoza, 11 de noviembre de 2009.