Primera ley de la Robótica : Prohibir robots asesinos antes de que sea demasiado tarde

Imagen

En su sección LABS  de esta semana, CNN publica un trabajo del profesor Noel Sharkey  relacionado con el peligro latente de utilizar robots en los conflictos bélicos. 

Noel Sharkey es Profesor de Inteligencia Artificial y Robótica y Profesor de Relaciones Públicas en la Universidad de Sheffield del Reino Unido y Presidente del Comité Internacional para el Control de Armas Robot .

Aquí el artículo en español:          (Artículo en su idioma original da clic aquí )

(CNN) – A medida que las guerras son cada vez más automatizadas, debemos preguntarnos hasta dónde queremos delegar la responsabilidad a las máquinas. ¿Dónde queremos trazar esa línea?

Los sistemas de armas han evolucionado durante miles de años y siempre ha habido intentos de oponerse. Pero eso no significa que debamos sentarnos y aceptar nuestro destino y entregar la responsabilidad final de ¿A quién matar? a las máquinas?

Durante los últimos meses se ha producido un debate creciente sobre el uso de armas robot totalmente autónomas: robots armados que, una vez puestos en marcha pueden seleccionar sus propios objetivos y los matan sin intervención humana.

El profesor Noel Sharkey

“Simplemente no deberían conceder a las máquinas la decisión sobre quién vive o quién muere.”
Profesor Noel Sharkey, Presidente de ICRAC

Algunos han argumentado que los robots podrían ser más precisos en el campo de batalla que los soldados humanos y salvar más vidas civiles. Pero esto es una especulación basada en supuestos sobre la evolución futura de hardware y software. No es más que “Hopeware” – desde la década de 1950, la Inteligencia Artificial ha avanzado a paso de tortuga en comparación con lo que se había pronosticado.

Otros argumentan que incluso si los robots podrían ser más precisos en ciertas circunstancias restringidas en algún momento desconocido en el futuro, simplemente no deberían concederle a las máquinas la decisión sobre quién vive o quién muere.

En este punto, no podemos confiar ahora mismo en que las máquinas tienen la facilidad independiente de respetar el derecho internacional. Los sistemas actuales de detección no están a la altura. E incluso si las máquinas tienen los mecanismos adecuados de detección todavía faltarían los componentes vitales de la conciencia en el campo de batalla y el razonamiento de sentido común para tomar decisiones sobre quién y cuándo es apropiado para matar.

Los robots no tienen la conciencia para decidir si golpear un blanco es proporcional a la ventaja militar esperada. No hay ningún indicador para esto. Gran parte de la guerra es arte y no ciencia. Un comandante militar debe tomar una decisión cualitativa sobre el número de víctimas civiles que pueden ser arriesgados para lograr un objetivo militar concreto. Y ese comandante puede ser considerado responsable.

Un robot no tiene la conciencia moral de rendir cuentas. Algunos podrían argumentar que el comandante que envía un robot a misión sería responsable (último punto de contacto). Pero eso podría ser injusto, ya que podría ser culpa del programador de la misión, el fabricante o una de las muchas empresas pequeñas que proporcionan componentes. Tal vez deberían ser el personal de alta dirección o los responsables políticos que tuvieron la idea de usar robots. O el dispositivo podría haber sido manipulado o hackeado en la cadena de suministro industrial o incluso por daños en combate. Los análisis Forenses son extremadamente difíciles con tales dispositivos tan complejos.

“¿Hay alguien que teniendo en cuenta lo autónomo de estas armas podría desestabilizar la seguridad mundial y desencadenar guerras no intencionales? ”   Noel Sharkey, Presidente de ICRAC

Sin embargo, una reciente directiva del Departamento de Defensa EE.UU. (noviembre de 2012) da luz verde a la investigación y desarrollo de sistemas de armas autónomas durante la presentación de una ruta prudente para su despliegue.

Esto se confirma a partir de la culminación de los mapas militares de carreteras de EE.UU. que datan de 2002 y se trata de un mal movimiento. Se envía el mensaje equivocado a otras naciones. A medida que la nación militarmente más avanzado del planeta, los EE.UU. tiene la oportunidad de tomar la iniciativa para detener esta evolución.

Gracias a la utilización de aviones no tripulados por parte de EEUU, más de 70 países han adquirido la tecnología en una nueva carrera armamentista. Simplemente es de poco criterio pensar que no van a hacer lo mismo con las armas autónomas. ¿Alguien está pensando en cómo un enemigo pueda explotar las debilidades de las armas robóticas con suplantación de identidad, piratería informática o mala dirección?

¿Alguien está considerando cómo los programas informáticos desconocidos interactuaran cuando existan los enjambres de robots? ¿Alguien está teniendo en cuenta que las armas autónomas podrían desestabilizar la seguridad mundial y desencadenar guerras no intencionales?

En abril de este año en Londres, un grupo de ONG prominentes pondrá en marcha una gran campaña de la sociedad civil a “Stop Killer Robots”. Ellos están buscando un nuevo tratado legalmente vinculante de preventiva internacional para prohibir el desarrollo y despliegue de armas robot completamente autónomos.

El objetivo es evitar que estas armas caigan en los arsenales de los ejércitos del mundo, mientras que todavía quede una oportunidad. Una vez que existan grandes inversiones nacionales en esta tecnología, puede ser demasiado tarde.

¿Crees que las armas robot autónomas deberían prohibirse?

(Puedes leer el artículo en su idioma original dando clic aquí )

Deja tus comentarios a continuación.

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s