Los robots asesinos como
"Terminator" son inevitables
BBC Mundo - viernes, 23 de
mayo de 2014
Un robot tanque se mueve
rápidamente sobre los matorrales, se detiene repentinamente y su ametralladora
dispara con una precisión devastadora.
Parece una película de ciencia
ficción pero es la escena de un video sobre un robot que está siendo probado
por el ejército de Estados Unidos.
Una muestra más de cómo la
ciencia ficción de ayer se ha vuelto una realidad en los escenarios de combate
modernos.
El tanque en miniatura, de solo
un metro de largo, es uno más de los vehículos robotizados utilizado por los
militares de todo el mundo.
Más de 90 países operan estos
sistemas. Una industria que según la consultora IHS valdrá US$98.000 millones
en los próximos diez años.
"Estados Unidos sigue siendo
el principal mercado y el motor principal detrás de esta industria, pero muchos
países están mejorando sus propias capacidades en el campo de los sistemas no
tripulados", señala Derrick Maple de IHS.
La empresa constructora del robot
tanque, Qinetiq, ha fabricado una amplia gama de robots diseñados para misiones
de reconocimiento o vigilancia, o para internarse en zonas plagadas de trampas,
que impliquen un riesgo mayúsculo para enviar tropas.
Armado con un lanzador de granada
o una ametralladora, la última versión del robot tanque o MAARS por sus siglas
en inglés, es ciertamente letal, pero no independiente.
Decisiones propias
MAARS depende de un soldado que
lo controla a distancia y solo tiene un rango de autonomía de 800 metros.
Sin embargo, muchos críticos
temen que la unión entre avances en el campo de la robótica y la
miniaturización, con un progreso en el campo de la inteligencia artificial,
terminen creando un Terminator o, más probable, un precursor de esa criatura
popularizada por Hollywood.
Otros sostienen que esa clase de
desarrollo en el campo de la inteligencia artificial llevará muchas décadas, y
que en el futuro más próximo siempre será necesaria la presencia de un humano
para monitorear los sistemas.
Pero actualmente algunas de estas
armas se encuentran en uso tienen el poder de decidir si atacan o no un
objetivo.
Tomemos como ejemplo la nave no
tripulada israelí Harpy.
Sus fabricantes, IAI, la llaman
el arma autónoma que puedes "lanzar y olvidar", aunque en jerga
militar también se la conoce como "munición merodeadora".
Una vez lanzada detrás de las
líneas enemigas, Harpy -básicamente un misil guiado con alas- sobrevuela el
área hasta que encuentra un objetivo adecuado (en su caso, radares enemigos).
Cuando un radar es detectado, es
el drone el que decide si lanza un ataque o no.
Harpy solo es lanzado si un
operador considera que puede haber radares enemigos en la zona, pero es
probable que esta clase de automatización se vuelva más común.
Diferenciar aliados de contrarios
Por ahora el obstáculo real para
un uso más amplio de lo que algunos llaman "robots asesinos" es
lograr que puedan distinguir entre amigos y enemigos.
"Un tanque es bastante
diferente a una camioneta, pero un tanque enemigo y un tanque amigo pueden
verse bastante parecidos para una máquina", dice el experto en Defensa del
Centro para una Nueva Seguridad Americana Paul Scharre.
"Los militares no querrán desplegar
algo en el campo de batalla que pueda accidentalmente volverse en contra de sus
propias fuerzas", añade.
Lo mismo piensa el general Larry
James, vicejefe de personal de inteligencia de las Fuerzas Aéreas de EE.UU.
"Estamos muchos, muchos
años, si no décadas, de estar seguros que un sistema de inteligencia artificial
puede hacer ese tipo de discriminación".
A pesar de estas dificultades, el
plan del Departamento de Defensa para los próximos 25 años publicado en 2013
sostiene que "los sistemas no tripulados siguen siendo muy promisorios
para las misiones de guerra del futuro".
El plan indica que, una vez que
se superen las dificultades técnicas, se pueden lograr rápidos avances
desconocidos hasta el momento.
Se estima que Washington gastará
en la próxima década en el mercado de vehículos áereos no tripulados (UAVs por
sus siglas en inglés) tres veces más que China, el segundo gran inversor en
esta área.
Des-inventar
Uno de los científicos más
avanzados en este campo es Sanjiv Singh, profesor de robótica de la Universidad
Carnegie Mellon y jefe ejecutivo de la compañía Near Earth Autonomy.
Su equipo, que trabaja para el
ejército estadounidense, ha desarrollado con éxito un helicóptero no tripulado
autónomo.
Usando lasers ultra sensitivos,
la nave crea mapas del terreno, decide cuál es la aproximación más segura y
elige los sitios para aterrizar sin necesidad de un piloto o un operador
remoto.
Ahora, el equipo de Singh trabaja
en helicópteros autónomos que podrían llevar tropas o evacuar heridos o
víctimas.
Según el científico, esto
implicaría un gran salto en relación a la tecnología actual de los drones, que
son comandados a partir de información derivada del sistema de posicionamiento
global (GPS por sus siglas en inglés).
"Si uno comete un error en
el plan de vuelo, estas naves chocan felices contra una montaña, si ésta se
encuentra en su camino".
El analista independiente de
Defensa Paul Beaver opina que, con todo el dinero que está siendo invertido en
el sector, sistemas de armamento autónomo serán una realidad.
"Es como las armas
nucleares, uno no las puede des-inventar".
Pero su preocupación principal no
son los estados considerados marginales.
"Creo que estamos a una
década de que el crimen organizado tenga este tipo de sistemas y los venda a
grupos terroristas".
"Computadoras asesinas"
A comienzos de este mes,
delegados de 117 países se encontraron en la sede de las Naciones Unidas en
Ginebra, Suiza, para analizar una prohibición en este tipo de sistemas
automatizados letales.
Aunque la tecnología para crear
"robots asesinos" no existe aún, activistas sostienen que el mundo
necesita actuar desde ahora.
"Hay tanta gente que cree
que esto es inevitable, y hasta deseable, que tenemos que hacer algo ya para
evitarlo", dice Stephen Goose, de la organización Human Rights Watch.
Pero al solo prestar atención a
los usos militares de naves no tripuladas, podemos perder noción de otra
amenaza propia de la sofisticada inteligencia artificial.
"Lo problemático es que
diseñamos algo que puede operar muy rápido y no siempre podemos predecir cómo
lo hará", explica Sean O'Heigeartaigh, del Centro de Estudios para Riesgos
Existentes de la Universidad de Cambridge.
En 2010, por ejemplo, algoritmos
de computadoras bursátiles contribuyeron a que, por unos instantes, miles de
miles de millones en acciones desaparecieran.
"Esto muestra que es muy
difícil poner un alto a estos procesos de toma de decisiones, porque estos
sistemas operan mucho más rápido que los humanos".
Por eso O'Heigeartaigh advierte
que el uso por parte de civiles de la inteligencia artificial puede ser más
peligroso que sus aplicaciones militares.
"Al no tratarse de
militares, no habrá la misma atención en cuestiones de seguridad y ética, y
puede ser que algo se salga de control, especialmente si uno diseña un
algoritmo que es capaz de mejorarse a sí mismo y rediseñar su propio
código".
En otras palabras, quizás no
debemos estar tan preocupados por robots asesinos, sino por computadoras
asesinas.
No hay comentarios:
Publicar un comentario