martes, 7 de mayo de 2013

PROHIBAMOS LAS MÁQUINAS ASESINAS HIJAPUTAS

Puede parecer una broma, pero la Comisión de Derechos Humanos de las Naciones Unidas ha presentado un informe en el que, madre mía, sugiere que los así llamados LARS (de "lethal autonomous robotics") deben ser regulados antes de que se conviertan, según creen, en las armas del futuro. De hecho, este punto se debatirá en la reunión del 29 de mayo que la Comisión mantendrá en Génova.
 
Su tabaco, gracias



El autor del informe indica que existen cinco países (Estados Unidos, Reino Unido, Japón, Corea del Sur e Israel) que cuentan o contarán próximamente en sus arsenales con máquinas bélicas completamente autónomas, o por lo menos semi autónomas. ¿Y qué puñetas es una máquina autónoma en este contexto? Pues aquella que puede seguir y ejecutar sus propios objetivos sin que medie la intervención humana. Y según lo aparecido en prensa, a día de hoy de podemos contar con algunos cacharros que cuentan con esta característica tan maja.
 
 
Un ejemplo es el Sistema de Combate Phalanx desarrollado por Raytheon para los cruceros de la clase Aegis de la Marina de Estados Unidos (por cierto, la armada española cuenta con este tipo de naves) que por lo visto detecta, sigue y toma las medidas necesarias contra aviación y misiles enemigos con un elevado grado de autonomía. Más ejemplos: el dron (avioneta no tripulada) Harpy israelí, que realiza tareas antiradar; el dron Taranis de Reino Unido, que posee capacidad ofensiva y puede elegir blancos por su cuenta; o el Samsung SGR-A1 de Corea del Sur (¡joder, la misma compañía que produce los putos smartphones que usa hasta el Tato!), una especie de ametralladora-robot instalada en la Zona Desmilitarizada que también puede reconocer y atacar blancos a su albedrío.
 
Ejemplo de máquina letal en acción
 
 
 Vale, no son terminators con forma humanoide y tenebrosos ojos rojos de robot asesino, sino aviones o ametralladoras a las que han instado un cerebro mecánico de lo más torpe, pero según el informe, cuando se trata de matar gente: Las decisiones de vida o muerte en un conflicto armado quizá requieran compasión e intuición. Los humanos quizá posean esas cualidades, pero los robots definitivamente no (la traducción es mía). En el informe de marras se reconoce que por lo mismo estos aparatos no se dejarían llevar por emociones humanas más controvertidas como el pánico, la ira, el ansia de venganza o los prejuicios. No sé, a mí me suena a humanitarismo iodiota: si pensamos que los robots son malos porque pueden matar a la gente sin que se lo ordene una persona, ¿qué debemos pensar de las minas que en cualquier campo mutilan o despedazan a críos muchos años después de que alguien las plantara allí? Aún más: ¿por qué debemos preocuparnos por los robots asesinos, y no por el hecho de que a veces hay malditas guerras y los seres humanos nos matamos unos a otros con mucho gusto? ¿Hay una diferencia de grado moral en que te mate un dron que va a su bola con respecto a que lo haga un enemigo humano con un machete?
 
Pero el caso es que ya en noviembre de 2012 las Comisión de Derechos Humanos, junto con expertos en robótica e inteligencia artificial de la Universidad de Harvard, indicaron que debía haber una moratoria sobre el desarrollo, uso y venta de estos artefactos diabólicos hasta el momento es que existiera una legislación internacional al respecto. Y no nos olvidemos de una plataforma ciudadana contra los "killer robots" que recientemente ha hecho actos de concienciación en Londres.
 
De modo que PROHIBAMOS LAS MÁQUINAS ASESINAS HIJAPUTAS!

No hay comentarios:

Publicar un comentario