Jueves 28 de marzo 2024 Contacto

Cómo es la campaña mundial para detener el avance de los robots asesinos




27/02/2020 - 09:27:06
Infobae.- Se conocen como robots asesinos a las armas aut�nomas dise�adas para realizar ataques a humanos o territorios ocupados por humanos. Pueden ser drones, tanques, aviones u otros dispositivos que, potenciados por inteligencia artificial, sean capaces de matar sin que haya intervenci�n humana en este proceso.

�Cu�l es la implicancia del uso de estas m�quinas para matar? �Qu� podr�a ocurrir si se siguen desarrollando estas herramientas letales? Este mi�rcoles 26 de febrero se llev� a cabo una conferencia de prensa, en el Centro Cultural de la Ciencia, en Buenos Aires, organizada por La Campa�a para Detener a los Robots Asesinos (Campaign to Stop Killer Robots), donde se abordaron estas tem�ticas.

La Campa�a para Detener a los Robots Asesinos, que se form� en 2012, es una alianza de organizaciones no gubernamentales (ONG) que trabaja para prohibir las armas completamente aut�nomas y mantener un control humano sobre el uso de la fuerza. Est� conformada por 140 organizaciones no gubernamentales en 61 pa�ses, que trabaja para prohibir preventivamente el uso de armas aut�nomas.

En la conferencia hubo un panel integrado por Jody Williams (Premio Nobel de la Paz de 1997), Laura Nolan (ingeniera de software), Sylvie Ndongmo (representante por �frica de la Liga Internacional de Mujeres por la Paz y la Libertad - WILPF-), Vanina Mart�nez (investigadora en el Instituto UBA-CONICET de Ciencias de la Computaci�n) y Mar�a P�a Devoto (Coordinadora de la Red de Seguridad Humana en Latinoam�rica y el Caribe, SEHLAC).

�La cuesti�n fundamental es preguntarse por qu� los seres humanos creen que est� bien darle a una m�quina la decisi�n de matar a un ser humano�,reflexion� Williams. Y a�adi�: �Est�n diciendo que los sistemas automatizadas son parte de la tercera revoluci�n en la guerra. �Queremos vivir con la amenaza de robots asesinos?�.

Williams hizo hincapi� en el hecho de que crear m�quinas inteligentes capaces de matar est� moralmente mal. Por otra parte subray� que aquellos pa�ses que lideran el mundo y pueden accedera estas armas letales aut�nomas podr�an verse beneficiados por esto pero que la situaci�n podr�a ser muy diferente para aquellos pa�ses que est�n del otro lado de la batalla, los eventuales enemigos. Esto propiciar�a mayor desigualdad de condiciones.

M�s all� de la cuesti�n moral est� el aspecto t�cnico. Seg�n explic� la ingeniera Laura Nolan las armas aut�nomas no son fiables. El software es desarrollado por medio de modelos de aprendizaje autom�tico pero los modelos hoy en d�a no son capaces de entrenar a las m�quinas para que entiendan contextos tan cambiantes como pueden darse en distintos entornos b�licos, ni para tener una idea cabal de situaciones que requieren la aplicaci�n de conceptos �ticos y morales.

�Se le puede, por ejemplo ense�ar a la m�quina que ataque a cualquier persona que se encuentra excavando en la zona porque esa persona puede estar excavando para poner dispositivos explosivos, �pero qu� pasa si est� excavando para instalar un sistema de riego? La m�quina no notar�a esa diferencia y podr�a disparar?�, ejemplific�.

Estas problem�ticas tambi�n podr�an ocurrir si una m�quina que fue entrenada y puesta a prueba en un contexto se emplea en otra situaci�n. As� como hoy en d�a los sistemas de aprendizaje autom�tico funcionan bien en contextos que no muestran grandes variaciones (a nivel de la estructura), como puede ser el lenguaje o identificaci�n de im�genes, la situaci�n es muy diferente si se contemplan las variantes que pueden ocurrir en contextos b�licos.


�El software se basa en un modelo de categorizaci�n, le falta razonamiento, entender contexto, tomar reglas abstractas y aplicarlas a una situaci�n en concreto�, profundiz� al ser consultada por Infobae sobre este tema.

�Un error habitual es pensar que el sistema de aprendizaje autom�tico contin�a aprendiendo pero eso no ocurre. El modelo no cambia. Una vez que se dise�o y cerr�, no cambia�, a�adi� Mart�nez.

Los sistemas de aprendizaje autom�tico est�n regidos por algoritmos, f�rmulas matem�ticas que se nutren de datos que les proporciona la persona que los dise�� y esos datos pueden ser fotos, videos, por ejemplo. Y en funci�n de eso, las m�quinas aprenden a identificar patrones.

Tambi�n, a partir de esos aprendizajes, algunos sistemas son capaces de crear fotos o videos nuevos, como ocurre con la tecnolog�a detr�s de lo deep fakes, por ejemplo. Pero las m�quinas est�n muy lejos de ser capaces de identificar sutilezas, comprender contexto o tener una idea cabal de cuestiones morales que intervienen o deber�an intervenir a la hora de realizar un ataque.


�El dinero debe desplazarse de la guerra hacia la paz. Por eso es importante prohibir estos robots asesinos que representan una amenaza para �frica, Latinoam�rica y el mundo en general, analiz� Ndongmo.

Tambi�n analiz� la dimensi�n de g�nero en este sentido.�La armamentizaci�n tecnol�gica, la militarizaci�n tienen un impacto directo en las mujeres y ni�as porque son herramientas para perpetuar la violencia�, subray� Ndongmo .

En este sentido dijo que en todas las guerras, las mujeres, ni�as y otros grupos minoritarios o considerados d�biles son siempre los m�s afectados con lo cual, el avance de las armas y los conflictos b�licos siempre tiene un impacto mayor en esos grupos.

Williams, por su parte, cerr� la conferencia instando a la Argentina y otros pa�ses de la regi�n a tomar un papel de liderazgo en la lucha en contra de las armas aut�nomas. �Se podr�a hacer una zona libre de robots�, dijo. Y remarc� que se podr�a ser un primer paso para lograr tratados de alcance internacional.

En el plano internacional, unos 30 estados ya solicitaron la prohibici�n de este tipo de armas, 80 pa�ses expresaron su preocupaci�n y miles de expertos en rob�tica e inteligencia artificial se comprometieron a no trabajar en el dise�o y desarrollo de este tipo de dispositivos.

Estimados lectores: recuerden que estas noticias las pueden encontrar en nuestro Canal de Whastapp al momento de su publicación.

Sigue el canal de Hoybolivia.com en WhatsApp:
whatsapp.com/channel/0029Va8B7PQ3GJOyC41B2Q1a

Noticias Recientes de Virales

Copyright © Hoybolivia.com Reservados. 2000- 2024