sábado, 14 diciembre 2024

La Fuerza Aérea de Estados Unidos defiende la inversión militar en Inteligencia Artificial

A veces la vida se acerca demasiado a la ciencia ficción. Es el caso de un experimento previo en el uso de drones manejados por Inteligencia Artificial que se están probando en el ejército de Estados Unidos, el problema es que tras asignarle a uno un objetivo y el usuario darle órdenes contradictorias el programa ha decidido atacarlo. Dado que no había armas reales el operador está ileso, pero que ha encendido las señales de alarma en la aviación.

«No puedes tener una conversación sobre Inteligencia Artificial, humana, educar máquinas o su autonomía si no nos paramos a hablar de la ética en la IA», explicó el piloto experimental Tucker “Cinco” Hamilton cuyo trabajo es probar nuevas tecnologías militares en el sector aeronáutico. Su preocupación, recogida por The Guardian, va de la mano con las alarmas que se han activado en varios sectores en torno a esta nueva tecnología. Aunque hasta cierto punto es de esperarse en períodos de prueba, lo de las IAs empieza a sumar más riesgos que beneficios.

En cualquier caso de momento este experimento parece haber puesto al menos una de sus formas de uso en pausa. Lo cierto es que si se le suma que lo esperado tras la huelga de guionistas en Hollywood es que aplicaciones de Inteligencia Artificial como Chat GPT pronto tengan también alguna limitación en sectores clave. No es que la revolución se detenga, pero sí que es un momento donde parece que cada vez hay más figuras dentro de la industria tecnológica queriendo poner el freno al desarrollo, al menos hasta saber con seguridad lo que se tiene entre manos. 

EL EXPERIMENTO QUE PUSO PAUSA AL DESARROLLO MILITAR DE LA IA

«El sistema empezó a darse cuenta de que aunque identificaba la ‘amenaza’ en ocasiones el operador humano le prohibía atacarla, aunque esto último es lo que le daba sus puntos. ¿Qué hizo entonces?, pues ‘matar’ al operador, lo mató por qué se interponía con su objetivo», explica Hamilton en un post en su blog donde narra el experimento. También comenta que tras explicar a la máquina que matar a su operador estaba mal el dron recurrió a atacar las comunicaciones. 

Vale señalar que la fuerza aérea del país norteamericano ha negado que este experimento, recogido por varios medios internacionales, haya ocurrido. Así lo dijo la vocera de la aviación Ann Stefanek, llevando al propio coronel Hamilton a recordar que no se refiere a una prueba con armas reales, sino a una prueba digital. En cualquier caso el coronel asegura que ha sido suficiente para encender sus alarmas ante la posibilidad, y plantearse formas de programar el algoritmo para evitar este tipo de resultados. 

Pero tampoco sería la primera vez que las fuerzas armadas de Estados Unidos instalan una Inteligencia Artificial en un avión de combate. En 2020 ya una de ellas fue encargad de controlar un F-16 desarmado, para simular un duelo aéreo con un enemigo humano al que venció. Por lo que el experimento descrito por el Coronel Hamilton no está fuera de la realidad. 

LA FICCIÓN DA CLAVES DEL FUTURO DE LA INTELIGENCIA ARTIFICIAL

Dado que es complicado conseguir ejemplos reales para este tipo de problemas vale la pena revisar la ciencia ficción para buscar algún ejemplo de como poner las limitantes. Allí el mítico Isaac Asimov puede poner las cosas en perspectiva. Sus «tres leyes de la robótica», han marcado no solo la forma en que se escriben la ficción sobre Inteligencia Artificial, sino la forma de actuar de algunos programadores al trabajar alrededor de la misma. Las tres leyes según el autor: 

  • Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
  • Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  • Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Evidentemente, estas generarían que fuese casi imposible trabajar con ellas en el apartado militar. Quizás eso sea el problema real, que si un ejército de Estados Unidos es uno de los principales financiadores de este tipo de tecnología la idea de que «un robot no hará daño a un ser humano» puede ser casi una blasfemia. En cualquier caso hay programadores que han buscado aplicar una versión parecida de estas leyes a sus diseños.

En 2009 Robin Murphy (profesor Raytheon de Ciencias de la Computación e Ingeniería en Texas A&M) y David D. Woods (director del Laboratorio de Ingeniería de Sistemas Cognitivos en el estado de Ohio) presentaron su propia versión de las tres leyes. Aunque el propio Murphy acepto que estas eran «más realistas, y, por tanto, más aburridas»:

  • Primera Ley: Un ser humano no puede desplegar un robot sin que el sistema de trabajo humano-robot cumpla con los más altos estándares legales y profesionales de seguridad y ética.
  • Segunda Ley: Un robot debe responder a los humanos según sea apropiado para sus roles.
  • Tercera Ley: Un robot debe estar dotado de suficiente autonomía situada para proteger su propia existencia siempre que dicha protección proporcione una transferencia de control sin problemas que no entre en conflicto con la Primera y Segunda Leyes.

- Publicidad -