La historia que indicó que un drone controlado por Inteligencia Artificial mató a su operador durante una simulación
Viernes 02 de
Junio 2023
El coronel Tucker Hamilton había relatado la semana pasada unos supuestos hechos que se volvieron virales
La supuesta historia tenía todos los atractivos: un drone guiado por su propia inteligencia (artificial) había desobedecido las órdenes que le habían dado como misión y decidió seguir adelante e incluso matar al operador del ejército. Aunque planteada originalmente en un escenario de simulación, era tentadora, aunque irreal.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Con información de
Infobae

LO QUE NADIE CUENTA
Lo que nadie dice: el Frente "Unidos" que lidera Pullaro perdió en las ciudades más grandes de la provincia de Santa Fe
Si se pudiera hacer una comparación (como modo de explicar los resultados del comicio) por volumen poblacional: Pullaro festeja ganar en Jujuy, La Rioja, Misiones, etc., perdiendo en Buenos Aires, Mendoza, Córdoba y CABA
YPF subió 3,5% los precios de sus combustibles, en un día muy complicado para su valor en Bolsa
Además, la petrolera con mayoría estatal puso en marcha el plan para venta nocturna con descuento y autoservicio.
El durísimo arranque de julio: la lista de todos los aumentos que se vienen y golpean tu bolsillo
Julio arranca con una ola de aumentos. Suben los alquileres un 66,1%, los colectivos, los colegios privados, las prepagas, la nafta y los servicios.

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Segmentos del discurso de Pullaro que, para algunos, hizo recordar a Alberto Rodríguez Saa
LO MÁS VISTO
Lo que nadie dice: el Frente "Unidos" que lidera Pullaro perdió en las ciudades más grandes de la provincia de Santa Fe
Si se pudiera hacer una comparación (como modo de explicar los resultados del comicio) por volumen poblacional: Pullaro festeja ganar en Jujuy, La Rioja, Misiones, etc., perdiendo en Buenos Aires, Mendoza, Córdoba y CABA
En diálogo con Nota22.com TV el abogado Eugenio Malaponte lanzó durísimas críticas contra el gobernador Maximiliano Pullaro y el intendente Pablo Javkin.
El representante argentino ante la OEA exigió a la liberación del gendarme Nahuel Gallo en Venezuela
Nahuel Gallo lleva más de medio año detenido, tras ser acusado por el gobierno de Maduro de "ser parte de un plan desestabilizador". El embajador Carlos Cherniak reiteró el reclamo en la reunión ordinaria del Consejo Permanente de la OEA.
El decreto de Trump fue impugnado y suspendido por los tribunales de distrito de Maryland, Massachusetts y el estado de Washington.