La historia que indicó que un drone controlado por Inteligencia Artificial mató a su operador durante una simulación
Viernes 02 de
Junio 2023

El coronel Tucker Hamilton había relatado la semana pasada unos supuestos hechos que se volvieron virales
La supuesta historia tenía todos los atractivos: un drone guiado por su propia inteligencia (artificial) había desobedecido las órdenes que le habían dado como misión y decidió seguir adelante e incluso matar al operador del ejército. Aunque planteada originalmente en un escenario de simulación, era tentadora, aunque irreal.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Con información de
Infobae
Medicamentos para jubilados: cuotas sin interés y reintegros de hasta el 50%
Ante la caída en el consumo de remedios por el ajuste en los ingresos, las entidades financieras activaron agresivas promociones para financiar gastos de farmacia. El mapa de descuentos para jubilados y clientes bancarios.
Techint evalúa presentar un recurso antidumping contra la llegada de tubos de la India
El grupo industrial sostiene que la decisión de adquirir los insumos a la firma Welspun perjudica a la producción local y al empleo industrial, y analiza recurrir al Estado por presunta competencia desleal
Cuál es el factor clave que explica por qué el riesgo país quedó cerca de perforar los 500 puntos
El indicador de JP Morgan se ubica en torno a las 513 unidades y puede reabrir la puerta a los mercados internacionales para Argentina. La variable esencial que potencia la baja

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Nota22.com: Febrero. Temporada XII
Conducen: Maxi Romero y Carlos Renna
LO MÁS VISTO
Pullaro: "Hay que bajar la edad de imputabilidad, quien comete delitos sabe lo que hace"
El gobernador se manifestó a favor de bajar la edad de punibilidad en los menores de edad. Dijo que su mirada cambió desde que fue ministro de Seguridad
Nueva evidencia indica que la obesidad y la hipertensión pueden ser una causa directa de la demencia
Investigadores de Dinamarca y Reino Unido identificaron que el exceso de peso y la presión arterial alta están vinculadas al desarrollo de trastornos cognitivos. Por qué el hallazgo refuerza la importancia de las estrategias de prevención en salud pública
Los riesgos geopolíticos ante los vaivenes de la administración de Donald Trump y una posible pérdida de independencia de la Reserva Federal (Fed) mantienen elevada la demanda del metal precioso.
El encuentro reunirá a más de 500 dirigentes sindicales y políticos. Buscan respaldar al triunvirato de la CGT en la antesala de la marcha y posterior paro contra la reforma.



