• El Gobierno va por la reducción de la jornada laboral: este martes se comenzará a debatir en la Comisión de Legislación del Trabajo de la Cámara de Diputados
La historia que indicó que un drone controlado por Inteligencia Artificial mató a su operador durante una simulación
Viernes 02 de Junio 2023
El coronel Tucker Hamilton había relatado la semana pasada unos supuestos hechos que se volvieron virales
La supuesta historia tenía todos los atractivos: un drone guiado por su propia inteligencia (artificial) había desobedecido las órdenes que le habían dado como misión y decidió seguir adelante e incluso matar al operador del ejército. Aunque planteada originalmente en un escenario de simulación, era tentadora, aunque irreal.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Durante una conferencia en Londres la semana pasada, el coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, compartió un supuesto percance que fue malinterpretado: describió una simulación de vuelo en la que un drone de IA encargado de destruir una instalación enemiga rechazó la orden final del operador humano de abortar la misión.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, afirmó Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de la Royal Aeronautical Society, que se llevó a cabo del 23 al 24 de mayo. “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”.
Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Sin embargo, el viernes Hamilton aclaró en un comunicado a los organizadores de la conferencia que se “expresó mal” durante la presentación y que la “simulación de drones de IA deshonestos” era un “experimento mental” hipotético fuera del ejército. Todo se trató, pues, de un malentendido.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, escribió Hamilton.
Agregó que la Fuerza Aérea de los EEUU no ha probado ninguna IA armada de la manera descrita en su charla, ya sea en ejercicios reales o simulados.
Además, en una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación: “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
Lo cierto es que el ejército de EEUU ha estado experimentando con la IA en los últimos años. En 2020, un avión de combate F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados, parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).
Y a fines del año pasado, según informó el medio Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo por desarrollar un nuevo avión autónomo para fines de 2023.
El inquietante diálogo que muestra hasta dónde puede llegar el poder de la Inteligencia Artificial
Con el auge de la Inteligencia Artificial (IA), el mundo se ha planteado interrogantes sobre su alcance y si, en lugar de mejorar la vida de los humanos, supone un peligro para la sociedad.
Recientemente, el prestigioso escritor e historiador israelí Yuval Noah Harari (autor de Sapiens) calificó a la IA como “una amenaza especialmente grave para las democracias”. “No sé si la humanidad podrá sobrevivir”, advirtió.
El Congreso de los Estados Unidos fue escenario del siguiente diálogo el martes pasado:
– ¿Podría la Inteligencia Artificial crear una situación en la que un drone pueda seleccionar el objetivo por sí mismo?
– Creo que no deberíamos permitirlo.
– Pero, ¿se puede hacer?
– Claro.
La inquietante conversación se dio entre el senador republicano Lindsey Graham y el CEO y fundador de OpenAI, Sam Altman, durante la última audiencia sobre IA celebrada en el Congreso estadounidense.
La respuesta de Altman es escalofriante. En una audiencia de mayo en el Congreso, defendió a su ChatGPT, pero admitió la necesidad de que se regule su desarrollo y sus posibles usos.
Con información de Infobae
Además, insistió en el discurso reivindicatorio de la soberanía de las Islas Malvinas, contrario a declaraciones públicas de miembros de La Libertad Avanza y Juntos por el Cambio.
La candidata presidencial de Juntos por el Cambio recorrió el barrio Tupac Amaru, que fundó Milagro Sala, junto a Gerardo Morales.
El gobernador bonaerense Axel Kicillof estuvo en la inauguración de Hospitales PAMI en Escobar, Hurlingham, Ituzaingó y Lanús, junto a Sergio Massa.

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
NOTA22.COM TV
NOTA22.COM TV
LO MÁS VISTO
El Consorcio de Médicos de Buenos Aires expresó su "total rechazo" a las ofensas del candidato a presidente por LLA hacia el Sumo Pontífice y subrayó que esas expresiones "sólo ponen de manifiesto la actitud de intolerancia y desconocimiento" de un aspirante a la presidencia.
Sabrina Maturana tenía 29 años, cinco hijos y un embarazo cercano a los nueve meses cuando fue acribillada por sicarios.
De visita por Buenos Aires y en el marco de los anuncios de los CDC de Estados Unidos sobre las nuevas vacunas monovalentes actualizadas para el COVID, el experto Rolando Pajón conversó en exclusiva con Infobae. Los próximos pasos del gigante pharma norteamericano: los sueros panrespiratorios y las terapias personalizadas contra un grupo de enfermedades oncológicas, autoinmunes y cardiológicas, entre otras
Un día como hoy hace 155 años nacía Luis Agote, el argentino cuyo descubrimiento científico revolucionó las transfusiones de sangre. Su método fue clave, pero él se negó a patentarlo: eran los tiempos donde miles morían diariamente por las heridas en las trincheras de la Primera Guerra Mundial, y el médico lo cedió a los países en conflicto porque sabía que ayudaría a salvar millones de vidas