NOTA22.COM TV
CORTAN LA CIRCULACIÓN DEL PUENTE CARRETERO DESDE ESTE VIERNES Y NO SE SABE CUÁNDO SE HABILITARÁ DE NUEVO
Electrodos en el cerebro para paliar la anorexia

RFI | El Hospital del Mar en Barcelona está practicando una técnica experimental con electrodos en el cerebro para luchar contra los casos graves de anorexia. Esta técnica de neuro modulación ya se utiliza para trastornos como el Parkinson.

El profesor que fue llamado "loco y alarmista" por sus advertencias sobre la inteligencia artificial y que ha acertado en sus predicciones

Viernes 12 de Mayo 2023

"Algo increíble está sucediendo en el mundo de la inteligencia artificial, y no es del todo bueno", escribió hace seis meses Gary Marcus, una de las principales voces en el debate sobre la IA en la actualidad.
A su juicio, el lanzamiento de ChatGPT nos lleva al "momento Jurassic Park" de las máquinas: la posibilidad —como en la película de Steven Spielberg— de que la situación se salga de control.
 
"Cuando escribí este artículo, creo que la gente pensó que estaba loco o que era alarmista", dijo Marcus en una entrevista con la BBC.
 
Pero en 2023, empezaron a proliferar serios problemas con este tipo de inteligencia artificial: en marzo, en Bélgica, un hombre que hablaba frecuentemente con el chatbot Eliza, de la empresa Chai, se suicidó.
 
La esposa del hombre sostiene que el contacto con el programa lo llevó a quitarse la vida, y para el gobierno belga, el caso es "un precedente que debe tomarse en serio" y "el peligro del uso [de la inteligencia artificial] es una realidad que debe ser considerada".
 
Era un escenario posible descrito cuatro meses antes por Marcus en un artículo para la revista Wired: "¿Quizás un chatbot lastimará a alguien tan profundamente que la persona se verá impulsada a terminar con su vida? (...) En 2023, podemos ver nuestro primer asesinato por un chatbot".
 
"Creo que estos sistemas pueden ser muy destructivos. Y parte de la razón del potencial de destrucción es que no son confiables. Estos programas pueden inventar algo y decirle [al usuario] que es un hecho. Y también pueden ser usados por personas para ese fin", dice Marcus.
 
"Los sistemas de inteligencia artificial que tenemos ahora no están bien controlados. Todavía no es una situación terrible, pero la gente les está dando cada vez más poder. Y no sabemos qué pueden hacer esos sistemas en una situación determinada".
 
Siete predicciones sombrías
 
El año pasado, Marcus compiló "siete predicciones nefastas" sobre sistemas como ChatGPT, incluida que la versión más nueva del programa sería como un "toro en una tienda de porcelana, imprudente y difícil de controlar".
 
"Cometerá una cantidad significativa de errores alucinantes, en formas que son difíciles de predecir".
 
A fines de marzo, un caso extraño llamó la atención de los medios. Una persona le pidió a ChatGPT que nombrara a académicos involucrados en acoso sexual.
 
La lista mencionaba a un profesor de derecho estadounidense, Jonathan Turley. El programa dijo que Turley hizo comentarios sexualmente sugerentes a una estudiante durante un viaje a Alaska y trató de tocarla. En la respuesta se citaba como evidencia un informe de 2018 del Washington Post.
 
Pero nada de eso pasó: ni el viaje, ni el informe ni siquiera la acusación. Es como si el robot hubiera inventado la acusación.
 
Creando información poco precisa
 
OpenAI, la empresa detrás de ChatGPT, emitió un comunicado diciendo que el programa "no siempre genera respuestas precisas".
 
Para Marcus, "no tenemos ninguna garantía formal de que estos programas funcionen correctamente, incluso cuando hacen cálculos matemáticos".
 
"A veces son correctos, a veces no. La falta de control y fiabilidad son problemas que veo".
 
"Tu calculadora tradicional tiene garantizada una respuesta aritmética. Pero los grandes modelos de lenguaje no la tienen".
 
Se refiere al sistema detrás de ChatGPT, los LLM (modelos de lenguaje grande), que almacenan cantidades ingentes de datos y generan, a través de potentes algoritmos, respuestas de aproximación basadas en lo que ya han dicho los humanos.
 
En resumen: un loro ultrasofisticado, pero que no tiene idea de lo que está hablando y, a veces, "alucina", un término de la IA que designa una respuesta fuera de lo común, fuera de línea con las expectativas de los programadores.
 
"Los LLM no son tan inteligentes, pero son peligrosos", dice Marcus, quien también incluyó el aumento de los momentos alucinatorios de la IA en su lista de "predicciones oscuras".
 
Además de los generadores de texto, los programas que manipulan imágenes también evolucionan rápidamente.
 
Recientemente, una foto del papa Francisco con una chaqueta plateada, realizada con el programa Midjourney, dejó confundido a internet por unas horas: ¿era real esa imagen?
 
El episodio tuvo consecuencias inofensivas, pero fue una muestra del potencial para marcar el comienzo de una zona gris permanente entre los hechos y las falsificaciones.
 
"Si no tomamos medidas, estamos cerca de entrar en un ambiente de posverdad", dice el profesor de la Universidad de Nueva York.
 
"Eso hace que todo sea muy difícil para la democracia. Necesitamos sanciones para quienes produzcan desinformación masiva, exigir marcas de agua para identificar de dónde proviene la información y crear nuevas tecnologías para detectar falsedades. Así como hay un programa antivirus, necesitamos un software antidesinformación".
 
"El capitalismo no resolverá estos problemas"
 
Marcus, de 53 años, no se restringe al mundo académico. Le vendió una empresa a Uber y se convirtió en director de un laboratorio del departamento de inteligencia artificial del gigante de las aplicaciones de transporte. Dejó el cargo después de solo cuatro meses, en un momento en que la compañía enfrentaba acusaciones de mantener un entorno "tóxico".
 
Cuando se le consultó sobre si creía que el famoso mantra de Silicon Valley "muévete rápido y rompe cosas" y la competencia desenfrenada por los mercados fomentaban circunstancias peligrosas para el desarrollo de la inteligencia artificial, dice que "no es posible esperar que el capitalismo, por sí mismo, vaya a resolver estos problemas".
 
Defiende que las empresas están sujetas a regulación y cita el mercado de la aviación como ejemplo de que es algo necesario.
 
"La industria de las aerolíneas en la década de 1950 era un desastre. Los aviones se estrellaban todo el tiempo. La regulación era buena para la industria de las aerolíneas. Al final hizo que la industria de las aerolíneas desarrollara un mejor producto", dice.
 
"Dejar las cosas a las empresas no conduce necesariamente en la dirección correcta... Hay una razón para que existan los gobiernos, ¿verdad?".
 
Entendimiento con el "padrino de la IA"
 
La postura de cautela y de entusiasmo con desconfianza de Marcus por la rápida evolución de la IA no siempre sido bien recibida.
 
Su escepticismo ha sido objeto de burlas años atrás por parte de sus compañeros (principalmente en Twitter), pero la marea ha cambiado: varias personalidades en el campo de la IA han comenzado a adoptar un tono diferente.
 
Jeffrey Hinton, llamado el "padrino de la IA", anunció su salida de Google y dijo poco después que considera que los problemas de la inteligencia artificial son "quizás más urgentes que los del cambio climático".
 
"Hinton y yo tenemos puntos de vista diferentes sobre algunos aspectos de la inteligencia artificial. Mantuve correspondencia con él hace un tiempo, le expliqué mi posición y estuvo de acuerdo conmigo, lo cual no siempre es el caso. Pero el tema principal en el que estamos de acuerdo es el del control", dice.
 
"No estoy necesariamente de acuerdo con que la [IA] sea una amenaza mayor que el cambio climático, pero es difícil saberlo. Hay muchos datos disponibles para tratar de estimar los riesgos del cambio climático. Pero con la inteligencia artificial ni siquiera sabemos cómo calcular esos riesgos".
 
"Pero para mí, la posibilidad de que estas herramientas se utilicen para socavar las democracias es esencialmente del 100%. Ahora, no sabemos si existe la posibilidad de que los robots se apoderen del planeta. Es razonable que algunas personas se planteen en este escenario. Estamos construyendo herramientas muy poderosas. Debemos considerar estas amenazas".
Con información de BBC

NOTA22.COM

NOTA22.COM

Qué es la metformina, el fármaco que estudian los expertos para retrasar el envejecimiento

El fármaco actúa sobre cambios celulares, cromosómicos y moleculares asociados al paso de los años, lo que podría explicar sus beneficios. Los especialistas buscan aumentar la salud a la par de extender los años de vida

El Gobierno anunció que en abril pagará las jubilaciones en dos tramos

La Anses comunicó que el primer pago será el mismo haber que en marzo y que en un segundo pago se liquidará el aumento, más el bono de 70.000 pesos.

Lula da Silva y Emmanuel Macron repudiaron el veto a la candidatura de Corina Yoris en Venezuela: “No tiene explicación”

“Todos los adversarios tienen que ser tratados con las mismas condiciones”, aseguró el brasileño tras un encuentro con el francés

Suscribite!
Y recibí las noticias más importantes!
NOTA22.COM TV
Nota22.com

LO MÁS VISTO
Javier Milei confirmó que dará de baja los contratos de 70 mil empleados públicos
El Presidente agregó que está orgulloso de haber eliminado la obra pública: “Algo a lo que toda la gente de bien debería oponerse”. Fue en el foro de IEFA Latam. Por la mañana, el director del Departamento del Hemisferio Occidental del FMI reclamó revisar el plan de ajuste.
Martes 26 de marzo de 2024 - Los más difícil de creer: la realidad.
El líder del Frente Renovador cerró el congreso partidario de la semana pasada, pero parte de su discurso se conoció anoche. La recomendación a intendentes, los puntos de autocrítica y los pasos para reconstruir el peronismo.
Limay Biosciences busca la detección temprana del virus a partir de un kit de bajo costo. Los ensayos clínicos serán en la Facultad de Bioquímica de la UNR

arrow_upward