- EEUU a horas de una parálisis presupuestaria antes de Navidad
- EEUU retira oferta de recompensa por arresto de nuevo dirigente de Siria
- Daddy Yankee y su esposa llegan a un acuerdo sobre control de sus empresas
- Daddy Yankee enfrenta a su esposa en tribunales por supuesto desfalco millonario
- Colombia violó derechos de pueblo indígena con proyectos extractivos, concluye Corte IDH
- Trudeau cambia gabinete de Canadá en medio de amenazas de aranceles de Trump
- Poco a poco, la Fed se prepara para el impacto de la política económica de Trump
- Trump amenaza con aranceles si la UE no compra más gas y petróleo a EEUU
- El nuevo líder de Siria se reúne con una delegación de EEUU
- "Sigo vivo", bromea el rey Carlos III, que está en tratamiento contra el cáncer
- Al menos 75 muertos en Mozambique por el paso del ciclón Chido, según un nuevo balance
- Inflación repunta nuevamente en EEUU en noviembre a 2,4% en 12 meses
- Un bombardeo ruso en Kiev deja un muerto y daña varias misiones diplomáticas
- EEUU amenazado de parálisis presupuestaria a las puertas de la Navidad
- Gobierno español y sindicatos firman un acuerdo para reducir la jornada laboral
- Diplomáticos estadounidenses se reúnen con los nuevos dirigentes de Siria
- El exdirector del FMI Rodrigo Rato, condenado a 4 años de cárcel en España por delitos fiscales
- Un niño muere en Croacia en un ataque con cuchillo en una escuela
- España anuncia la compra de 25 aviones caza Eurofighter más
- Argentinos en el laberinto de un dólar 'barato' y con poca demanda
- España concede asilo al opositor venezolano Edmundo González
- Las señales tempranas sugieren que Trump 2.0 traerá de vuelta el caos
- Siete muertos en un motín en un penal del sureste de México
- Malasia reanudará la búsqueda del avión del vuelo MH370 desaparecido hace 10 años
- El auge de los detectives matrimoniales en India
- Diplomáticos de EEUU visitan Siria para reunirse con sus nuevos líderes
- Los acontecimientos clave en el mundo en 2024
- Gisèle Pelicot "no tiene miedo" de que los condenados por violarla recurran la sentencia
- Un ataque ruso con misiles deja un muerto y varios heridos en Kiev
- El presidente destituido de Corea del Sur, citado a declarar en el día de Navidad
- Xi Jinping preside los actos del 25º aniversario del regreso de Macao a China
- Fujimori, Sergio Mendes, Navalni, Maggie Smith... los principales decesos de 2024
- La guerra en Gaza priva a Belén de su alegría navideña
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.
Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.
Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.
"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".
A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.
Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.
- Juego de dominación mundial -
La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.
Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.
Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".
Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.
En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.
En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".
"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.
- ¿Eres un robot? -
Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.
En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".
Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.
A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.
En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.
Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.
A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".
D.Schneider--BTB