- Al menos 30 muertos tras una explosión en una mina de carbón en Irán
- En micrófono abierto, Biden dice a líderes del Quad que China los está "poniendo a prueba"
- Trump rechaza propuesta de Harris para un segundo debate en octubre
- Trump dice que es "demasiado tarde" para otro debate con Harris en EEUU
- "Situación de emergencia" en localidad rusa tras bombardeo ucraniano de arsenales
- Preocupación y destrucción en el suburbio de Beirut bombardeado por Israel
- Zelenski lamenta que Ucrania aún no esté autorizada a usar armas de largo alcance en Rusia
- Defensa Civil de Gaza reporta al menos 21 muertos en bombardeo en una escuela con desplazados
- Bagnaia gana el esprint del GP de Emilia-Romaña y aprieta el Mundial de MotoGP
- Ucrania afirma que atacó dos depósitos militares en Rusia
- Arabia Saudita endurece su posición con Israel para evitar una guerra regional
- El Partido Laborista británico afronta su congreso anual entre críticas tras los primeros meses de gobierno
- Irán presenta un nuevo dron y un nuevo misil en un contexto de tensiones en Oriente Medio
- C. Tangana debuta como cineasta en San Sebastián con un documental flamenco
- Lando Norris vuela en la tercera tanda de ensayos libres del GP de Singapur
- Cate Blanchett y una intriga vaticana con Ralph Fiennes, protagonistas en San Sebastián
- Sri Lanka vota en primeras presidenciales desde el colapso económico
- Zelenski lamenta que Ucrania aún no tenga permiso para usar armas de largo alcance en Rusia
- El Servicio Secreto de EEUU reconoce fallas en el intento de asesinato de Trump
- Rastreando plásticos en una de las joyas protegidas de Canadá
- Un muerto, siete desaparecidos y más de 60.000 evacuados en Japón por las inundaciones
- Rebeldes indonesios liberan a un piloto neozelandés secuestrado hace más de año
- Más de 60.000 evacuados y un desaparecido en Japón por las inundaciones
- Los incendios forestales en Colombia siguen fuera de control y arrasan 9.000 hectáreas
- Biden abre su casa a los líderes de Australia, India y Japón para una cumbre de despedida
- Bagnaia partirá en la 'pole' en GP de Emilia-Romaña, Martín segundo
- Hezbolá anuncia que un segundo alto mando murió en el bombardeo israelí cerca de Beirut
- Liberan a una celebre defensora del medioambiente en Vietnam
Un equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.
El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.
OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.
De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.
"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.
El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.
El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.
Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.
La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.
En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.
La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.
Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.
Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.
Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.
El Consejo de administración será informado y podrá revertir las decisiones de la dirección.
K.Thomson--BTB