Open AI y otros gigantes de la inteligencia artificial acuerdan nuevos compromisos de seguridad

Open AI y otros gigantes de la inteligencia artificial acuerdan nuevos compromisos de seguridad

Más de una decena de las empresas punteras en tecnología se comprometieron a una mayor transparencia en el desarrollo de la inteligencia artificial y control sobre su uso.

Empresas líderes en el ámbito de la inteligencia artificial se reunieron en Corea del Sur, respondiendo al creciente alcance de la IA, y acordaron nuevos compromisos para garantizar un desarrollo seguro de estas tecnologías emergentes. Esta decisión fue anunciada por el gobierno británico a través de un comunicado oficial.

El acuerdo alcanzado por 16 empresas tecnológicas incluye al fabricante de ChatGPT OpenAIGoogle DeepMind y Anthropic. Se basa en un consenso para un desarrollo "seguro" de esta herramienta alcanzado en la primera cumbre sobre IA celebrada en Bletchley Park en el Reino Unido el año pasado.

Cada vez más empresas incorporan medidas regulatorias de la inteligencia artificial.

El acuerdo establece que las empresas de inteligencia artificial que no hayan divulgado cómo evalúan los riesgos asociados con esta tecnología deberán hacer públicas estas directrices. Además, se especificarán los peligros catalogados como "intolerables", así como los protocolos que las empresas tecnológicas implementarán para garantizar que no se sobrepase este umbral de riesgo.

"En los casos más extremos, las empresas se comprometieron a 'no desarrollar o a desplegar un modelo o un sistema', si las políticas de mitigación no pueden mantener los riesgos en un nivel tolerable", agregó el comunicado británico. Este umbral será definido con claridad en la próxima cumbre sobre IA que se celebrará en Francia en 2025.

Otros gigantes del sector que se sumaron a este convenio son las empresas estadounidenses Microsoft, Amazon, IBM y la matriz de Instagram, Meta, la compañía francesa Mistral AI y la china Zhipu.ai.