El tiempo - Tutiempo.net

El G7 acuerda un código ético para el desarrollo de IA a nivel mundial

0


Compartí esta nota

Las principales potencias mundiales llegaron a un acuerdo sobre un conjunto de reglas internacionales para las empresas que desarrollan inteligencia artificial.

Las principales economías del mundo está trabajando para adoptar un marco normativo que garantice el desarrollo ético de la inteligencia artificial (IA).

El Grupo de los Siete (G7) anunció este lunes un nuevo acuerdo sobre un conjunto de principios rectores internacionales y un código de conducta para las empresas que desarrollan sistemas avanzados de IA, en un intento por abordar las preocupaciones sobre la privacidad y el riesgo de uso indebido de dicha tecnología.

Las economías que componen el G7, Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, junto con la Unión Europea, han estado discutiendo la necesidad de estándares internacionales para aprovechar la tecnología en medio de la rápida evolución de herramientas de IA generativa tales como ChatGPT.

El proceso de discusión comenzó en mayo, durante un foro ministerial llamado ‘Proceso de Hiroshima sobre IA’, y están concluyendo este lunes con la firma de un acuerdo satisfactorio, según informó la Comisión Europea en un comunicado oficial.

Código de conducta

El código de conducta consta de 11 principios rectores que brindarán orientación a las organizaciones que “desarrollan, implementan y utilizan sistemas avanzados de IA, como modelos básicos e IA generativa, para promover la seguridad y la confiabilidad  de la tecnología“, detalla el comunicado de la UE

El marco también incluye compromisos “para mitigar los riesgos y el uso indebido e identificar vulnerabilidades” sin frenar la innovación. Insta a las empresas a tomar medidas adecuadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, así como a abordar incidentes y patrones de uso indebido después de que los productos de IA hayan sido comercializados.

Para garantizar esto, fomenta el intercambio responsable de información, la notificación de incidentes y la inversión en ciberseguridad, “así como un sistema de etiquetado para permitir a los usuarios identificar el contenido generado por IA“, agrega la nota.

En este sentido, insta a las empresas del sector a publicar informes públicos sobre las capacidades, limitaciones, el uso y mal uso de los sistemas de IA, y también invertir en controles de seguridad sólidos.

Entre los riesgos que merecen atención, el G7 señaló los riesgos químicos, biológicos y nucleares, citando que los sistemas avanzados de inteligencia artificial pueden “reducir las barreras de entrada, incluso para actores no estatales, para el desarrollo, la adquisición o el uso de armas“, así como la facilitación de desinformación y amenazas a la privacidad.

Fuente: DiarioBitcoin


Comments are closed.