EEUU y UE presentarán borrador de código conducta

Estará abierto a empresas del sector de forma voluntaria.

(ANSA) - NUEVA YORK 31 MAY - Estados Unidos y la Unión Europea (UE) presentarán "en las próximas semanas" un "primer borrador de un código de conducta común sobre inteligencia artificial".
    Así lo anunció la vicepresidenta de la Comisión de la UE, Margrethe Vestager, y el secretario de Estado estadounidense, Antony Blinken, en una rueda de prensa al final del Consejo UE-EE.UU. sobre comercio y tecnología en Suecia.
    El código estará abierto a las empresas del sector "de forma voluntaria" y "a todos los países que compartan las mismas ideas", destacó Blinken.
    Las reglas anticiparán la entrada en vigor de la Ley de IA, el reglamento de la UE aún en negociación.
    La inteligencia artificial se está "desarrollando a una velocidad sorprendente" y se necesitan estándares comunes "para que la sociedad pueda confiar en lo que está pasando", subrayó Vestager.
    Precisó al mismo tiempo que el código de conducta permitiría a Bruselas y Washington "actuar de inmediato".
    Las normas contenidas en la Ley Europea de IA, ha vuelto a explicar, podrían entrar en vigor "en dos años y medio o tres en el mejor de los casos" y sería "obviamente demasiado tarde".
    En las conclusiones de la cumbre, Bruselas y Washington reafirmaron "su compromiso con un enfoque de la IA basado en el riesgo para promover tecnologías confiables y responsables".
    Subrayó que la "cooperación" en sus respectivos enfoques de la tecnología emergente "es esencial para promover la innovación responsable de la IA que respete los derechos y la seguridad y brinde beneficios acordes con los valores democráticos compartidos".
    "Los desarrollos recientes en IA generativa resaltan la escala de las oportunidades y la necesidad de abordar los riesgos asociados", agregó el documento.
    Mientras tanto, en Estados Unidos se informó hoy que un juez federal de Texas ordenó ningún documento legal redactado por inteligencia artificial, tras los casos detectados en los tribunales.
    El último episodio sucedió hace unos días cuando un abogado en Nueva York se basó en ChatGpt para construir un caso, que se basó en otros seis anteriores, pero que resultaron ser completamente inexistentes.
    Brantley Starr, un juez federal de Texas -según explica el sitio especializado techCrunch- está tomando medidas para que este tipo de casos no ocurran en la sala de su tribunal. (ANSA).