(ANSA) - ROMA, 31 MAG - Ningún documento legal redactado por
inteligencia artificial. Es la orden terminante de un juez
federal de Texas tras los casos detectados en los tribunales.
El último episodio sucedió hace unos días cuando un abogado
en Nueva York se basó en ChatGpt para construir un caso, que se
basó en otros seis anteriores, pero que resultaron ser
completamente inexistentes.
Brantley Starr, un juez federal de Texas -según explica el
sitio especializado techCrunch- está tomando medidas para que
este tipo de casos no ocurran en la sala de su tribunal.
Agregó el requisito de que cualquier abogado que comparezca
en su tribunal debe certificar que "ninguna parte del caso fue
redactada por IA generativa" o, si lo es, que fue examinada "por
un ser humano".
Por lo tanto, todos los abogados que comparecen ante el
Tribunal deben presentar un certificado especialmente preparado
y declarar que cualquier contenido producido por la IA ha sido
verificado minuciosamente por una persona real utilizando bases
de datos legales tradicionales o fuentes impresas.
Los errores de inteligencia artificial se denominan
técnicamente alucinaciones: en la práctica, los chatbots brindan
respuestas que suenan convincentes, pero en realidad son
completamente inventadas o incorrectas. Un problema importante
que tiene es abrir una reflexión sobre el entrenamiento de los
modelos de IA. (ANSA).
TODOS LOS DERECHOS RESERVADOS. © COPYRIGHT ANSA