Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Juez prohíbe documentos con Inteligencia Artificial

Después de un caso en NY con datos falsos.

ROMA, 31 mayo 2023, 11:28

Redaccion ANSA

ANSACheck
Ningún documento legal redactado por inteligencia artificial. Es la orden terminante de un juez federal de Texas tras los casos detectados en los tribunales.
    El último episodio sucedió hace unos días cuando un abogado en Nueva York se basó en ChatGpt para construir un caso, que se basó en otros seis anteriores, pero que resultaron ser completamente inexistentes.
    Brantley Starr, un juez federal de Texas -según explica el sitio especializado techCrunch- está tomando medidas para que este tipo de casos no ocurran en la sala de su tribunal.
    Agregó el requisito de que cualquier abogado que comparezca en su tribunal debe certificar que "ninguna parte del caso fue redactada por IA generativa" o, si lo es, que fue examinada "por un ser humano".
    Por lo tanto, todos los abogados que comparecen ante el Tribunal deben presentar un certificado especialmente preparado y declarar que cualquier contenido producido por la IA ha sido verificado minuciosamente por una persona real utilizando bases de datos legales tradicionales o fuentes impresas.
    Los errores de inteligencia artificial se denominan técnicamente alucinaciones: en la práctica, los chatbots brindan respuestas que suenan convincentes, pero en realidad son completamente inventadas o incorrectas. Un problema importante que tiene es abrir una reflexión sobre el entrenamiento de los modelos de IA.
   

TODOS LOS DERECHOS RESERVADOS © Copyright ANSA

Imperdibles

Compartir

O utilizza

Ùltimo momento

404 Not Found

404 Not Found


nginx