/ricerca/americalatina/search.shtml?any=
Muestra menos

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Cómo la IA afecta a derechos fundamentales

Como la salud, cuando aplicaciones dan consejos erróneos

MADRID 14 JUN - La Inteligencia Artificial (IA), 14 junio 2023, 09:03

Redaccion ANSA

ANSACheck
La Inteligencia Artificial (IA), sobre la que el Parlamento Europeo votó hoy la primera normativa para controlar sus riesgos, "cuando, utilizada para dar consejos, se equivoca, puede afectar a derechos fundamentales como el de la salud", advierte en entrevista a ANSA el científico y experto en ética del Comité Europeo de Protección de Datos, el italiano Alessandro Mantelero.
    El creador del ChatGpt, por ejemplo, "advierte que no se le tiene que preguntar sobre salud, pero la gente lo hace" y "cuando se utiliza para pedirle consejos e información sobre una patología y la información no es correcta, eso afecta a las personas", apunta.
    También con una aplicación de ayuda psicológica que antes la hacían seres humanos y ahora la hace la IA "ha habido casos de problemas de trastornos alimenticios que en lugar de mitigarlos lo aumentaban, porque proporcionaba comentarios muy centrados sobre el consumo de calorías y los psicólogos vieron que el resultado era negativo", señala.
    Estos "impactos afectan al derecho a la salud", subraya.
    Otros derechos que pueden ser afectados, como la libertad de expresión, ocurren cuando, por ejemplo, "al controlar los contenidos de las redes sociales la IA se equivoca, lo que puede limitar la libertad de expresión".
    Mantelero, miembro del Comité de Ética de la Universidad Politécnica de Turín (Italia) y autor del libro "Beyond the data", en el que trata este tema, pone otros ejemplos de riesgos como cuando un "chatbot da información errónea sobre impuestos, o en un entorno judicial cuando se utiliza para adoptar sanciones administrativas. Equivocarse puede acarrear muchos problemas", advierte.
    "No es un discurso apocalíptico, sino que cada aplicación tiene su riesgo específico, hay que analizarlos y desarrollar la IA teniendo en cuenta esos impactos".
    En este sentido, considera "clave" en el proyecto legislativo que votó hoy el Parlamento Europeo para regular la gestión de la IA "la evaluación de riesgo, que la gente pueda conocer cuál es el nivel de riesgo de la aplicación que usa y cómo se ha afrontado".
    El proyecto europeo "incluye una valoración del impacto, pero falta la metodología, no dice cómo hacerlo y esto es un tema crucial", considera.
    En una jornada organizada en Barcelona por la Autoridad catalana de protección de datos (APDCAT) Mantelero defendió que el mercado de la inteligencia artificial solo puede crecer "si va de la mano de la garantía de la protección de los derechos humanos".
   

TODOS LOS DERECHOS RESERVADOS © Copyright ANSA

Imperdibles

Compartir

O utilizza