Skip to main content
Inteligencia artificial y privacidad

Inteligencia artificial y privacidad

En pleno debate público de las virtudes y riesgos de herramientas como el famoso ChatGPT, la Unión Europea ha debatido y aprobado la primera normativa sobre la inteligencia artificial y la privacidad, con el objetivo de regular esta tecnología disruptiva y su uso masivo.

Entre los riesgos de esta nueva tecnología se encuentran indudablemente, todos aquellos relacionados con la privacidad de las personas, puesto que la IA, se alimenta del procesamiento de grandes cantidades de datos (también personales) que son obtenidas de múltiples fondos, como datos publicadas en redes sociales, posts o cualquier otra que puede acarrear tratamientos de datos personales y que a veces la persona afectada, no sabe ni que se están produciendo.  

Los sistemas de IA se alimentan constantemente de la información que consumen y, por tanto, la recopilación y uso de esta información es una parte inseparable del mismo sistema. 

Inteligencia artificial y privacidad: ¿Qué riesgos hay? 

En materia de privacidad, los riesgos que ahora mismo se pueden identificar pueden agruparse en tres: 

  1. Riesgos por la seguridad. 

Efectivamente, los sistemas de AI se alimentan de la recopilación constante y masiva de datos e información (también personal) y además datos recopilados y analizados más riesgos que un potencial ataque a un sistema de IA pueda generar perjuicios más altos e incontrolables por las personas afectadas. 

  1. Riesgos por la discriminación de las personas. 

Indiscutiblemente, si en los procesos de recopilación de datos por ejemplo en un proceso de selección de personal, el sistema toma decisiones basadas en el análisis de los perfiles sociales, por ejemplo, de los candidatos, pueden producirse situaciones discriminatorias con el agravado que les candidatos pueden incluso no ser conscientes de que ese tratamiento de sus datos se está produciendo. 

  1. Riesgos asociados a usos no autorizados. 

La mejora de prácticas como el deep fake, de la cuál hablamos de ella aquí hace ya más de 3 años, puede implicar que haya personas que se vean implicadas en situaciones no deseadas, como las fake news, que incluso puedan tener consecuencias muy importantes en sus vidas. Obviamente, el uso de este tipo de tecnologías implica el uso de imágenes de forma no autorizada por parte de quien las practican. 

Hasta aquí, en cuatro líneas (humanas), los principales riesgos. Leemos, por eso, qué debe decir la propia IA sobre los riesgos por la privacidad:

No cabe duda de que nos encontramos, una vez más, delante de una tecnología revolucionaria y de previsible uso masivo, que genera nuevos riesgos por la privacidad que, al final, no lo olvidemos consiste en esencia con el control de quien hace uso de nuestra información personal y con qué finalidad. 

¿Qué medidas contempla la nueva normativa para minimizar los riesgos por la privacidad? 

De entrada la normativa sobre IA de la Unión Europea prevé directamente una serie de prácticas prohibidas y, lo que es más relevante, su aplicación se prevé tanto por empresas desarrolladoras establecidas en la UE como por empresas no europeas si sus prácticas impactan en ciudadanos europeos (un poco siguiendo el modelo del RGPD). 

Entre las prácticas prohibidas encontramos: 

  • Herramientas de IA que despliegan técnicas subliminares más allá de la conciencia de una persona para distorsionar su comportamiento de una forma que provoque o le pueda causar daños físicos o psicológicos a ésta oa otra persona. 
  • Un sistema de IA que explote cualquiera de las vulnerabilidades de un grupo específico de personas a causa de su edad, discapacidad física o mental, para distorsionar materialmente el comportamiento de una persona perteneciente a este grupo, de una forma que provoque o pueda causar a esa persona (u otra) daño físico o psicológico. 
  • El uso de sistemas de IA por parte de las autoridades públicas para la evaluación o clasificación de la fiabilidad de las personas físicas durante un período de tiempo determinado en función de su comportamiento social o personal. 
  • El uso de sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público para la aplicación de la ley, salvo que no se cumpla alguna de las excepciones previstas. 

La propuesta, asimismo, está basada en el principio de gestión del riesgo, por lo que, en cualquier proyecto que implique el uso de IA, será necesario que se valore con carácter previo el impacto que puede tener en relación con el tratamiento de datos personales, lo que implicará, además, la aplicación de principios como la privacidad desde el diseño o por defecto. 

Las medidas previstas afectan tanto a las empresas que desarrollan productos de IA como a aquellas empresas que, sin desarrollarlos, usan este tipo de productos, por ejemplo, en chats de atención al cliente o soluciones similares que puedan implementar en sus negocios o empresas. 

Nos encontramos, en definitiva, ante un primer intento legislativo serio por regular el uso de la IA. Habrá que permanecer atentos tanto a cómo se va implementando esta nueva normativa como al impacto, ahora mismo difícil de prever, que la IA puede tener por la privacidad y la protección de datos personales. 

Como siempre, si necesitáis más información sobre este tema de la inteligencia artificial y privacidad, ¡no dudéis en contactarnos!


    Información sobre protección de datos

    Denominación social
    LEGAL IT GLOBAL 2017, SLP
    Finalidad
    Prestar el servicio.
    Envío del Boletín informativo.
    Legitimización
    Cumplimiento de la prestación del servicio.
    Consentimiento.
    Destinatarios
    Tus datos no serán compartidos con ningún tercero, salvo aquellos proveedores de servicios con los que disponemos de un contrato de servicios vigente.

    Derechos
    Puedes acceder, rectificar o suprimir los datos, así como ejercer los derechos que se mencionan en nuestra Política de Privacidad.

    Más información
    Consulta la Política de Privacidad.