Algoritmos y derechos. Privacidad y Protección de datos

«TikTok recibe una multa de 15,9 millones de dólares por uso indebido de datos infantiles en Gran Bretaña»; «Meta multada con 1.300 millones de dólares por violar las normas de privacidad de datos de la UE»; «Italia determina que OpenAI viola la privacidad de los usuarios»…

Estas y otras tantas noticias sobre filtraciones de información personal, el uso indiscriminado de datos por parte de empresas tecnológicas y el avance de la IA  y sus algoritmos entrenados con datos; ponen sobre la mesa la necesidad de una reflexión sobre los límites éticos y legales en este campo de la protección y privacidad de datos. 

PRIVACIDAD Y PROTECCIÓN

Privacidad y Protección de datos – aunque son realidades estrechamente relacionadas – se reconocen como dos derechos distintos, por lo que requieren protección legal distinta.  

En la Unión Europea, la dignidad humana está reconocida como un derecho fundamental absoluto. Dentro de esta noción de dignidad, privacidad o derecho a una vida privada, ser autónomo, tener control de la información sobre uno mismo juegan un papel clave. La privacidad no es sólo un derecho individual sino que también se considera como un valor social. Por eso la privacidad se reconoce como un derecho humano universal – casi todos los países del mundo la reconocen de alguna manera, en su constitución o en otras disposiciones –  mientras que la protección de datos no (al menos no todavía).

En cambio la noción de protección de datos se origina del derecho a la privacidad y tiene el objetivo preciso de garantizar el procesamiento justo (recopilación, uso, almacenamiento) de datos personales tanto por parte del sector público como del privado de cualquier información relacionada con una persona física identificada o identificable.

La privacidad y la protección de datos son por tanto, dos derechos consagrados en los Tratados de la UE y en la Carta de Derechos Fundamentales de la Unión Europea.

El derecho a la privacidad, y en concreto el derecho del individuo respecto del tratamiento de los datos personales, son de gran relevancia en el mundo digitalizado actual. El derecho de una persona a controlar sus datos personales y al procesamiento de dichos datos garantiza la autonomía personal y protege la esfera personal. 

IA, ALGORITMOS Y DATOS 

Considerada como la cuarta revolución industrial, el avance de la inteligencia artificial está dando lugar a grandes transformaciones en campos tan diversos como la medicina, la educación y la empresa. Sin embargo, este progreso no está exento de controversia. 

La recopilación masiva de los datos es esencial para entrenar algoritmos de IA y mejorar su rendimiento. Esta práctica de entrenamiento  plantea dilemas éticos y legales sobre cómo se deben manejar y almacenar. La recopilación indiscriminada de datos por parte de empresas y gobiernos, muchas veces sin el consentimiento adecuado de los usuarios, genera cierta desconfianza y preocupación y ponen de manifiesto la urgente necesidad de establecer regulaciones más estrictas y efectivas en materia de protección de datos. 

Encontrar un equilibrio entre la protección de datos y el avance de la tecnología puede no ser una tarea sencilla. Mientras la innovación y el desarrollo tecnológico aprovecha todo el potencial que ofrece la inteligencia artificial, es necesario a garantizar la privacidad y la seguridad de los usuarios en un mundo tan volcado ya en la realidad virtual. 

REGULACIÓN Y ÉTICA

Es crucial – en este sentido – que gobiernos, empresas y la sociedad en su conjunto trabajen y desarrollen marcos éticos y legales efectivos, que protejan los derechos de los individuos sin tener que poner freno a una innovación responsable. Se necesitan leyes y políticas que promuevan la transparencia, la responsabilidad y el consentimiento informado en el manejo de datos personales. 

Las grandes corporaciones tecnológicas que manejan cantidades masivas de información personal han de ser éticamente responsables y transparentes en el uso que hacen de estos datos; solicitando previamente el claro consentimiento del usuario mediante una acción consciente pudiendo conocer el procesamiento, uso y almacenamiento de sus datos. Es imprescindible concienciarnos que sin consentimiento, no debe haber procesamiento. 

En última instancia, el debate sobre la protección de datos, la era digital y la inteligencia artificial es un reflejo de los desafíos éticos y sociales que enfrentamos en el siglo XXI, un siglo marcado por una realidad digital y tecnológica, una realidad virtual tan real que nos puede llegar a conocer mejor que nuestra propia familia. 

Es necesario por tanto abordar estos desafíos con responsabilidad y visión de futuro, buscando siempre un equilibrio entre el progreso tecnológico y el respeto a los derechos fundamentales de las personas. 

HUMAN AI Y EL USO DE DATOS 

En Human AI hemos desarrollado un código de conducta ética al que se adhieren los clientes de Human AI para acceder a nuestros servicios. Este código establece las responsabilidades legales y deontológicas asociadas al uso de los datos obtenidos al utilizar Human AI. Nuestro código de conducta recoge las directrices de la Asociación Americana de Psicología, la recomendación del consenso de Beijing sobre Inteligencia Artificial y educación, los principios éticos de la Carta de Derechos Digitales y la Comisión de Pruebas del Consejo Superior de Psicología

En Human AI:

  1. Todas las personas cuyos textos se analizan están anonimizadas con un código. 
  2. Nunca se usan datos personales identificativos, solo el código asignado a cada persona, tampoco en el informe final.
  3. El texto que se introduce y analiza la IA no lleva datos identificativos (apellidos, lugar de residencia, etc).

Si quieres saber cómo funciona Human AI solicita nuestra demo 👉🏼 tu-demo.humanaitech.com

«¡Ay la IA!»

La creatividad frente a la IA, el impacto de la IA en profesiones y oficios, el uso del chat GPT en al aula, avatares basados en IA como herramienta docente y ética y los valores en el uso de la IA fueron algunas de las cuestiones tratadas por los diversos ponentes en la jornada para docentes “Ay la IA” organizado por el Servicio Navarro de Empleo en el Civican de Pamplona; moderado por Rubén León, periodista de Televisión española. 

“La educación tiene que cambiar, ya no puede estar enfocada al modelo industrial y debe abrir puertas a un mundo digital” afirmó el docente Rubén Jiménez, en el bloque sobre creatividad e IA. 

Carlos Fernández de Vigo – director de cine, guionista y creador de videojuegos – habló sobre la revolución de la IA en nuestras vidas como una oportunidad histórica. Desde Emotional Films – un nuevo formato audiovisual interactivo cuyo objetivo es ofrecer al público una experiencia que se adapte en tiempo real a sus emociones y a otros datos clave del público – han realizado proyectos con IA, entre otros, con el instituto Cervantes. “Las películas no son las mismas según quien las vea y en qué momento las ve, evolucionan con el espectador”.

Su visión de la tecnología es filosófica e incluye muchos perfiles sociológicos, pedagógicos, psicológicos, de neuromarketing, abogados e ingenieros. “Somos personas que queremos que nuestras creaciones pervivan. Hemos hecho cortos con personas que se reciclaron desde otros sectores y gracias a la tecnología hicieron el reskilling”. 

Francesc Pujol – escritor y docente de la Universidad de Navarra – con su visión de explorador activo en redes empezó a usar ChatGPT porque imaginaba un impacto radical en el proceso de aprendizaje, propio y reglado. Ha aprendido a integrarlo desde la práctica y la prueba, sin esperar a que se lo cuenten y abogando por que todos los trabajos del alumnado deberían entregar junto a la metodología utilizada para llevarlos a cabo, los pantallazos de las preguntas a ChatGPT, dando por supuesto que a partir de ahora se hará un uso inevitable y de hecho recomendable. 

“No hay que esperar a ser expertos para usar ChatGPT, no es necesaria una alta formación y tiene mucho de autoaprendizaje. Nos tenemos que conceder el derecho a explorar  y equivocarnos en el uso de la IA” afirma Francesc. “ChatGPT debe usarse para preguntar sobre cosas que sabemos, esto parece contraintuitivo pero implica mejorar las cosas que ya haces”. Conclusión, que ChatGPT trabaje para ti y no en tu lugar, que sea un asistente y no un agente. 

Por último, Elena Alemán es presidenta de Fundación LucIA, una iniciativa que tiene como objetivo conseguir un grado de conocimiento, desarrollo e implementación de los ecosistemas de inteligencia Artificial (IA) equivalentes a los conseguidos en las últimas décadas en el ámbito de las energías renovables. Por su parte, expuso la temática sobre «Ética y valores en la IA»

¿Usos buenos? la IA está facilitarnos la vida, para ayudarnos a temas más globales: salud, medio ambiente, investigación gracias a muchos datos procesados rápidamente.  ¿Usos “oscuros”? Dado que la IA decide y genera contenido, es importante saber con qué valores y criterios se ha entrenado y la propiedad del dato. 

“La tecnología va por delante de la legislación, en Europa se va a generar un reglamento en el primer trimestre del año 24. ¿Qué podemos hacer? Formación, comunicación e IA para combatir la IA”. 

Por una IA más ética

El Mila – Quebec Artificial Intelligence Institute HumanAI Tech unen fuerzas para una IA éticamente responsable.

Nuestra CEO Maria Beunza, en su estancia en Canadá, se reunió con el Profesor de Filosofía y CIFAR Chair en AI Ethics, Marc-Antoine Dilhac; iniciando una colaboración en investigación, desarrollo y ética con uno de los mayores centros mundiales de investigación en Inteligencia Artificial.

Esta colaboración entre HumanAI y el Mila es un paso importante hacia un futuro más ético y responsable en la aplicación de la IA en los ámbitos de la educación y la salud mental. Supone nuestra adhesión a la “Declaración de Montreal para el desarrollo responsable de Inteligencia Artificial”.

¡Seguimos avanzando por una IA más ética y humana!

#