AI for Good: inteligencia artificial al servicio del desarrollo sostenible

AI for Good es más que una plataforma: es un puente entre la innovación tecnológica y el bienestar global. La inteligencia artificial (IA) ya es una realidad clave para enfrentar algunos de los desafíos más urgentes de nuestro tiempo. Desde el cambio climático hasta la equidad digital, esta iniciativa de las Naciones Unidas lidera el camino para garantizar que la IA no solo sea innovadora, sino también inclusiva y responsable.

A través de su compromiso con los Objetivos de Desarrollo Sostenible (ODS), AI for Good conecta a líderes globales, innovadores y tomadores de decisiones, transformando el potencial de la IA en soluciones concretas al servicio de las personas y el planeta.

¿Qué es AI for Good y por qué es importante?

Con solo cinco años para alcanzar los ODS, AI for Good actúa como un puente entre innovadores y sectores clave. Su misión es clara: usar la IA de manera confiable para abordar desafíos globales como el cambio climático, la salud, la educación y la equidad digital.

Como señaló Doreen Bogdan-Martin, Secretaria General de la UIT:
«En 2024, un tercio de la humanidad sigue desconectada, excluida de la revolución de la inteligencia artificial. Esta brecha digital y tecnológica ya no es aceptable.»

Cumbre mundial «AI for Good 2024»

La última edición, celebrada en Ginebra, fue un escenario vibrante de innovación y reflexión. Desde robots interactuando con asistentes hasta paneles sobre gobernanza inclusiva, la cumbre destacó cómo la IA puede ser una fuerza para el bien.

Entre los hitos más destacados se encuentran:

  • Bioniks, una startup pakistaní que crea prótesis biónicas asequibles, controladas por el cerebro.
  • Ultrasound AI, un proyecto liderado por mujeres en EE. UU. para mejorar la atención prenatal mediante análisis avanzados.
  • Tecnologías contra la desinformación, utilizadas por el «Programa de las Naciones Unidas para el Desarrollo» (PNUD) para identificar contenido sospechoso en procesos electorales.

Además de las innovaciones presentadas, la cumbre puso el foco en la necesidad de una gobernanza ética que asegure que estas tecnologías beneficien a todos de manera inclusiva.

La cumbre no solo presentó ideas; mostró soluciones reales con aplicaciones prácticas:

  • Drones bioinspirados para rescates en desastres naturales.
  • Interfaces cerebro-máquina, que permiten a personas con discapacidades controlar dispositivos con la mente.
  • Robots sociales, como Leka, diseñados para apoyar a niños con trastornos del desarrollo neurológico.

El éxito de estas soluciones inspira a continuar el diálogo y la innovación en futuras ediciones.

Próxima cumbre mundial «AI for Good 2025«

Con un enfoque en la colaboración global, la próxima edición de AI for Good se celebrará del 8 al 11 de julio de 2025 en Ginebra. Promete seguir siendo el epicentro de la innovación inclusiva, fomentando estándares internacionales y soluciones tecnológicas alineadas con los ODS.

¿Cómo encaja Human AI en esta visión global?

Human AI: IA para el bien

En Human AI, compartimos la visión de AI for Good al poner la inteligencia artificial al servicio de las personas y del desarrollo sostenible. Creemos en una tecnología que no solo mide habilidades y competencias, sino que también potencia el bienestar humano, la inclusión y el progreso educativo.

Nuestro compromiso con los Objetivos de Desarrollo Sostenible (ODS):

  • ODS 4: Educación de calidad. Promovemos la evaluación y el desarrollo de competencias socioemocionales para mejorar los procesos educativos y formativos.
  • ODS 8: Trabajo decente y crecimiento económico. Ayudamos a las empresas y organizaciones a identificar y desarrollar el talento humano de manera justa, objetiva e inclusiva.
  • ODS 10: Reducción de las desigualdades. Nuestra tecnología está diseñada para eliminar sesgos y promover oportunidades equitativas en la educación y el empleo.
  • ODS 17: Alianzas para lograr los objetivos. Colaboramos con instituciones académicas, empresas y gobiernos para escalar soluciones que tengan un impacto positivo en las personas y en la sociedad.

En Human AI, nuestra misión es clara: humanizar la tecnología y garantizar que su uso sea ético, inclusivo y orientado a potenciar las capacidades de las personas. Porque estamos convencidos de que la IA no es un fin en sí misma, sino una herramienta al servicio del desarrollo humano.

Como recordó Doreen Bogdan-Martin, Secretaria General de la Unión Internacional de Telecomunicaciones (UIT):
«El futuro no empieza con algoritmos, sino con nosotros. En nuestro cerebro, el ordenador más complejo, potente y creativo que el mundo haya conocido.»

¿Estamos listos para liderar esta transformación y asumir nuestra responsabilidad como la generación de la IA para el bien?


👉 Conoce más sobre cómo trabajamos para construir una sociedad más humana con tecnología.

«Digitalización y educación en la era de la inteligencia artificial»

Educación en entornos digitales – Bilbao European Encounters 2024

Un compromiso con la educación digital

La jornada Bilbao European Encounters 2024 comenzó con la intervención de Juan Mari Aburto, alcalde de Bilbao, quien resaltó la importancia de que la digitalización en la educación sea inclusiva y accesible para todos. «La tecnología en la educación no es un lujo, es una necesidad. Debemos asegurarnos de que ningún estudiante se quede atrás en esta transformación digital», afirmó Aburto, subrayando el compromiso de Bilbao con una educación más equitativa en el contexto digital.

¿Es la digitalización la solución?

La primera mesa redonda sobre «Educación en entornos digitales» planteó un debate crucial sobre el impacto de la digitalización y educación en la era de la inteligencia artificial. Moderada por Eider Inunciaga, concejala de Euskera y Participación Ciudadana del Ayuntamiento de Bilbao, la mesa reunió a dos referentes del sector educativo: Carlos Magro, presidente de la Asociación Educación Abierta, y María Beunza, CEO de Human AI Tech. La discusión abordó tanto las oportunidades como las amenazas que trae consigo la digitalización en el sector educativo.

Uno de los temas candentes de la mesa fue si la digitalización puede resolver los desafíos de la educación o si, por el contrario, los amplifica. «La tecnología por sí sola no es ni la solución ni el problema. Es cómo la integramos en el aula lo que marca la diferencia», subrayó Carlos Magro. Esta frase resonó en la sala, dejando claro que el reto no radica solo en tener acceso a herramientas digitales, sino en su uso pedagógico.

Beunza, desde su perspectiva tecnológica, destacó el papel de la inteligencia artificial como herramienta que, bien utilizada, puede transformar el aprendizaje. “La IA puede personalizar la educación, detectar competencias socioemocionales y adaptarse a cada estudiante. Pero es el docente quien debe guiar ese proceso, no la máquina”, señaló, dejando claro que la tecnología no puede reemplazar la labor humana en la educación.

La brecha digital y la ética en el uso de la tecnología

La creciente brecha digital fue uno de los puntos álgidos del debate. Si bien la pandemia aceleró la digitalización en la educación, también dejó al descubierto profundas desigualdades. “La digitalización corre el riesgo de aumentar la brecha entre quienes tienen acceso a un uso crítico de la tecnología y quienes no”, advirtió Magro. Su postura reflejaba la preocupación de muchos docentes que, a pesar de contar con dispositivos en las aulas, no siempre saben cómo sacarles el máximo provecho.

Otro tema destacado fue la ética tecnológica. “Lo más emocionante de la IA es que, por primera vez, estamos poniendo la ética en el centro del debate”, señaló María Beúnza, haciendo hincapié en la necesidad de asegurar que las herramientas digitales sean transparentes y no perpetúen sesgos. “Si no controlamos los algoritmos, estamos dejando que la tecnología decida por nosotros, y eso puede perpetuar desigualdades”, comentó, invitando a una reflexión profunda sobre el papel que debe tener la inteligencia artificial en la educación.

Preguntas del público: la voz de los docentes

“¿Cómo se espera que los docentes nos adaptemos a un entorno tan cambiante, cuando estamos desbordados por la carga laboral y no contamos con los recursos para formarnos en nuevas tecnologías?”

La respuesta de Magro fue contundente: “Es cierto que la tecnología avanza más rápido de lo que los docentes pueden adaptarse, pero el problema no es la tecnología en sí, sino la falta de recursos para acompañar esa transformación. La innovación debe venir acompañada de formación continua, y eso requiere inversión.” Beunza añadió: “La clave no está en aprender a manejar cada nueva herramienta, sino en desarrollar una competencia digital crítica, que permita adaptarse a lo que venga.”

Innovación: ¿a qué precio?

La palabra «innovación» estuvo presente en todo el debate, pero ambos ponentes coincidieron en que el término a menudo se malinterpreta. “Innovar por innovar es un error. La tecnología en la educación debe tener un propósito claro: mejorar el aprendizaje”, afirmó Beunza. Magro, por su parte, insistió en la necesidad de evaluar las nuevas tecnologías antes de implementarlas masivamente: “Estamos obsesionados con introducir pantallas y dispositivos en las aulas, pero ¿realmente hemos comprobado que mejoran los resultados educativos? Lo que falta es evaluación”.

El futuro de la educación

La mesa concluyó con un mensaje optimista pero cauto. “La digitalización puede ser una herramienta poderosa, pero nunca debe sustituir al factor humano. La clave está en encontrar un equilibrio entre tecnología y humanidad en la educación”, dijo Beunza en sus palabras de cierre.

Magro, por su parte, hizo un llamado a la comunidad educativa: “No debemos dejar que la tecnología nos sobrepase. La soberanía digital empieza en las aulas, enseñando a nuestros estudiantes a ser críticos, reflexivos y a no depender ciegamente de las herramientas digitales.”

Este debate no dejó dudas de que la educación enfrenta un momento crucial. La tecnología puede ser una aliada, pero solo si se integra con un propósito pedagógico claro y se acompaña de una reflexión ética y crítica.

Reflexiones éticas y pedagógicas

Durante la segunda mesa redonda de Bilbao European Encounters 2024, titulada «La educación de la inteligencia en un entorno digital», los filósofos José Antonio Marina y Daniel Innerarity abordaron las complejidades y retos que plantea la inteligencia artificial en la educación. Marina subrayó la necesidad de redefinir la inteligencia en un contexto donde la tecnología parece estar al frente de la transformación educativa. «La IA puede ser parte de la solución, pero los problemas educativos solo se resuelven con pedagogía y comunidad», afirmó Marina, resaltando la importancia de la intervención humana en el uso de estas herramientas.

Por su parte, Daniel Innerarity reflexionó sobre la dualidad que representa la tecnología: «La IA es una herramienta poderosa, pero no podemos perder de vista que su uso plantea cuestiones éticas fundamentales. El verdadero desafío no es solo incorporar la tecnología, sino hacerlo de manera que fomente un pensamiento crítico y una autonomía intelectual en los estudiantes». Innerarity hizo hincapié en que la educación no puede depender únicamente de la tecnología, ya que esta no puede sustituir los procesos cognitivos más humanos, como la empatía y el juicio moral.

Ambos ponentes coincidieron en que la educación del futuro debe centrarse en formar individuos capaces de manejar las herramientas digitales, pero sin perder la capacidad de reflexión ética sobre su uso. Este debate destacó la importancia de preparar a las nuevas generaciones para no solo ser consumidores de tecnología, sino también ciudadanos críticos y responsables en un mundo cada vez más digitalizado.

___

Bilbao European Encounters 2024 puso sobre la mesa que, al final, la educación sigue siendo una tarea profundamente humana.

Algoritmos y derechos. Privacidad y Protección de datos

«TikTok recibe una multa de 15,9 millones de dólares por uso indebido de datos infantiles en Gran Bretaña»; «Meta multada con 1.300 millones de dólares por violar las normas de privacidad de datos de la UE»; «Italia determina que OpenAI viola la privacidad de los usuarios»…

Estas y otras tantas noticias sobre filtraciones de información personal, el uso indiscriminado de datos por parte de empresas tecnológicas y el avance de la IA  y sus algoritmos entrenados con datos; ponen sobre la mesa la necesidad de una reflexión sobre los límites éticos y legales en este campo de la protección y privacidad de datos. 

PRIVACIDAD Y PROTECCIÓN

Privacidad y Protección de datos – aunque son realidades estrechamente relacionadas – se reconocen como dos derechos distintos, por lo que requieren protección legal distinta.  

En la Unión Europea, la dignidad humana está reconocida como un derecho fundamental absoluto. Dentro de esta noción de dignidad, privacidad o derecho a una vida privada, ser autónomo, tener control de la información sobre uno mismo juegan un papel clave. La privacidad no es sólo un derecho individual sino que también se considera como un valor social. Por eso la privacidad se reconoce como un derecho humano universal – casi todos los países del mundo la reconocen de alguna manera, en su constitución o en otras disposiciones –  mientras que la protección de datos no (al menos no todavía).

En cambio la noción de protección de datos se origina del derecho a la privacidad y tiene el objetivo preciso de garantizar el procesamiento justo (recopilación, uso, almacenamiento) de datos personales tanto por parte del sector público como del privado de cualquier información relacionada con una persona física identificada o identificable.

La privacidad y la protección de datos son por tanto, dos derechos consagrados en los Tratados de la UE y en la Carta de Derechos Fundamentales de la Unión Europea.

El derecho a la privacidad, y en concreto el derecho del individuo respecto del tratamiento de los datos personales, son de gran relevancia en el mundo digitalizado actual. El derecho de una persona a controlar sus datos personales y al procesamiento de dichos datos garantiza la autonomía personal y protege la esfera personal. 

IA, ALGORITMOS Y DATOS 

Considerada como la cuarta revolución industrial, el avance de la inteligencia artificial está dando lugar a grandes transformaciones en campos tan diversos como la medicina, la educación y la empresa. Sin embargo, este progreso no está exento de controversia. 

La recopilación masiva de los datos es esencial para entrenar algoritmos de IA y mejorar su rendimiento. Esta práctica de entrenamiento  plantea dilemas éticos y legales sobre cómo se deben manejar y almacenar. La recopilación indiscriminada de datos por parte de empresas y gobiernos, muchas veces sin el consentimiento adecuado de los usuarios, genera cierta desconfianza y preocupación y ponen de manifiesto la urgente necesidad de establecer regulaciones más estrictas y efectivas en materia de protección de datos. 

Encontrar un equilibrio entre la protección de datos y el avance de la tecnología puede no ser una tarea sencilla. Mientras la innovación y el desarrollo tecnológico aprovecha todo el potencial que ofrece la inteligencia artificial, es necesario a garantizar la privacidad y la seguridad de los usuarios en un mundo tan volcado ya en la realidad virtual. 

REGULACIÓN Y ÉTICA

Es crucial – en este sentido – que gobiernos, empresas y la sociedad en su conjunto trabajen y desarrollen marcos éticos y legales efectivos, que protejan los derechos de los individuos sin tener que poner freno a una innovación responsable. Se necesitan leyes y políticas que promuevan la transparencia, la responsabilidad y el consentimiento informado en el manejo de datos personales. 

Las grandes corporaciones tecnológicas que manejan cantidades masivas de información personal han de ser éticamente responsables y transparentes en el uso que hacen de estos datos; solicitando previamente el claro consentimiento del usuario mediante una acción consciente pudiendo conocer el procesamiento, uso y almacenamiento de sus datos. Es imprescindible concienciarnos que sin consentimiento, no debe haber procesamiento. 

En última instancia, el debate sobre la protección de datos, la era digital y la inteligencia artificial es un reflejo de los desafíos éticos y sociales que enfrentamos en el siglo XXI, un siglo marcado por una realidad digital y tecnológica, una realidad virtual tan real que nos puede llegar a conocer mejor que nuestra propia familia. 

Es necesario por tanto abordar estos desafíos con responsabilidad y visión de futuro, buscando siempre un equilibrio entre el progreso tecnológico y el respeto a los derechos fundamentales de las personas. 

HUMAN AI Y EL USO DE DATOS 

En Human AI hemos desarrollado un código de conducta ética al que se adhieren los clientes de Human AI para acceder a nuestros servicios. Este código establece las responsabilidades legales y deontológicas asociadas al uso de los datos obtenidos al utilizar Human AI. Nuestro código de conducta recoge las directrices de la Asociación Americana de Psicología, la recomendación del consenso de Beijing sobre Inteligencia Artificial y educación, los principios éticos de la Carta de Derechos Digitales y la Comisión de Pruebas del Consejo Superior de Psicología

En Human AI:

  1. Todas las personas cuyos textos se analizan están anonimizadas con un código. 
  2. Nunca se usan datos personales identificativos, solo el código asignado a cada persona, tampoco en el informe final.
  3. El texto que se introduce y analiza la IA no lleva datos identificativos (apellidos, lugar de residencia, etc).

Si quieres saber cómo funciona Human AI solicita nuestra demo 👉🏼 tu-demo.humanaitech.com

«¡Ay la IA!»

La creatividad frente a la IA, el impacto de la IA en profesiones y oficios, el uso del chat GPT en al aula, avatares basados en IA como herramienta docente y ética y los valores en el uso de la IA fueron algunas de las cuestiones tratadas por los diversos ponentes en la jornada para docentes “Ay la IA” organizado por el Servicio Navarro de Empleo en el Civican de Pamplona; moderado por Rubén León, periodista de Televisión española. 

“La educación tiene que cambiar, ya no puede estar enfocada al modelo industrial y debe abrir puertas a un mundo digital” afirmó el docente Rubén Jiménez, en el bloque sobre creatividad e IA. 

Carlos Fernández de Vigo – director de cine, guionista y creador de videojuegos – habló sobre la revolución de la IA en nuestras vidas como una oportunidad histórica. Desde Emotional Films – un nuevo formato audiovisual interactivo cuyo objetivo es ofrecer al público una experiencia que se adapte en tiempo real a sus emociones y a otros datos clave del público – han realizado proyectos con IA, entre otros, con el instituto Cervantes. “Las películas no son las mismas según quien las vea y en qué momento las ve, evolucionan con el espectador”.

Su visión de la tecnología es filosófica e incluye muchos perfiles sociológicos, pedagógicos, psicológicos, de neuromarketing, abogados e ingenieros. “Somos personas que queremos que nuestras creaciones pervivan. Hemos hecho cortos con personas que se reciclaron desde otros sectores y gracias a la tecnología hicieron el reskilling”. 

Francesc Pujol – escritor y docente de la Universidad de Navarra – con su visión de explorador activo en redes empezó a usar ChatGPT porque imaginaba un impacto radical en el proceso de aprendizaje, propio y reglado. Ha aprendido a integrarlo desde la práctica y la prueba, sin esperar a que se lo cuenten y abogando por que todos los trabajos del alumnado deberían entregar junto a la metodología utilizada para llevarlos a cabo, los pantallazos de las preguntas a ChatGPT, dando por supuesto que a partir de ahora se hará un uso inevitable y de hecho recomendable. 

“No hay que esperar a ser expertos para usar ChatGPT, no es necesaria una alta formación y tiene mucho de autoaprendizaje. Nos tenemos que conceder el derecho a explorar  y equivocarnos en el uso de la IA” afirma Francesc. “ChatGPT debe usarse para preguntar sobre cosas que sabemos, esto parece contraintuitivo pero implica mejorar las cosas que ya haces”. Conclusión, que ChatGPT trabaje para ti y no en tu lugar, que sea un asistente y no un agente. 

Por último, Elena Alemán es presidenta de Fundación LucIA, una iniciativa que tiene como objetivo conseguir un grado de conocimiento, desarrollo e implementación de los ecosistemas de inteligencia Artificial (IA) equivalentes a los conseguidos en las últimas décadas en el ámbito de las energías renovables. Por su parte, expuso la temática sobre «Ética y valores en la IA»

¿Usos buenos? la IA está facilitarnos la vida, para ayudarnos a temas más globales: salud, medio ambiente, investigación gracias a muchos datos procesados rápidamente.  ¿Usos “oscuros”? Dado que la IA decide y genera contenido, es importante saber con qué valores y criterios se ha entrenado y la propiedad del dato. 

“La tecnología va por delante de la legislación, en Europa se va a generar un reglamento en el primer trimestre del año 24. ¿Qué podemos hacer? Formación, comunicación e IA para combatir la IA”. 

Por una IA más ética

El Mila – Quebec Artificial Intelligence Institute HumanAI Tech unen fuerzas para una IA éticamente responsable.

Nuestra CEO Maria Beunza, en su estancia en Canadá, se reunió con el Profesor de Filosofía y CIFAR Chair en AI Ethics, Marc-Antoine Dilhac; iniciando una colaboración en investigación, desarrollo y ética con uno de los mayores centros mundiales de investigación en Inteligencia Artificial.

Esta colaboración entre HumanAI y el Mila es un paso importante hacia un futuro más ético y responsable en la aplicación de la IA en los ámbitos de la educación y la salud mental. Supone nuestra adhesión a la “Declaración de Montreal para el desarrollo responsable de Inteligencia Artificial”.

¡Seguimos avanzando por una IA más ética y humana!

#