¿Qué piensan las familias, los profesores y alumnos sobre la IA? 

Un estudio sobre el uso, percepción y conocimiento de la inteligencia artificial 

“Empantallados” es una plataforma educativa con un propósito: educar usuarios digitales saludables. Esta iniciativa surge para acompañar a las familias en la realidad digital de sus hijos, porque “la tecnología influye en muchas facetas y creemos que es importante empezar a educarles desde pequeños en un uso responsable y saludable de la tecnología, sin esperar a que sean mayores”

¿Sabías que el 65% de los niños de edad escolar trabajarán en profesiones aún no inventadas y relacionadas con la tecnología?

Impacto de la IA en España

Empantallados, junto con GAD3 – una consultora de investigación social y comunicación – y con el apoyo de “Por un uso love de la tecnología”, la Comisión Europea y Fundación Fomento – esta plataforma educativa ha presentado el primer estudio sobre el impacto de la Inteligencia artificial en la educación en España. El informe muestra los principales datos y conclusiones de la investigación llevada a cabo a finales de 2023, y basada en una encuesta a una muestra representativa de 500 familias en España, 200 jóvenes entre 14 y 17 años, y 200 profesores de enseñanza no universitaria. 

Un estudio que muestra entre otras cuestiones cuánto y para qué utilizan la IA los alumnos, profesores y padres, o cuáles son sus preocupaciones, oportunidades y retos, analizando también el uso y percepción de estos públicos sobre la IA. 

Las 10 claves en las que dicho estudio se sintetiza son las siguientes:

  1. la IA, una  nueva realidad tecnológica que interesa a la realidad.
  2. Internet y la prensa, puertas de acceso a la IA.
  3. Chat GPT, una de las herramientas de IA más utilizadas.
  4. Elevar el umbral de fiabilidad y mejorar el acierto, retos de la IA a corto plazo.
  5. Necesidad de un marco legal sobre privacidad y uso de datos.
  6. La IA, un nuevo territorio digital por explorar para alumnos, profesores y familias.
  7. La IA, una herramienta potencialmente educativa.
  8. La creatividad y el pensamiento crítico, los principales desafíos de la IA en el ámbito educativo.
  9. La IA, un refuerzo en la tarea del profesor, sin sustituir su rol como educador.
  10. Necesidad de educar en el uso responsable de la IA.

Algunos datos relevantes 

El estudio refleja que el 57% de los padres cree que la IA tendrá un impacto positivo en la educación de sus hijos, un porcentaje que aumenta (61%) en relación con el efecto positivo que tendrá la IA en el futuro profesional de sus hijos. 

En el caso de los profesores solo el 39% considera que la IA tendrá un impacto positivo en la educación y un 54% cree que será beneficioso en el futuro laboral de sus alumnos. 

Respecto a la eficiencia de los alumnos, tanto padres como profesores ven beneficios en el uso de la IA. Sin embargo, mientras los padres creen que mejorará la creatividad, los profesores opinan que podría perjudicarla.

Los padres se sienten más abrumados y tienen un menor entendimiento de la IA en comparación con profesores y alumnos. Sin embargo, el 78% de los padres están muy

interesados en ampliar conocimientos sobre la IA, frente al 63% de los alumnos. Son los padres los que apoyan en mayor medida la introducción de herramientas de IA en el currículum académico de sus hijos (60%). 

Sin embargo los profesores son más críticos respecto al uso de la IA por parte de sus alumnos, recomendando su uso en general en menor medida (33%) que los padres (42%). En cuanto al impacto de la IA en el trabajo de los docentes, la eficiencia y la autonomía son las competencias más importantes para los docentes, siendo la búsqueda de nueva información el área donde recomiendan en mayor medida su uso. En cambio la creatividad, lo de menos. 

La creatividad y el pensamiento crítico: principales desafíos de la IA 

La mayoría de familias y profesores en el estudio consideran que la IA puede ayudar en las cuestiones prácticas, pero son más reacios a que la IA pueda desarrollar competencias como autonomía, creatividad o pensamiento crítico: en una escala sobre 10, las familias puntúan con 5,9 y con 5,6 ambos aspectos. Por su parte, los profesores califican con suspenso la capacidad de la IA de favorecer la autonomía y la creatividad: 4,5 y 4,2, respectivamente

Cabría preguntarnos ¿no séra esta la oportunidad de delegar en la IA tareas eficientes para poder invertir y fomentar nuestra parte más creativa y hacer de los alumnos estudiantes del pensamiento más que de conocimiento?

Como afirma Xavier Marcet en su reciente columna sobre trabajadores del pensamiento “En época de inteligencia artificial es fundamental que las personas tengamos el monopolio de las preguntas. Si piensas, la tecnología te empodera, si no piensas la tecnología te lleva dónde quiere”.

La IA puede llegar a ser una herramienta educativa muy útil y al mismo tiempo presenta desafíos en el desarrollo de competencias clave del alumno, no solo cognitivas, también socioemocionales ¿será capaz también la IA de ayudarnos, no solo en desarrollar tareas educativas eficientes, sino en el desarrollo de la personalidad del alumno y de sus competencias socioemocionales

La irrupción de la IA parece ser algo más que un medio, una herramienta o un progreso tecnológico más; va a impulsar – y de hecho lo hace ya – un cambio de enfoque y de mentalidad educativa.

Consulta el estudio completo en 👉🏼  https://empantallados.com/ia  

Si te interesa saber más sobre una IA capaz de evaluar la personalidad de tus alumnos y poder desarrollar en ellos competencias socioemocionales solicita la demo de Human AI 👉🏼 https://tu-demo.humanaitech.com/ 

Las claves de Human AI: quiénes somos y qué hacemos – Webinar 

“Human AI nació en su momento como un proyecto de investigación y desarrollo; empezó en el mundo de la educación principalmente”, contó María Beunza en el webinar del pasado 29 de enero, en el que dimos a conocer de primera mano los fundamentos y usos de nuestra herramienta.  

El webinar siguió el esquema y la estructura de nuestro White paper. Pero ¿qué es un white paper? Los White paper – libro blanco –  es un tipo de contenido divulgativo específico y trabajado que contiene datos, hechos e investigaciones que dan validez al contenido de un producto o un servicio específico; en nuestro caso: nuestra herramienta de inteligencia artificial aplicada a la valoración de la personalidad y las competencias socioemocionales. 

Desentrañando Human AI

En este webinar María Beunza – CEO de Human AI – expone en primer lugar qué es HumanAI y qué ámbitos de aplicación está teniendo actualmente. Dando paso a nuestra invitada de honor, María Orellana, Directora de RRHH de España, Portugal y Sudáfrica en Aon, quien explica el Modelo OCEAN de Personalidad que subyace a todo lo que hacemos desde Human AI,  las implicaciones y cómo se utiliza tanto en el ámbito empresarial como en tantos otros ámbitos. Por su parte, Juan Tuñas – responsable y coordinador de Inteligencia Artificial de Human AI – desentraña qué hay detrás del algoritmo (psicolingüística y lenguaje) y cómo es el funcionamiento de nuestra IA, que no es cosa de magia sino de ciencia. Finalmente Iñigo Benito – Innovation Manager – nos muestra las nuevas funcionalidades que tiene y va a tener la aplicación.

Tanto en el webinar como en el white paper conocerás quiénes somos, qué hacemos, los diferentes ámbitos de aplicación de Human AI, nuestro valor diferencial y nuestra fundamentación. No dejes pasar esta oportunidad de conocer más sobre Human AI, una herramienta innovadora que te ayudará a potenciar tu desarrollo humano.

Si estás interesado en probar las funcionalidades de Human AI ¡solicita la demo! 👉🏼https://tu-demo.humanaitech.com/


Algoritmos y derechos. Privacidad y Protección de datos

«TikTok recibe una multa de 15,9 millones de dólares por uso indebido de datos infantiles en Gran Bretaña»; «Meta multada con 1.300 millones de dólares por violar las normas de privacidad de datos de la UE»; «Italia determina que OpenAI viola la privacidad de los usuarios»…

Estas y otras tantas noticias sobre filtraciones de información personal, el uso indiscriminado de datos por parte de empresas tecnológicas y el avance de la IA  y sus algoritmos entrenados con datos; ponen sobre la mesa la necesidad de una reflexión sobre los límites éticos y legales en este campo de la protección y privacidad de datos. 

PRIVACIDAD Y PROTECCIÓN

Privacidad y Protección de datos – aunque son realidades estrechamente relacionadas – se reconocen como dos derechos distintos, por lo que requieren protección legal distinta.  

En la Unión Europea, la dignidad humana está reconocida como un derecho fundamental absoluto. Dentro de esta noción de dignidad, privacidad o derecho a una vida privada, ser autónomo, tener control de la información sobre uno mismo juegan un papel clave. La privacidad no es sólo un derecho individual sino que también se considera como un valor social. Por eso la privacidad se reconoce como un derecho humano universal – casi todos los países del mundo la reconocen de alguna manera, en su constitución o en otras disposiciones –  mientras que la protección de datos no (al menos no todavía).

En cambio la noción de protección de datos se origina del derecho a la privacidad y tiene el objetivo preciso de garantizar el procesamiento justo (recopilación, uso, almacenamiento) de datos personales tanto por parte del sector público como del privado de cualquier información relacionada con una persona física identificada o identificable.

La privacidad y la protección de datos son por tanto, dos derechos consagrados en los Tratados de la UE y en la Carta de Derechos Fundamentales de la Unión Europea.

El derecho a la privacidad, y en concreto el derecho del individuo respecto del tratamiento de los datos personales, son de gran relevancia en el mundo digitalizado actual. El derecho de una persona a controlar sus datos personales y al procesamiento de dichos datos garantiza la autonomía personal y protege la esfera personal. 

IA, ALGORITMOS Y DATOS 

Considerada como la cuarta revolución industrial, el avance de la inteligencia artificial está dando lugar a grandes transformaciones en campos tan diversos como la medicina, la educación y la empresa. Sin embargo, este progreso no está exento de controversia. 

La recopilación masiva de los datos es esencial para entrenar algoritmos de IA y mejorar su rendimiento. Esta práctica de entrenamiento  plantea dilemas éticos y legales sobre cómo se deben manejar y almacenar. La recopilación indiscriminada de datos por parte de empresas y gobiernos, muchas veces sin el consentimiento adecuado de los usuarios, genera cierta desconfianza y preocupación y ponen de manifiesto la urgente necesidad de establecer regulaciones más estrictas y efectivas en materia de protección de datos. 

Encontrar un equilibrio entre la protección de datos y el avance de la tecnología puede no ser una tarea sencilla. Mientras la innovación y el desarrollo tecnológico aprovecha todo el potencial que ofrece la inteligencia artificial, es necesario a garantizar la privacidad y la seguridad de los usuarios en un mundo tan volcado ya en la realidad virtual. 

REGULACIÓN Y ÉTICA

Es crucial – en este sentido – que gobiernos, empresas y la sociedad en su conjunto trabajen y desarrollen marcos éticos y legales efectivos, que protejan los derechos de los individuos sin tener que poner freno a una innovación responsable. Se necesitan leyes y políticas que promuevan la transparencia, la responsabilidad y el consentimiento informado en el manejo de datos personales. 

Las grandes corporaciones tecnológicas que manejan cantidades masivas de información personal han de ser éticamente responsables y transparentes en el uso que hacen de estos datos; solicitando previamente el claro consentimiento del usuario mediante una acción consciente pudiendo conocer el procesamiento, uso y almacenamiento de sus datos. Es imprescindible concienciarnos que sin consentimiento, no debe haber procesamiento. 

En última instancia, el debate sobre la protección de datos, la era digital y la inteligencia artificial es un reflejo de los desafíos éticos y sociales que enfrentamos en el siglo XXI, un siglo marcado por una realidad digital y tecnológica, una realidad virtual tan real que nos puede llegar a conocer mejor que nuestra propia familia. 

Es necesario por tanto abordar estos desafíos con responsabilidad y visión de futuro, buscando siempre un equilibrio entre el progreso tecnológico y el respeto a los derechos fundamentales de las personas. 

HUMAN AI Y EL USO DE DATOS 

En Human AI hemos desarrollado un código de conducta ética al que se adhieren los clientes de Human AI para acceder a nuestros servicios. Este código establece las responsabilidades legales y deontológicas asociadas al uso de los datos obtenidos al utilizar Human AI. Nuestro código de conducta recoge las directrices de la Asociación Americana de Psicología, la recomendación del consenso de Beijing sobre Inteligencia Artificial y educación, los principios éticos de la Carta de Derechos Digitales y la Comisión de Pruebas del Consejo Superior de Psicología

En Human AI:

  1. Todas las personas cuyos textos se analizan están anonimizadas con un código. 
  2. Nunca se usan datos personales identificativos, solo el código asignado a cada persona, tampoco en el informe final.
  3. El texto que se introduce y analiza la IA no lleva datos identificativos (apellidos, lugar de residencia, etc).

Si quieres saber cómo funciona Human AI solicita nuestra demo 👉🏼 tu-demo.humanaitech.com