S20-22 13

Inteligencia artificial y educación: desafíos éticos de su aplicación

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Joshua Beneite-MartíUniversitat de València

Enfoque

Introducción: La aplicación de la Inteligencia Artificial (IA) en el ámbito educativo ha promovido avances significativos, mejorando la personalización del aprendizaje, el acceso a la educación y la eficiencia en la enseñanza. Sin embargo, su implementación también plantea importantes desafíos éticos que deben ser abordados de manera cuidadosa. Esta comunicación analiza los principales dilemas éticos que surgen con el uso de la IA en la educación y propone una reflexión sobre su impacto en la sociedad.

Objetivos: El objetivo principal de esta comunicación es identificar y analizar los desafíos éticos más relevantes relacionados con la aplicación de la Inteligencia Artificial en el ámbito educativo. Se busca generar conciencia sobre estos dilemas y promover el debate sobre cómo abordarlos de manera responsable y justa.

Metodología: La investigación se basa en un análisis documental que incluye estudios académicos, informes gubernamentales, y opiniones de expertos en el campo de la ética y la IA en la educación. Se aborda un enfoque cualitativo para comprender en profundidad los dilemas éticos que emergen con la implementación de la IA en la enseñanza y el aprendizaje.

Discusión: Los desafíos éticos identificados en el uso de la IA en educación incluyen:

  1. Privacidad y protección de datos: La recopilación masiva de información de estudiantes plantea preocupaciones sobre la privacidad y el uso indebido de datos sensibles.
  2. Sesgo y equidad: Los algoritmos de IA pueden perpetuar y amplificar sesgos existentes, lo que podría llevar a decisiones injustas y discriminación en el acceso a oportunidades educativas.
  3. Responsabilidad y transparencia: La opacidad de los algoritmos y la falta de rendición de cuentas dificultan la identificación de responsabilidades en caso de errores o decisiones equivocadas.
  4. Dependencia tecnológica: La confianza excesiva en la IA puede llevar a la disminución de habilidades críticas en docentes y estudiantes.
  5. Percepción del conocimiento: La confianza ciega en la IA puede afectar la forma en que los estudiantes perciben el conocimiento, debilitando la curiosidad y el pensamiento crítico.

Resultados: Los desafíos éticos de la IA en educación resaltan la necesidad de implementar marcos regulatorios sólidos y políticas educativas que aborden la protección de datos, la equidad y la transparencia. Además, es vital fomentar la educación ética y el pensamiento crítico en docentes y estudiantes para que puedan comprender, cuestionar y colaborar de manera responsable con la IA.

Conclusiones: La aplicación de la Inteligencia Artificial en la educación ofrece grandes oportunidades, pero también presenta desafíos éticos que no deben pasarse por alto. Es imprescindible establecer un enfoque ético en el desarrollo, implementación y uso de la IA en las instituciones educativas. Solo así podremos garantizar una educación inclusiva, justa y responsable que aproveche los beneficios de la tecnología sin sacrificar los valores fundamentales de la sociedad.

Preguntas y comentarios al autor/es

Hay 13 comentarios en esta ponencia

    • profile avatar

      Gabriela Estefanía Vásquez Peña

      Comentó el 17/07/2023 a las 14:22:24

      Buenas tardes Joshua,

      En primer lugar felicitarle por su estudio ético, me ha resultado de gran interés y me ha abierto líneas hacia le reflexión en diversos aspectos. Ciertamente, tomar medidas preventivas y adecuadas es cuanto menos complejo, sin embargo, me gustaría saber si conoce algún proyecto, mecanismo o medida pionera que esté destinando sus esfuerzos a atajar estas limitaciones que nos presenta la IA.

      Un cordial saludo,

      Muchas gracias.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 17/07/2023 a las 23:55:23

        Estimada Gabriela, gracias por su pregunta. Coincido con usted en que la clave de la cuestión reside en la prevención. A mi juicio, una iniciativa interesante en este sentido -de la cual el contexto hispanoparlante debe tomar nota y tratar de trasladarla a su ámbito- es la que viene desarrollando la organización AI4ALL (https://ai-4-all.org/about/our-story/). En conjunto, el objetivo de esta organización es aumentar la diversidad en la investigación y la práctica de la IA. Pero también pone a disposición distintos programas y recursos para que estudiantes, docentes y profesionales de la educación puedan introducirse en la IA y aprender a utilizarla de forma ética y responsable.
        Gracias de nuevo. Un saludo cordial.

    • profile avatar

      Rodrigo Lupercio Riaño Pineda

      Comentó el 15/07/2023 a las 04:54:51

      Hola Joshua.

      Gracias por tu ponencia, sin duda aborda un tema crucial en cuanto al reto de educar en conjunto con el auge de la IA. Quisiera conocer tu visión respecto a cómo establecer marcos regulatorios de la IA en contextos educativos, sin llegar al punto del negacionismo sobre la evolución de las IA y quizá privando a los estudiantes y docentes de desarrollar habilidades para apropiar las IA a la vida académica y cotidiana.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 18/07/2023 a las 00:26:31

        Gracias por su pregunta, Rodrigo. Coincido con usted en que debemos tener una actitud de apertura crítica hacia el empleo de IA en las aulas, sabiendo aprovechar sus beneficios, pero tratando de soslayar las contrapartidas. Un buen punto de partida sería, a mi juicio, la Declaración de Principios sobre la IA en la Educación, elaborada por expertos/as de la UNESCO, OCDE, etc. Algunas de las premisas de esta declaración abogan por emplear la IA para mejorar la calidad de la educación y ofrecer oportunidades educativas a todos los/as estudiantes, independientemente de su origen o circunstancias. El empleo de la IA de forma transparente y responsable, informando siempre cómo se utiliza la IA en la educación del alumnado. Evitar que la IA discrimine o perjudique a algún grupo concreto de estudiantes. Y, finalmente, aplicar la IA de forma que promueva el aprendizaje crítico y la autonomía de los/as estudiantes.
        Gracias de nuevo, un saludo cordial.

    • profile avatar

      Juan Jesús Torres Jurado

      Comentó el 14/07/2023 a las 12:16:26

      Hola Joshua. Enhorabuena por el trabajo y por el estupendo y clarificador vídeo. Es un trabajo muy pertinente, desde luego, ya que nos enfrentamos a una nueva situación. Mi pregunta es clara: teniendo en cuenta que el acceso a la información (Google) es desde hace mucho la primera opción para nuestros estudiantes, ¿no es la IA un paso más allá estrechando las posibilidades de información cruzada? Asistimos a un mundo que se mueve en las verdades alternativas de forma impune y, quizás, la IA, ayude, a través de la educación de la herramienta de forma común, a ir afinando esa información cruzada. En cualquier caso, gracias por tu ponencia. Un afectuoso saludo.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 18/07/2023 a las 00:39:26

        Gracias por tu comentario, Juan Jesús. Coincido contigo en que la IA es una buena oportunidad para obtener, de forma sencilla y rápida, una visión clarificadora sobre algún tema. No obstante, a determinado nivel, como el de la investigación, creo que ello solo es así si se utiliza como un complemento, y no como la única fuente. Desde mi experiencia personal he encontrado altamente gratificante el 'buceo' en marañas de información para terminar encontrando -las menos de la veces, también es cierto- interesantes hilos o perspectivas desde las cuales ir estirando el hilo. De todos modos, insisto en que coincido contigo en que la IA puede ayudar a centrar el enfoque y a triar la información de entre el ruido, así como a verificar informaciones de forma rápida, o señalar información falsa, al nivel de la sociedad, la política, etc. Un abrazo.

    • profile avatar

      Juan José Jiménez-Delgado

      Comentó el 13/07/2023 a las 20:17:57

      Felicitaciones por su análisis de los desafíos éticos asociados con la aplicación de la Inteligencia Artificial en el ámbito educativo. Es evidente que la privacidad y la protección de datos, el sesgo y la equidad, la responsabilidad y la transparencia, la dependencia tecnológica y la percepción del conocimiento son temas cruciales a abordar. Considerando estos desafíos éticos, ¿podría compartir su opinión sobre cuáles podrían ser las medidas más efectivas para abordar estos dilemas y garantizar un uso ético de la Inteligencia Artificial en la educación? Además, ¿cómo se podría fomentar la conciencia ética y el pensamiento crítico en docentes y estudiantes para que puedan comprender y colaborar de manera responsable con la IA en el entorno educativo?

    • profile avatar

      Juanjo Climent Ferrer

      Comentó el 13/07/2023 a las 10:25:20

      Buenos días, dentro de los desafíos éticos, se incluye la privacidad y protección de datos enfocada al uso que las IA's hacen de estos datos. Es interesante y curioso que ahora este debate sea centro de atención, pero, ¿no crees que la privacidad y protección de datos en general, y concretamente en educación, ya están utilizándose indebidamente? Por supuesto que las IA's deben respetar esa privacidad y proteger los datos, pero la exigencia debe ampliarse a todas las herramientas digitales y conectadas, sobretodo aquellas que puedan afectar a estudiantes y menores.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 13/07/2023 a las 13:03:00

        Hola, Juanjo. Totalmente de acuerdo con tu apreciación acerca de la vulneración de la privacidad y la protección de datos en el ámbito educativo. En efecto, esta exigencia -que como señalas, parece engañosamente una novedad- debe hacerse extensible con carácter retroactivo al conjunto de herramientas digitales y conectadas que conforman lo que Fernández Enguita llama "hiperaula". No obstante, también hay una tarea pendiente más allá de las membranas de la institución educativa que, a mi juicio, pasa por una correcta educación digital de las personas usuarias de la red y las redes sociales más jóvenes, ya que vierten una cantidad ingente de información y datos privados en las mismas. Una cuestión que aplica también a la visibilidad que dan los progenitores a sus hijos/as en las redes, y un largo etc. Gracias por suscitar esta cuestión y abrir con ella una vía de debate muy interesante. Un saludo.

    • profile avatar

      María Escalada Marco-Gardoqui

      Comentó el 12/07/2023 a las 11:48:58

      Buenos días. En tu ponencia mencionas la primera normativa sobre inteligencia artificial que se está perfilando en la UE. Esa transparencia que se solicita para la IA generativa parece una quimera a día de hoy. ¿Crees que estamos lejos de llegar a un escenario en el que, por ejemplo, se obtengan respuestas con ChatGPT y se aporten a la vez los datos utilizados en el entrenamiento para reconocer de alguna manera la autoría de la información generada? Muchas gracias.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 13/07/2023 a las 12:55:52

        Hola, María, gracias por tu pregunta. Como dices, actualmente esta información acerca de los datos empleados para la confección de una respuesta no está disponible para los/as usuarios/as de aplicaciones como ChatGPT. Las normativas, como bien indicas, apuntan a la necesidad de que ello se cumpla, pero por lo pronto es, en efecto, una quimera. De hecho, es posible que ni las propias personas que se desempeñan en la programación de esta y otras aplicaciones similares tengan un acceso certero a dicha información. Es el fenómeno de la caja negra que bien conoces. Pero, a mi juicio, entiendo que no debería resultar imposible, en el marco de la programación informática, el poder tener esta información disponible; por ello creo que es posible que en un futuro no muy lejano se establezcan requisitos de trazabilidad más estrictos en la generación de contenido. Por lo pronto, solo podemos seguir demandando que la política de IA generativa se arrumbe en esta dirección. Gracias de nuevo por tu pregunta. Un saludo.

    • profile avatar

      Luis Sesé Madrazo

      Comentó el 12/07/2023 a las 11:48:40

      Buenos días. Puesto que ChatGPT y otro tipo de herramientas generativas de contenido de texto están reemplazando al equipo docente en los momentos en los que el alumnado debe trabajar de manera autónoma fuera del aula, parece indispensable fomentar la verificación cruzada de la información y el pensamiento crítico. A tu juicio, ¿qué tipo de directrices deberíamos darles o qué tipo de preguntas deberíamos perseguir que se hicieran a sí mismos para detectar sesgos, errores o falsedades? Muchas gracias.

      • profile avatar

        Joshua Beneite-Martí

        Comentó el 13/07/2023 a las 12:10:27

        Hola, Luis, gracias por tu pregunta. A mi juicio, algunas de las recomendaciones que podríamos dar al alumnado pasan por cuestiones como las que mencionas. En efecto, resulta imprescindible verificar la fuente de la cual se obtiene la información; se hace necesario el contraste con otras fuentes, buscando la opinión, por ejemplo, de expertos/as en la materia; es necesario también evaluar las evidencias que se presentan en el texto respuesta, tratando de ver si las premisas son sólidas o simplemente conjeturas; también se debe considerar el contexto, por si de él se desprenden cuestiones que limitan la respuesta obtenida; por supuesto, la denuncia de sesgos presentes en el texto, si son perceptibles; finalmente, resulta fundamental, considerando todo lo anterior, si la respuesta obtenida es consistente o si por el contrario contiene incoherencias. Gracias de nuevo por tu pregunta. Un saludo.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organiza

Colabora