5.
Desafíos Éticos y Académicos en un
Mundo Impulsado por la IA
Ethical and Academic Challenges in an AI-Driven World
DOI: https://doi.org/10.61604/dl.v16i30.467
No podemos negar el gran impacto que está generando el vertiginoso auge de
las herramientas de Inteligencia Artificial (IA) en el campo educativo. Nos estamos
enfrentando a escenarios interrumpidos por la incorporación de herramientas de IA
en los procesos de enseñanza y aprendizaje con mucho desconocimiento sobre las
implicaciones éticas y académicas que esto supone.
Para entender el funcionamiento de los sistemas basados en IA debemos
saber que estas tecnologías procesan información, integran modelos y algoritmos
con capacidades para aprender y ejecutar tareas cognitivas. Estos sistemas están
diseñados y estructurados para que funcionen con cierto grado de autonomía,
gracias a la modelización, representación del conocimiento, explotación de datos y
el cálculo de correlaciones.
Algunos de los métodos más comunes que incluyen son: 1) el aprendizaje
automático, que incorpora el aprendizaje profundo y el aprendizaje de refuerzo y 2) el
razonamiento automático, incluye la planificación, la programación, la representación
del conocimiento y el razonamiento, la búsqueda y la optimización de los datos
(Unesco, 2022).
De acuerdo con la Unesco (2024) estos rápidos cambios en el desarrollo de los
sistemas basados en IA plantean profundos dilemas éticos, que surgen del potencial
que tienen para reproducir prejuicios, discriminación, sesgos, información imprecisa,
datos no confiables, vulnerabilidad de los derechos humanos y las libertades
fundamentales. Estos riesgos asociados a la IA se suman a las grandes desigualdades
ya existentes por décadas, perjudicando aún más a muchos grupos históricamente
marginados en nuestros países de la región.
A pesar de todo ello, la Unesco reconoce que si trabajamos todos en función de
mejorar la trasparencia de la información, explicabilidad y protección de los datos
arrojados por los sistemas basados en IA, podemos mirar el potencial necesario para
abordar algunos de los grandes desafíos de la educación actual, innovar en las
prácticas pedagógicas y acelerar el progreso para la consecución del Objetivo de
Desarrollo Sostenible número 4 (ODS 4):
Garantizar una educación inclusiva, equitativa y de calidad y
promover oportunidades de aprendizaje durante toda la vida para
todos.
Particularmente, cuando he estado abordando este tema de la IA y sus
implicaciones éticas en diferentes espacios académicos, las consultas más recurrentes
que me hacen estudiantes, profesores e investigadores son: ¿hasta dónde puedo
tomar un texto, una tabla o una figura generada por una herramienta de IA? ¿es
plagio académico si copio y pego información completa de una IA? ¿cómo estamos
asegurando la integridad académica? ¿cómo cito una herramienta de IA si no es
autor del material? ¿debo citar los prompts? ¿qué dice la normativa APA en su última
edición?
6.
A partir de estas preguntas intentaré reflexionar y brindar recomendaciones sobre
estas cuestiones que ahora más que nunca las debemos atender en nuestros procesos
de enseñanza y aprendizaje, para dar una respuesta apegada a lineamientos éticos
y de integridad académica.
Ahora bien, cuando abordamos el concepto de integridad académica hacemos
referencia a los valores institucionales, éticos, respeto, honestidad, responsabilidad,
compromiso, confianza, equidad y justicia. Principios que deben ser puestos en
práctica en todas nuestras actuaciones como comunidad educativa. En esta misma
línea, la Oficina de Integridad en la Investigación de los Estados Unidos (ORI) y la
Asociación Americana de Psicología (APA) afirman que la integridad y honestidad
académica implican citar las fuentes de ideas, textos, imágenes, gráficos u obras
artísticas que se emplean en el entorno universitario, y no se debe tomar información
realizada por otros o por sí mismo sin revelar la fuente correspondiente.
Por su parte, la palabra ética proviene del griego ethos, que significa “carácter” o
modos de ser”. Es una disciplina de la filosofía que tiene como carácter normativo
y práctico las actuaciones en el entorno social; es decir, se relaciona con las
capacidades de las personas para actuar de manera coherente en el contexto
donde viven. Entonces, una persona ética mide los efectos que producen sus actos y
selecciona aquellos que tienen resultados a favor de lo moral (Cointe, 2016).
Autores como Bonnet, Boissier y Vallée (2018) plantean que las personas con
ética deontológica (conocida como ética de la obligación o del deber) actúan en
correspondencia con las normas establecidas en la sociedad. Estos mismos autores
establecen que la ética de la virtud hace referencia a que una persona es ética, solo
si piensa y actúa coherentemente desde los valores morales, cuya actuación debe
nacer de forma intrínseca como elemento importante de credibilidad.
Entonces, tomando en consideración estos elementos de la ética toda aplicación
de la ciencia y la tecnología debe partir del respeto y la protección de las personas,
considerándolas con autonomía, evitando dañarlas, resaltando los beneficios y
reduciendo los perjuicios que podrían existir. Por consiguiente, hacer el bien es una
obligación de la ética, por lo que esto nos condiciona sobre la necesidad de establecer
normas, que permitan que los riesgos de cualquier investigación sean evitables, que
esté bien diseñada y que los investigadores tengan las competencias adecuadas
para llevarlas a cabo, garantizando siempre el bienestar de los participantes (González
y Martínez, 2020).
No hay duda, que con la incorporación de herramientas de IA nos enfrentamos
a nuevas realidades que exigen una transformación en los marcos jurídicos, éticos y
morales de nuestros países. Por esta razón, la Unesco (2021) considera a la ética como
una base dinámica para la evaluación y la orientación de normativas sobre el uso de
las tecnologías de IA, tomando como referencia la dignidad humana, el bienestar y
la prevención de daños.
Para irnos aproximando a los desafíos éticos más relevantes que tenemos con el
uso de la IA podemos mencionar los siguientes: responsabilidad, toma de decisiones,
rendición de cuentas, sesgos, equidad, privacidad, protección de datos, empleo,
automatización, transparencia, explicabilidad e impacto en la autonomía humana.
De ahí que, la importancia de asumir esto desde un enfoque integral, que incluya los
aspectos, culturales, históricos, morales, políticos, filosóficos donde el ser humano esté
al centro (Dávila y Agüero, 2023).
7.
En cuanto a los desafíos académicos, vamos a partir de que la Inteligencia Artificial
no es humana; por lo tanto, no se puede considerar como autora del contenido
que nos arroja. Es decir, las herramientas de IA no asumen el compromiso y la
responsabilidad del trabajo académico realizado debido a que no son personas.
En consecuencia, pueden brindarnos información falsa, imprecisa, sesgada o
incorrecta por el uso de fuentes de información no adecuadas y verificadas. Además,
existen riesgos de plagio, pudiendo encontrar trabajos académicos e investigativos
con estilos y redacciones muy similares.
Ya nos advierte Samos (2023) al afirmar que los trabajos escritos por ChatGPT
pueden ser lo “suficientemente científicos” como para engañar. Los artículos escritos
en coautoría con IA ya están abriéndose camino en la literatura. Es claro que una
violación de estas políticas constituye un fraude científico, de la misma magnitud que
la alteración de imágenes o el plagio de trabajos existentes.
Y es que la facilidad con la que la IA puede desarrollar textos académicos, resolver
problemas, resumir información, sintetizar datos, etc., plantea interrogantes sobre el
papel del estudiante, el docente y el investigador en la producción intelectual. Si
bien estas herramientas pueden apoyar y facilitar el aprendizaje y la investigación,
también pueden fomentar una gran dependencia tecnológica y, en algunos casos,
la deshonestidad académica. La línea entre el uso legítimo de la IA como apoyo y su
uso indebido para sustituir el pensamiento crítico y creativo es cada vez más delicada.
Entonces, ¿qué está permitido hacer de acuerdo con la comunidad científica
cuando integramos una herramienta de IA (ChatGPT, Perplexity, Gemini, DeepSeek,
etc.) en nuestros trabajos académicos e investigativos? A continuación, les comparto
algunas recomendaciones que las comunidades académicas han venido
consensuando:
1. Debemos describir en nuestros trabajos académicos e investigativos cómo
hemos utilizado estas herramientas de IA. Para el caso de una investigación
científica se debe indicar en el cuerpo del artículo, tanto en la sección de
Resumen como en la de Metodología (nombre de la herramienta, versión,
creador, etc.), para permitir el escrutinio científico en aras de la transparencia.
2. Cuando se usa una herramienta de IA para realizar o generar un trabajo
analítico, informar sobre los resultados (por ejemplo, generar tablas o figuras) o
escribir códigos de computadora, lo debemos indicar en el cuerpo del artículo,
tanto en la sección de Resumen como en la de Metodología.
3. Los investigadores siempre deben tomar en cuenta consideraciones éticas al
momento de plantear ideas de investigación, generar productos y publicar
trabajos académicos y científicos, poner especial atención en los análisis de
datos que realizan, la forma en que estos se presentan, la calidad y el alcance
de los resultados, así como las posibles aplicaciones. Cuando realizamos una
revisión bibliográfica o un artículo tipo ensayo, debemos describir su uso en la
introducción.
4. Dentro del trabajo académicos o de investigación, debemos colocar el texto
que la IA nos arrojó. ¿Cómo puede conocerse si un texto ha sido generado
por IA? Estos suelen carecer de rigurosidad, veracidad, estilo, creatividad y
originalidad. También se debe disponer de detectores de IA o de revisores de
8.
expertos. En última instancia la aplicación responsable de la tecnología requiere
supervisión, control y monitoreo del ser humano.
5. La Asociación Americana de Psicología (APA) establece que la información
arrojada por una herramienta de IA no puede ser recuperada por los lectores.
6. APA indica que no se deben citar dentro del texto como comunicaciones
personales debido a que la IA no es considerada como autor.
7. Los autores deben asumir la responsabilidad pública de su trabajo académico
o de investigación. Quienes son expertos en el tema deben asegurar la
veracidad, la coherencia y la credibilidad del contenido. La IA no puede
reemplazar la experiencia, el criterio, el juicio, la originalidad, la creatividad y la
responsabilidad de un investigador.
8. APA afirma que en el cuerpo del texto del manuscrito se debe citar la herramienta
de IA que hemos usado. La forma correcta es: cita en paréntesis: (OpenAI,
2025), cita narrativa: OpenAI (2025).
9. En el apartado de lista de referencias debemos colocar al autor del algoritmo
que debe corresponder con la cita en el texto: Autor del modelo. (año). Nombre
del modelo en cursiva (versión) [Descripción del modelo]. Desarrollador. URL. Un
ejemplo sería: OpenAI. (2025). ChatGPT (versión del 21 de marzo) [Modelo de
lenguaje amplio]. https://chat.openai.com/chat
10. El Comité Internacional de Editores de Revistas Médicas (ICMJE) recomienda
basar la evaluación de la autoría de un trabajo académico o investigativo en
cuatro criterios.
10.1 Haber contribuido sustancialmente a la concepción de la idea de
investigación, al diseño del trabajo, al análisis o a la interpretación de los
datos.
10.2 Haber redactado el artículo o haberlo revisado críticamente añadiendo
contenido intelectual importante y propio.
10.3 Haber dado la aprobación final a la versión que se publicará.
10.4 Haber aceptado responsabilizarse de todos los aspectos del trabajo,
garantizando que las cuestiones relativas a la exactitud o a la integridad
académica de cualquier parte del trabajo se puedan investigar y resolver
adecuadamente.
A partir de estas recomendaciones que he planteado, considero que como
comunidades educativas debemos integrar, en todos nuestros planes de formación,
lineamientos claros sobre el uso crítico y ético de la IA en la docencia, investigación y
extensión social. Promover el desarrollo de competencias como la alfabetización digital,
mediática e informacional, las competencias digitales, así como el pensamiento crítico
y creativo, el trabajo en equipo, la comunicación y las competencias académicas en
materia de ética de la IA.
Y no es para menos que la Comisión Mundial de Ética del Conocimiento Científico
y la Tecnología (COMEST) de la UNESCO nos indica que: a) vivir en sociedades con
9.
procesos de digitalización exige nuevas prácticas educativas, b) una reflexión ética,
c) un pensamiento crítico, d) prácticas de concepción responsables y e) nuevas
competencias, dadas las implicaciones para el mercado laboral y la participación
social.
Estamos viviendo en un contexto histórico, social y cultural propicio para reflexionar
y adecuar los perfiles de egreso y las competencias que pretendemos que nuestros
estudiantes desarrollen, alineados con la alfabetización en IA. Existen muchas
cuestiones éticas y académicas sobre las que las universidades tendremos que
reflexionar tarde o temprano, porque la IA ha venido para quedarse.
Sumándonos a todos estos cambios y retos, en nuestra Revista Diá-logos hemos
incorporado información sobre el uso de la IA en los manuscritos que envían nuestros
autores. Específicamente, en la sección Información para Autores encontrarán lo
siguiente: si el artículo enviado a la Revista Diá-logos ha sido elaborado con el apoyo
de la Inteligencia Artificial (IA) en cualquier etapa de la investigación deberá indicarlo
explícitamente dentro del artículo y al momento de enviarlo a través de la Plataforma
OJS. Debe comunicar en qué apartados se ha utilizado la IA.
Para la Revista Diá-logos es sumamente importante que se cumplan los más altos
estándares éticos en la investigación científica. Queda a criterio del equipo editorial
de Diá-logos la aceptación de un artículo que haya usado IA.
Es así como continuamos creciendo y avanzando con la Revista Diá-logos que
desde el 2022 se administra bajo la Dirección de Educación a Distancia (UDB Virtual).
En esta oportunidad presentamos cuatro artículos que conforman el número 30 de la
Revista.
El primer artículo se titula Horizontes Educativos en la Sociedad Posdigital: entre
la Libertad y la Inclusión, de García Blázquez, Martínez Piedra y Huezo Romero. Los
autores abordan los desafíos de la sociedad postdigital en relación con la inclusión
y vulnerabilidad, subrayando la necesidad de que la ciudadanía y las políticas
educativas actúen de manera proactiva frente a estos retos.
El segundo artículo es sobre la Deserción Escolar: un Fenómeno Multifactorial en
Debate. En este manuscrito, Sibrián y Ayala investigaron los factores de las diferentes
dimensiones que más influyen en que los estudiantes abandonen sus estudios dentro
de los programas de Ingeniería en Ciencias de la Computación, Licenciatura en
Diseño Gráfico y Licenciatura en Administración de Empresas de la Universidad Don
Bosco.
El tercer artículo es una experiencia educativa de los autores Rubio Hernández,
Palacios Soriano y Chávez Claros, y se titula Educación Remedial para Niñas, Niños y
Adolescentes en Centroamérica en Contexto Post-Pandemia. Glasswing International
ejecutó el proyecto “Reconstruyendo y mejorando: apoyo socioemocional y remedial
para estudiantes y docentes”, beneficiando a 2,599 estudiantes de tercer a sexto
grado en Guatemala, Honduras y Nicaragua.
El cuarto artículo se titula RAICES - Oportunidades de Aprendizaje Integral y Asesoría
Colaborativa. Respondiendo Necesidades de Docentes en Tiempos Desafiantes.
Schmalenbach, Monterrosa Hernández y Cabrera Larín desarrollaron el programa
RAICES (Red de Aprendizaje Integral en Comunidades Educativas Salvadoreñas)
para el apoyo de docentes de cuatro escuelas públicas en el Área Metropolitana de
10.
San Salvador en su trato con los desafíos causados por la pandemia. El proyecto se
desarrolló en respuesta a las necesidades formuladas por docentes y directivas de
estas escuelas y fue implementado en línea.
La revista Diá-logos sigue creciendo e incorporándose a más bases de datos
reconocidas a nivel internacional.
Dr. Eduardo Menjívar Valencia
Editor
San Salvador, 07 mayo de 2025