ChatGPT en Educación Superior: Ética y originalidad en ensayos académicos

ChatGPT es un chatbot impulsado por inteligencia artificial (IA) que utiliza el procesamiento del lenguaje natural para interpretar y responder preguntas en conversaciones interactivas. Desde su primera versión en 2018, ha tenido un exponencial interés por el ámbito de la educación superior y en general de la sociedad actual. La integración de la IA en educación superior, específicamente en la redacción de ensayos académicos tanto de estudiantes como profesores mismos, ofrece significativos beneficios en términos de eficiencia, sin embargo, plantea una serie de cuestiones éticas que requieren un análisis profundo y una consideración cuidadosa.

Uno de los principales problemas éticos es la cuestión de la originalidad y la autoría. Si bien es cierto que ChatGPT puede generar textos que parecen auténticos, existe una preocupación legítima sobre si éstos pueden considerarse verdaderamente originales. La capacidad de la IA para crear contenido nuevo se basa en el análisis de grandes cantidades de datos existentes, lo que plantea la pregunta de si el texto generado es realmente único o simplemente un arreglo combinatorio de información de terceros. El estilo de escritura de un estudiante puede ser más fluido y natural cuando no usa ChatGPT, ya que el texto reflejará directamente sus pensamientos y expresiones. En contraste, el texto generado por ChatGPT puede parecer más mecánico en su estructura y expresión. Para un profesor que conoce a sus estudiantes, se vuelve algo simple de reconocer. Esto plantea desafíos en términos de integridad académica y atribución adecuada de la autoría.

Un segundo aspecto crítico es la precisión y confiabilidad de los resultados generados por la IA. Si bien es cierto que estos modelos pueden producir textos que parecen bien fundamentados, su capacidad para comprender el contexto y evaluar la información de manera crítica es limitada. ChatGPT siempre buscará formar una respuesta coherente inclusive pudiendo llegar en algunos casos a falsear información en un tono convincente. Esto último es bidireccional, si el usuario proporciona información sesgada o imprecisa al modelo, éste asumirá que la información es fidedigna y tratará de elaborar una respuesta en consecuencia.

En tercer lugar, es importante tener en cuenta que ChatGPT fue entrenado con datos hasta finales de 2021. En el ámbito académico es fundamental considerar estudios recientes, dado que el conocimiento es evolutivo y perfectible en el tiempo. Además, se ha comprobado que, al citar trabajos, los autores y los años de publicación pueden presentar errores groseros, los cuales son fáciles de detectar para un entendido en la materia.

Interrogantes sobre la calidad y la objetividad de los trabajos generados por IA nacen como problemas evidentes. Por consiguiente, la transparencia en el uso de ChatGPT es fundamental. Los estudiantes y académicos deben ser conscientes de cuándo y para que se está utilizando la IA a la hora de generar contenido. Es importante reconocer que la IA no es una solución mágica para todos los problemas de redacción académica. Si bien puede ser una herramienta útil para generar ideas y ayudar en la redacción de textos, no puede reemplazar el pensamiento crítico y la creatividad humana. Los estudiantes y académicos deben seguir desarrollando habilidades de redacción y pensamiento crítico para complementar el uso de estas herramientas y garantizar la calidad y originalidad de su trabajo.

En última instancia, la incorporación de la IA en la educación superior debe ser cuidadosamente gestionada para garantizar que se utilice de manera ética y que no comprometa los estándares académicos. Las Universidades y responsables de políticas educativas deben trabajar en colaboración para desarrollar pautas claras y promover una cultura de integridad académica en la industria 4.0.

Heber Hernández, académico de Ingeniería Civil en Minas de la Universidad Central