Subido por cristian garcia

A critical review of GenAI policies in higher education assessment a call to reconsider the originality of students work.en.es

Anuncio
Traducido del inglés al español - www.onlinedoctranslator.com
Valoración y Evaluación en la Educación Superior
ISSN: (Imprimir) (En línea) Página de inicio de la revista:www.tandfonline.com/journals/caeh20
Una revisión crítica de las políticas GenAI en la evaluación de la
educación superior: un llamado a reconsiderar la “originalidad”
del trabajo de los estudiantes
Jiahui Luo (Jess)
Para citar este artículo:Jiahui Luo (Jess) (4 de febrero de 2024): Una revisión crítica de las políticas de GenAI en la
evaluación de la educación superior: un llamado a reconsiderar la “originalidad” del trabajo de los estudiantes, Evaluación
y Evaluación en la Educación Superior, DOI:10.1080/02602938.2024.2309963
Para vincular a este artículo:https://doi.org/10.1080/02602938.2024.2309963
© 2024 El autor(es). Publicado por Informa UK
Limited, que opera como Taylor & Francis Group
Publicado en línea: 4 de febrero de 2024.
Envíe su artículo a esta revista.
Vistas del artículo: 5585
Ver artículos relacionados
Ver datos de Crossmark
Los términos y condiciones completos de acceso y uso se pueden encontrar en
https://www.tandfonline.com/action/journalInformation?journalCode=caeh20
Valoración y evaluación en la educación superior https://
doi.org/10.1080/02602938.2024.2309963
Una revisión crítica de las políticas GenAI en la evaluación de la educación
superior: un llamado a reconsiderar la “originalidad” del trabajo de los
estudiantes
Jiahui Luo (Jess)
Departamento de Política y Liderazgo de Educación, Facultad de Educación y Desarrollo Humano/Centro de Estudios de
Políticas y Liderazgo de la Educación Superior, Universidad de Educación de Hong Kong, RAE de Hong Kong, China
ABSTRACTO
PALABRAS CLAVE
Este estudio ofrece un examen crítico de las políticas universitarias desarrolladas
para abordar los desafíos recientes que presenta la IA generativa (GenAI) a la
evaluación de la educación superior. Basándonos en el marco 'Cuál es el problema
representado' (WPR) de Bacchi, analizamos las políticas GenAI de 20 universidades
líderes en el mundo para explorar qué se consideran problemas en este panorama
de evaluación mediado por IA y cómo estos problemas se representan en las
políticas. Aunque en estas políticas se mencionaron diversos problemas
relacionados con GenAI (por ejemplo, confiabilidad de los resultados generados por
IA, acceso igualitario a GenAI), el principal problema representado es que los
estudiantes no pueden presentar trabajos originales para evaluación. En el marco
actual, GenAI a menudo se ve como un tipo de asistencia externa separada de los
esfuerzos independientes y la contribución intelectual del estudiante, lo que socava
la originalidad de su trabajo. Argumentamos que tal representación del problema no
reconoce cómo el surgimiento de GenAI complica aún más el proceso de producción
de trabajo original y lo que significa originalidad en una época en la que la
producción de conocimiento se vuelve cada vez más distribuida, colaborativa y
mediada por la tecnología. Por lo tanto, un silencio crítico en las políticas de
educación superior se refiere a la noción cambiante de originalidad en la era digital y
se requiere un enfoque más inclusivo para abordar la originalidad del trabajo de los
estudiantes.
IA generativa; política
análisis; evaluación;
ChatGPT; más alto
educación
Introducción
Desde la aparición de poderosas herramientas de inteligencia artificial generativa (GenAI) como ChatGPT, las
universidades de todo el mundo han estado trabajando en políticas para regular el uso de estas herramientas
entre los estudiantes en la evaluación (Chan2023a; Grupo Russell2023). Por GenAI nos referimos a una técnica de
inteligencia artificial capaz de generar una variedad de contenidos nuevos que incluyen, entre otros, textos,
vídeos e imágenes (Cao et al.2023). Desde un punto de vista posestructural, estas políticas GenAI no son meras
respuestas a problemas relacionados con la GenAI que existen "ahí fuera" en la educación superior. Más bien,
dan forma a cómo se entienden los problemas al priorizar ciertas representaciones sobre otras. La forma en que
se representan los problemas en las políticas GenAI no sólo manifiesta la lógica preferida de una universidad
para gobernar las tecnologías emergentes, sino que también revela supuestos más profundos que subyacen a la
evaluación en la educación superior.
CONTACTOJiahui Luo (Jess)
[email protected]
© 2024 el Autor(es). Publicado por informa uK Limited, que opera como taylor & Francis group
este es un artículo de acceso abierto distribuido bajo los términos de la licencia creative commons Atribución-no comercial-noderivadas (http://
creativecommons.org/licenses/by-nc-nd/4.0/), que permite la reutilización, distribución y reproducción sin fines comerciales en cualquier medio, siempre que la obra
original esté debidamente citada y no se altere, transforme ni se aproveche de ninguna manera. Los términos en los que se ha publicado este artículo permiten la
publicación del manuscrito aceptado en un repositorio por parte del autor o con su consentimiento.
2
J. LUO
Esta línea de pensamiento se hace eco de lo que Bacchi (2010) denominó el paradigma del "cuestionamiento
de problemas" en la investigación de políticas. Según Bacchi (2012), 'lo que decimos que queremos hacer
respecto a algo indica lo que creemos que debe cambiar y, por tanto, cómo constituimos el “problema”' (4). Por
ejemplo, las políticas escolares suelen considerar a los "jóvenes en riesgo" como un problema que "debe
resolverse" (Loutzenheiser2015). El problema de los "jóvenes en riesgo" puede enmarcarse como un fracaso
individual o como un problema estructural causado por recursos inadecuados para apoyar a los jóvenes. Los dos
diferentes planteamientos de problemas conducirán a soluciones muy diferentes (por ejemplo, castigar a los
"jóvenes en riesgo" o mejorar el apoyo a los jóvenes). Por lo tanto, en lugar de aceptar políticas al pie de la letra,
el paradigma del "cuestionamiento de problemas" fomenta el escrutinio crítico de qué problemas se representan
y cómo se representan a través de los discursos políticos (Tawell y McCluskey2021). Al hacerlo, este paradigma
también abre posibilidades para explorar representaciones alternativas de problemas que desafíen
presuposiciones que se dan por sentadas.
Siguiendo el paradigma del "cuestionamiento de problemas", este estudio tiene como objetivo examinar críticamente
las políticas de educación superior sobre GenAI y evaluación. En particular, busca comprender cuáles se consideran
problemas en la evaluación de la educación superior en el surgimiento de GenAI y cómo se representan estos
problemas. También se explorarán los supuestos subyacentes, los posibles silencios y los efectos de tales
representaciones de problemas. El enfoque '¿Cuál es el problema representado?' (WPR) de Bacchi, que incluye seis
preguntas centrales para el paradigma del 'cuestionamiento del problema', proporciona la herramienta metodológica
para anclar nuestro análisis.
GenAI y el cambiante panorama de la evaluación en la educación superior
Las primeras investigaciones sobre GenAI y la evaluación tras el lanzamiento de ChatGPT se han centrado
en su capacidad para realizar tareas de evaluación, como exámenes con preguntas de opción múltiple o
abiertas (Bommarito y Katz2022; Gilson et al.2022). Otros han explorado si los resultados generados por
la IA pueden ser distinguidos con éxito por los humanos y las herramientas de detección de la IA (Gao et
al.2022; Cingillioglu2023). A pesar de algunas variaciones en los resultados de las investigaciones,
prevalece el consenso de que GenAI muestra una competencia satisfactoria para aprobar ciertos
exámenes profesionales y generar textos coherentes.
Por un lado, estos resultados apuntan a muchas oportunidades nuevas que la GenAI puede aportar a
la evaluación de la educación superior. Estas oportunidades incluyen, entre otras, generar comentarios a
través de ChatGPT (Dai et al.2023), realizando puntuaciones automatizadas de ensayos (Mizumoto y
Eguchi 2023) y crear evaluaciones personalizadas con la asistencia de GenAI (Cotton, Cotton y Shipway
2023).
Por otro lado, los avances innovadores en GenAI también han presentado desafíos importantes en el campo
de la evaluación. A muchas personas les preocupa que la mala conducta académica esté aumentando porque los
estudiantes pueden eludir su proceso de aprendizaje al presentar trabajos generados por IA como propios para
su evaluación, y hay una falta de herramientas confiables de detección de IA (Lodge, Thompson y Corrin2023).
Sin regulaciones adecuadas, estos estudiantes pueden obtener una ventaja injusta sobre sus compañeros en la
evaluación (Cotton, Cotton y Shipway2023). También existen preocupaciones sobre el acceso equitativo a las
herramientas GenAI (Sullivan, Kelly y McLaughlan2023), seguridad de los datos en el uso de GenAI (Yan et al.2023
), sesgos en los algoritmos de IA (Sullivan, Kelly y McLaughlan2023; Yan et al.2023), una falta de alfabetización en
IA para profesores y estudiantes universitarios (Chan2023a) y la difusión de información fraudulenta generada
por IA (Rudolph, Tan y Tan2023).
Con respecto al uso de GenAI en la evaluación, han surgido muchas áreas grises sin pautas
establecidas (Chan2023b). Por ejemplo, ¿es una mala conducta académica si un estudiante contribuye de
forma independiente al contenido intelectual pero utiliza GenAI para pulir la escritura? ¿Debería
considerarse más "favorable" e "independiente" el trabajo de los estudiantes realizado sin la ayuda de
GenAI? Estas preguntas no sólo resaltan la importancia de revisar conceptos clave en la evaluación (por
ejemplo, seguridad y validez de la evaluación), sino que también señalan la necesidad de revisar y
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
3
rediseñar la evaluación en la educación superior para preparar mejor a los estudiantes para un mundo
con IA (Lodge, Thompson y Corrin2023).
Políticas universitarias sobre GenAI y evaluación
Estos desafíos ejercen una presión significativa sobre las universidades para "poner orden" en el perturbado panorama
de la evaluación a través de la formulación de políticas. Aunque se publicaron muchas directrices relacionadas con la IA
antes del lanzamiento de ChatGPT, la mayoría siguen siendo genéricas y no abordan específicamente cuestiones de la
educación superior (Schiff2022; nguyen et al.2023). Schiff (2022) revisó 24 estrategias políticas nacionales de IA y
encontró que el uso de la IA en la educación está en gran medida ausente de los discursos políticos. Las políticas
anteriores tampoco han tenido en cuenta la profundidad y el alcance de la influencia aportada por los recientes avances
tecnológicos. A medida que las herramientas GenAI se utilizan rápidamente a escala entre los estudiantes, Chan (2023a)
argumentó que "todavía queda trabajo por hacer para formular documentos políticos más completos y centrados en la
IA en la educación" (6).
La falta de un marco político sólido sobre el uso de GenAI en la educación superior aumenta la dificultad para que las
universidades aborden de manera rápida y efectiva los desafíos relacionados con la GenAI en la evaluación. Inicialmente,
el uso de GenAI estaba prohibido entre los estudiantes de algunas universidades, pero esta política fue posteriormente
criticada como insostenible y contraproducente para cultivar ciudadanos alfabetizados en IA para el futuro (Sullivan, Kelly
y McLaughlan2023). Entre estas críticas se han publicado un gran número de artículos de opinión y trabajos de
investigación (por ejemplo, Chan2023a; Lodge, Thompson y Corrin2023; Rudolph, Tan y Tan2023). Por ejemplo, Chan (
2023a) propuso un marco de políticas GenAI para la enseñanza y el aprendizaje universitario basado en datos de
encuestas sobre el uso de ChatGPT. El marco destaca tres dimensiones (pedagógica, ética y operativa) que las partes
interesadas en la educación superior deben considerar en la formulación de políticas. Muchas organizaciones
internacionales, como la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UnESCO2023) y la
Organización para la Cooperación y el Desarrollo Económico (OCDE2023), también han publicado directrices sobre la
regulación de GenAI en la educación. Sin embargo, estas directrices tienden a centrarse en cuestiones más amplias
relacionadas con el impacto de GenAI en la educación (por ejemplo, regulaciones nacionales, pobreza digital) en lugar de
en los problemas específicos que enfrenta la evaluación de la educación superior.
A medida que evoluciona la comprensión de GenAI, muchas universidades han revisado y desarrollado sus
políticas GenAI para guiar un uso más responsable de la tecnología. Un ejemplo notable son las directrices de
política GenAI diseñadas conjuntamente por 24 universidades del Grupo Russell en el Reino Unido, que enfatizan
cómo las universidades deben apoyar a los estudiantes y al personal para que se alfabeticen en IA y, al mismo
tiempo, atienden las cuestiones de privacidad y plagio (Grupo Russell2023). En relación con la evaluación de la
educación superior, la Agencia de Estándares y Calidad de la Educación Terciaria de Australia (TEQSA2023)
propuso cinco principios rectores que subyacen a la reforma de la evaluación en la era GenAI, como adoptar un
enfoque programático para la evaluación y promover la evaluación que enfatice el compromiso auténtico con la
IA.
Estos documentos y directrices de política representan una valiosa fuente de datos para comprender cómo las
universidades de todo el mundo conciben y abordan los impactos, beneficios y riesgos asociados con la GenAI en la
evaluación. Sin embargo, hasta la fecha ninguna investigación ha revisado estas políticas a nivel universitario sobre
GenAI y faltan especialmente ángulos críticos. La mayoría de los debates políticos en curso giran en torno a la agenda de
"qué funciona", como por ejemplo si las universidades han prohibido o permitido el uso de GenAI en el trabajo de los
estudiantes, si se deberían utilizar herramientas de detección de IA y la eficacia potencial de ciertas políticas (por
ejemplo, Noticias del mundo universitario2023; Prensa matutina del sur de China2023).
“Cuestionamiento de problemas” en la investigación de políticas y el marco WPR
La agenda de "lo que funciona" representa un enfoque tradicional del análisis de políticas, que cree que las
políticas están diseñadasen respuesta aproblemas preexistentes (Bacchi2010). El foco del análisis es
4
J. LUO
a menudo en los efectos de la resolución de problemas y los problemas en sí mismos no se examinan (Tawell y
McCluskey2021). Por importante que sea, este enfoque considera que las políticas GenAI son funcionales y pasa
por alto cómo los problemas pueden construirse socialmente para reflejar ciertos intereses y perspectivas.
El paradigma del "cuestionamiento de problemas" desafía este enfoque y sostiene que las políticas "dar
forma y significadoa los “problemas” que pretenden “abordar” (Bacchi y Eveline2010, 111, cursiva original). La
forma en que se representan los problemas en las políticas es importante porque las representaciones conllevan
implicaciones para lo que se considera "problemático" y necesita "arreglarse". Estas implicaciones no sólo dan
forma a nuestras visiones del mundo, sino que también influyen en la sociedad de manera política al determinar
qué voz incluir o dejar de lado (Bacchi).2012). Por lo tanto, no basta simplemente con analizar las políticas
universitarias de GenAI para determinar qué tan bien resuelven problemas predefinidos en la evaluación;
también debemos preguntarnos cómo ciertos problemas llegaron a ser vistos como problemas en primer lugar.
Para facilitar el cuestionamiento de problemas críticos, Bacchi (2009) propuso el marco '¿Cuál es el problema
representado? (WPR)' que se inspiró en el trabajo de Foucault sobre problematización. El marco consta de seis
preguntas (vertabla 1). El marco WPR es adecuado para este estudio porque proporciona pasos y preguntas
concretos para operacionalizar la problematización de las políticas GenAI. Su énfasis en desentrañar las
construcciones de problemas se alinea con nuestro objetivo de investigación de sacar a la luz los supuestos
implícitos alojados en las políticas GenAI.
Estudio actual
El objetivo general de este estudio es proporcionar un análisis crítico de la representación de los problemas en
las políticas universitarias con respecto al uso de GenAI en la evaluación. Específicamente, estamos interesados
en estas preguntas de investigación:
1. ¿Cuál es el mayor problema que representan las políticas universitarias sobre el uso de GenAI en la
evaluación?
2. ¿Qué supuestos profundamente arraigados subyacen a esta representación del problema?
3. ¿Qué queda sin problema y silenciado en esta representación del problema?
4. ¿Qué efectos potenciales puede producir esta representación del problema?
Estas preguntas de investigación se basan en cuatro de las seis preguntas del marco WPR (ver tabla 1,
cuestiones 1, 2, 4 y 5). Al aplicar este marco a los estudios de políticas, varios académicos han señalado que los
investigadores son libres de seleccionar "qué pregunta(s) investigar, el orden de la investigación o el formato de
la investigación" en función de sus necesidades de investigación (Woo2022, 649; véase también Nieminen y
Eaton.2023). Debido al límite de espacio en un solo trabajo de investigación, este estudio no puede presentar
una genealogía completa de los problemas identificados (es decir, la Pregunta 3 en WPR). Dado que este estudio
analiza únicamente los textos de políticas, investigar cómo se difunden ciertas representaciones de problemas
queda fuera de su alcance (es decir, la Pregunta 6 en WPR).
Tabla 1.el marco WPr (adaptado de Bacchi y Goodwin2016, 20).
Q1
Q2
¿Cuál es el problema representado en una política o políticas específicas?
Q3
Q4
Q5
Q6
¿Cómo ha surgido esta representación del "problema"?
¿Qué presuposiciones o supuestos profundamente arraigados (lógicas conceptuales) subyacen a esta representación de
¿El 'problema' (representación del problema)?
¿Qué queda sin problema en esta representación del problema? ¿Dónde están los silencios?
¿Qué efectos (discursivos, subjetivación, vividos) produce esta representación del "problema"?
¿Cómo y dónde se ha producido, difundido y defendido esta representación del "problema"?
¿Cómo ha sido y/o cómo puede ser interrumpido y reemplazado?
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
5
Método
Muestreo
Dado que no es factible que este estudio analice todas las políticas GenAI disponibles emitidas por universidades de todo
el mundo, adoptamos un muestreo intencional para centrarnos en las 20 mejores universidades reconocidas por el QS
World University Rankings 2024. Entre estas 20 universidades, 10 están ubicadas en América del Norte, cinco en Europa,
tres en Australia y dos en Asia.
Aunque existen controversias en torno a estas clasificaciones universitarias (por ejemplo, sesgo hacia la investigación
y la comercialización), las políticas de estas universidades a menudo atraen una amplia atención pública y sirven como
modelo para otras instituciones en la formulación de políticas. Por lo tanto, nuestro enfoque de muestreo nos permite
analizar casos ricos en información cuyas representaciones de problemas tienen más probabilidades de ejercer
influencia más allá de su propia universidad y revelar el pensamiento dominante en torno a la GenAI en la evaluación de
la educación superior.
Recopilación de datos
Buscamos en los sitios web oficiales de las 20 universidades mejor clasificadas sus políticas sobre el uso de GenAI en la
evaluación (verFigura 1para conocer el procedimiento detallado de recopilación de datos). Una directriz importante que
dirige nuestra inclusión de políticas es la definición de Foucault de "textos prescriptivos", es decir, textos que están
"escritos para ofrecer reglas, opiniones y consejos sobre cómo comportarse como uno debe" (1986, 12-13). Los criterios
de inclusión y exclusión de los textos de políticas se describen enTabla 2.
La búsqueda se realizó a principios de noviembre de 2023, aproximadamente un año desde la introducción de
ChatGPT. Se creó un archivo de datos separado para cada universidad: todas las páginas web que contenían políticas
GenAI en el sitio web de una universidad se transformaron a formato PDF y se guardaron en su archivo de datos.
También se generó una hoja de Excel para catalogar los enlaces web a todas las políticas incluidas.
Figura 1.procedimiento de recogida de datos.
6
J. LUO
textos. Esta investigación proporciona información oportuna sobre las políticas GenAI luego de un año de
intensos debates en la educación superior sobre las tecnologías de IA y su papel en la evaluación.
En la búsqueda participaron dos asistentes de investigación. Uno examinó las universidades clasificadas entre 1 y 10,
mientras que el otro se centró en las universidades clasificadas entre 11 y 20. Después de la búsqueda individual, los dos
asistentes de investigación revisaron los resultados de cada uno para validar los datos. El autor cotejó una muestra
(alrededor del 30%) de su trabajo. Las discrepancias se resolvieron consultando los sitios web de las universidades y
mediante debates.
Análisis de los datos
El análisis de datos comenzó con la codificación abierta de los documentos incluidos para capturar los
principales contenidos entregados en estas políticas. Posteriormente, realizamos el análisis guiado por las
cuatro preguntas específicas en el marco WPR (verTabla 3). Si bien el marco del WPR establece una
directriz sencilla, nuestro análisis no fue lineal sino que implicó un ciclo reiterativo de examen, reflexión y
refinamiento.
Recomendaciones
Entre las 20 universidades objetivo, diecinueve han publicado políticas disponibles públicamente que regulan el
uso de GenAI en la evaluación. Para evitar señalar universidades específicas y asignar culpas, usaremos códigos
(por ejemplo, Universidad 01) para referirnos a las universidades en nuestra presentación y discusión.
¿Cuál es el principal problema representado? (RQ1)
Este estudio identificó diversas representaciones de problemas en las políticas GenAI de las universidades con respecto a
la evaluación, que incluyen preocupaciones sobre la originalidad del trabajo de los estudiantes, la necesidad de rediseñar
la evaluación, la seguridad de los datos y cuestiones de equidad. Según cómo se enmarcan en los textos de políticas,
estos problemas se clasifican además en seis grupos con diferentes orientaciones (Tabla 4).
El principal problema representado es que los estudiantes no pueden presentar su propio trabajo original
para evaluación con la presencia de GenAI. Términos como "obra original", "obra propia" y "autores" se
mencionan con frecuencia en las políticas. Se recuerda a los estudiantes que el contenido generado por IA no
debe considerarse su trabajo original y que son responsables de incluir dicho contenido en la evaluación. No
presentar el trabajo original, como se indica en la mayoría de las políticas, constituye una grave violación de la
integridad académica. Por ejemplo:
Los estudiantes deben ser autores de su propio trabajo. Contenido producido por plataformas de inteligencia artificial, como
ChatGPT,no representa el trabajo original del estudianteentonces sería considerado una forma demala conducta académica.
(Universidad 02)
Tabla 2.Los criterios de inclusión y exclusión.
Criterios de inclusión (los textos incluidos deben…)
• Centrarse en políticas a nivel universitario
Criterios de exclusión (los textos deben excluir…)
• Políticas que se aplican a un departamento o facultad específicos
• directrices regulatorias propuestas por personal individual que
no representan opiniones universitarias
• Centrarse en las políticas que rigen el uso de genAi en la educación
superior.
• páginas de recursos informativos sobre genAi (por ejemplo, introducción a genAi,
diferentes tipos de herramientas genAi, lista de lecturas recomendadas de
investigaciones relacionadas con genAi)
• Estar disponible públicamente
• Ser publicado en inglés.
• documentos internos
• Políticas escritas en idiomas distintos al inglés.
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
7
Tabla 3.análisis de los datos.
preguntas de wpr
Q1
¿Cuál es el problema que representa estar en un
¿política o políticas específicas?
análisis de los datos
• Buscamos ambosdeclaraciones explícitasque definen los problemas que la
política pretende abordar (por ejemplo, términos como "tema", "desafío",
"preocupación") yrepresentaciones de problemas implícitos(por
ejemplo, exploramos las soluciones propuestas y trabajamos hacia atrás
para identificar los problemas implicados).
Q2
¿Qué presuposiciones o
¿Qué supuestos subyacen a esta representación
Q4
• Luego se utilizó el análisis temático para agrupar los problemas
identificados en temas.
Revisamos cuidadosamente los resultados del primer trimestre y volvimos a los textos de las políticas.
examinar cómo se describen y formulan estas preguntas.
del "problema"?
Lo que no resulta problemático en este problema
Reflexionamos sobre aspectos que pueden quedar sin problemas en la
¿representación? ¿Dónde están los silencios?
políticas. específicamente, buscamos inquietudes o perspectivas
relacionadas con nuestro tema que no están suficientemente mencionadas
Q5
¿Qué efectos produce esto?
representación del 'problema'?
en las políticas.
Consideramos los efectos discursivos, de subjetivación y vividos en
diferentes partes interesadas (por ejemplo, profesores, estudiantes) producidas por las
representaciones del problema.
Reflexionamos sobre cómo nuestro propio posicionamiento como investigadores podría haber influido en nuestra interpretación de las políticas.
Enviar trabajos y evaluaciones creados por alguien o algo más,como si fuera tuyo, esPlagio y es una
forma de hacer trampa.y esto incluye contenido generado por IA. (Universidad 06)
Los estudiantes no pueden tergiversar como su propio trabajo ningún resultado generado por oderivado de la IA generativa.
(Universidad 18)
Para garantizar la originalidad del trabajo de los estudiantes en la evaluación, muchas universidades prescribieron
además reglas y orientaciones para profesores y estudiantes. En primer lugar, se espera que los profesores
proporcionen instrucciones claras en términos del uso aceptable de GenAI en sus cursos. La Universidad 16, por ejemplo,
estipula que "Los instructores deben ser directos y transparentes sobre qué herramientas pueden usar los estudiantes y
sobre los motivos de cualquier restricción.'. El uso no autorizado de GenAI está estrictamente prohibido y los estudiantes
deben solicitar la aprobación de sus profesores para utilizar dicha tecnología en la evaluación (por ejemplo, 'La
universidad dejó claro a los estudiantes... que el uso no autorizado de herramientas de inteligencia artificial en exámenes
y otros trabajos evaluados es una falta disciplinaria grave' [Universidad 03]). En los casos en que se permita el uso de
GenAI, los estudiantes deben atribuir adecuadamente las contribuciones de GenAI y asegurarse de que sus
presentaciones sigan representando sustancialmente su propio trabajo. (p.ej 'cuando el organizador del curso haya
permitido el uso de herramientas de inteligencia artificial como ChatGPT, deben acreditarse adecuadamente y sus
presentaciones deben ser sustancialmente su propio trabajo' [Universidad 20]).
Además, hay llamamientos recurrentes para que los profesores reconsideren su diseño de evaluación para reducir
los "problemas de trampas". La 'Orientación sobre IA' de la Universidad 16 establece explícitamente que'Los cambios en
el diseño y la estructura de las tareas pueden reducir sustancialmente la probabilidad de que los estudiantes hagan
trampa.La Universidad 06 aconseja a los profesores que se aseguren de que su evaluación mida "habilidades de orden
superior que aún no pueden ser bien replicadas por la IA" o que "el uso de herramientas de generación de contenido de
IA no sea ventajoso/útil" para completar la tarea de evaluación. También se recomienda a los profesores utilizar
"entrevistas de autenticidad" o "exámenes orales" para verificar si los estudiantes completaron su trabajo de forma
independiente. Un ejemplo notable es el de la Universidad 06, que afirma que su departamento debe invitar a "una
selección aleatoria de estudiantes" a asistir a una "entrevista de autenticidad". Durante la entrevista, se pedirá a los
estudiantes que aclaren sus conocimientos sobre la materia y cómo abordaron las tareas enviadas.
¿Qué supuestos profundamente arraigados subyacen a esta representación del problema y qué
queda sin problemas? (PI2 y 3)
La originalidad del trabajo de los estudiantes, así como las preocupaciones asociadas sobre la mala conducta académica,
se representan como un problema importante en las políticas universitarias en todo el mundo. Sostenemos que tal
8
J. LUO
Tabla 4.Representaciones de problemas relacionados con el uso de genAi en la evaluación.
el problema se enmarca
Mala conducta académica
ejemplo
¿Cuál es el problema?
alrededor...
• los estudiantes no pueden enviar su
'contenido producido por plataformas Ai, como
propio trabajo original para
chatgPt, no representa el trabajo original del
evaluación
estudiante, por lo que se consideraría una forma de
nortea
15
mala conducta académica que deberá abordarse según
los procedimientos disciplinarios de la
universidad.' (universidad 02)
Política y directrices
• faltan expectativas y directrices
claras (por parte de los
profesores del curso)
sobre el uso de genAi por parte de los
estudiantes en la evaluación
'los instructores deben clara y consistentemente
comunicar a los estudiantes sus
expectativas sobre el uso de gAi en sus
tareas y clases, incluso cuándo está y no
está permitido, y qué usos de gAi están
9
consideradas violaciones de la integridad académica.
(universidad 13)
Diseño de evaluación
• las tareas de evaluación actuales
deberían rediseñarse para
abordar tanto el
Oportunidades y desafíos
que trae genAi
'garantizar que las evaluaciones se desarrollen para
8
Evaluar resultados de aprendizaje que prueben y den
crédito a habilidades de alto nivel que la IA aún no
puede replicar, como el pensamiento crítico y la síntesis
de nuevas ideas, y garantizar que las preguntas
específicas planteadas en la evaluación se actualicen
tecnología(Limitaciones
de tecnología)
•
periódicamente. (universidad 06) 'Si bien sus resultados
genAi produce información
fraudulenta y sesgada
pueden parecer plausibles y
8
bien escritas, las herramientas de IA con frecuencia
se equivocan y no se puede confiar en su precisión
objetiva. (universidad 09)
• Las herramientas de detección genAi no
son confiables
'Creemos que la detección y la vigilancia
7
Las herramientas no son un medio eficaz para identificar
o disuadir el uso de IA generativa. no son confiables y
parecen estar parcializados. No recomendamos que los
profesores utilicen estas herramientas.' (universidad 18)
• - El uso de genAi genera preocupaciones sobre la
seguridad y la privacidad de los datos.
'sistemas, aplicaciones y aplicaciones de IA generativa
6
Los productos de software que procesan, analizan o
mueven datos confidenciales requieren una revisión
de seguridad antes de ser adquiridos, incluso si el
formación y apoyo
software es gratuito. (universidad 11)
• los profesores y estudiantes necesitan
recibir formación relevante
'introducir formación para que los estudiantes informen de las
7
Características clave de las herramientas de generación de
contenido Ai y, en particular, sus limitaciones. (universidad
06)
equidad
• Surgen cuestiones de equidad y
equidad debido al uso de genAi en
la evaluación.
'si una instrucción de evaluación permite el uso de
Ai, se habrán tomado medidas para garantizar un
acceso equitativo.' (universidad 20)
3
el número de universidades (de 20) que han representado este problema en sus políticas.
a
La representación de problemas revela creencias profundamente arraigadas en la comunidad de educación
superior sobre cómo comprender y abordar la "originalidad" en la evaluación.
Trabajo original y trabajo no asistido por IA
En nuestro análisis de políticas, encontramos que el uso de GenAI por parte de los estudiantes se considera una
amenaza a la originalidad de su trabajo. Esto supone que la participación de GenAI constituye un tipo de
asistencia externa, que está separada de los esfuerzos independientes y la contribución intelectual del
estudiante. Por ejemplo, University 20 analiza la capacidad de las máquinas de detección para 'diferenciar entre
texto ChatGPT y texto que es realmente original', lo que implica una clara distinción. En algunas políticas, el uso
de GenAI no se trata de manera diferente a la subcontratación del trabajo del curso a un tercero (por ejemplo,
amigos, escritores fantasma):
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
9
Así como los estudiantes no pueden entregar el trabajo de otra persona como propio,Los estudiantes no pueden tergiversar
como su propio trabajo ningún resultado generado o derivado de la IA generativa. (Universidad 18)
Ausencia de una declaración clara de un instructor del curso, uso o consulta con IA generativase tratará de
manera análoga a la asistencia de otra persona. (Universidad 05)
Según nuestra revisión, un silencio notable se refiere a la noción cambiante de "trabajo original" en un
panorama de evaluación mediado por IA. Por "trabajo original", parece haber una implicación en las políticas de
que se refiere al trabajo de los estudiantes producido por ellos mismos sin la ayuda de IA u otros. Sin embargo, a
medida que la GenAI continúa avanzando e impregnando nuestra vida diaria, hemos llegado a un momento en
el que la tecnología se mezcla con el pensamiento, la escritura y la acción humanos. Eaton (2023) fue más allá al
argumentar que pronto sería inútil "determinar dónde termina el ser humano y dónde comienza la inteligencia
artificial" (10). La noción misma de "obra original" está siendo remodelada y requiere un nuevo examen.
Trabajo original y mala conducta académica.
En nuestro análisis de políticas, encontramos que la originalidad del trabajo de los estudiantes se enmarca
principalmente como una preocupación de plagio o mala conducta académica. Por ejemplo, la Universidad 02 escribió
explícitamente que 'El contenido producido por plataformas de IA... no representa el trabajo original del estudiante, por
lo que se consideraría una forma de mala conducta académica.'. Varias universidades piden a los estudiantes que firmen
un "formulario de declaración de originalidad" para asegurarse'ellos [ustedes] no presentan la producción generada por
IA como su [su] trabajo original' (Universidad 14). Incluso antes del reciente aumento de la atención hacia GenAI, la
estrecha conexión entre la originalidad del trabajo y la mala conducta académica se ha evidenciado en la 'puntuación de
originalidad' producida por Turnitin y otras máquinas de detección de plagio para indicar similitudes entre el trabajo de
los estudiantes y una base de datos de trabajos anteriores ( Eshet2023). La arraigada orientación valorativa hacia el
trabajo original está entrelazada con comportamientos deshonestos entre los estudiantes. Por ejemplo, Johnson-Eilola y
Selber (2007) observó que los estudiantes a veces se niegan intencionalmente a hacer atribuciones a los textos fuente
porque también reconocen el valor principal que se otorga a la producción de un trabajo original que sea 100%
autogenerado.
Si bien el marco actual aborda preocupaciones válidas sobre el uso de GenAI, presenta una comprensión muy
limitada de la originalidad desde el punto de vista de la vigilancia. En estas prácticas arraigadas desde hace mucho
tiempo en la educación superior, la originalidad se reduce a un número cuantificable (por ejemplo, puntuación de
originalidad) o un ejercicio de marcar casillas (por ejemplo, firmar un formulario de declaración de originalidad). Hay muy
poca problematización sobre lo que hace que el trabajo de un estudiante sea "original" en nuestro conjunto de datos.
Una excepción es la Universidad 07, que proporciona algunas explicaciones sobre cómo los humanos generan texto
original y sostiene que este proceso es similar a cómo GenAI produce texto (por ejemplo, 'Podría decirse que, en un
grado que no desaparece, los humanos estamos haciendo lo mismo [que la IA] cuando generamos lo que se considera
texto original: escribimos basándonos en asociaciones, y nuestras asociaciones mientras escribimos provienen de lo que
previamente escuchamos o leímos de otros humanos.). Y, sin embargo, estas elaboraciones no condujeron a una
comprensión más sofisticada de la "obra original". Más bien, la universidad continúa concluyendo que enviar contenido
generado por IA para su evaluación es similar a la escritura fantasma, lo que debe considerarse como una forma de mala
conducta académica.
¿Qué efectos potenciales puede producir esta representación del problema? (RQ4)
Bacchi (2009) señalaron tres tipos de efectos que podrían ser generados por una determinada representación
del problema: efectos discursivos, subjetivación y vividos.Efectos discursivosdenotan las formas en que el
discurso político moldea nuestra comprensión de lo que se considera relevante o importante. Efectos de
subjetivaciónseñalan el poder del discurso político en la configuración de identidades y subjetividades
individuales.efectos vividosllamar la atención sobre las consecuencias tangibles experimentadas por
10
J. LUO
individuos en su vida diaria. Dado que este estudio sólo examina textos de políticas, discutimos la
potencialefectos de los problemas representados más que empíricos.
En nuestro análisis, encontramos que GenAI se presenta como una amenaza a la originalidad del trabajo de los
estudiantes. Discursivamente, esta representación implica que el trabajo de los estudiantes sin ninguna participación de
la IA es más "original" y, por tanto, más alineado con los valores que sustentan la integridad académica. Aunque varias
universidades han aconsejado a los docentes crear diseños de evaluación que permitan a los estudiantes y a la IA
colaborar en la producción del trabajo, la distinción resaltada entre "trabajo asistido por IA" y "trabajo original" aún
puede construir una jerarquía: trabajo que es completamente "humano". ' se entiende como más original, mientras que
el trabajo colaborado con IA es útil pero menos valorado. En este contexto, muchas formas emergentes de trabajo
colaborativo entre humanos e IA podrían quedar de lado debido a una falta de "originalidad". Subjetivamente, esta
representación puede estigmatizar a los estudiantes que usan GenAI independientemente de cómo la usen, asumiendo
que su trabajo es menos auténtico o valioso. Teniendo en cuenta los efectos vividos, los estudiantes pueden volverse
reservados, si no resistentes, a aprovechar dicha tecnología en su aprendizaje.
También encontramos que el problema representado de la originalidad del trabajo se aborda principalmente desde
el ángulo de la mala conducta académica. Discursivamente, esta representación del problema posiciona a los estudiantes
como potencialmente poco confiables y propensos a presentar trabajos que no son suyos. Una observación importante
se refiere a la formulación de directrices específicas (por ejemplo, rediseño de la evaluación, realización de exámenes
orales) dentro de las políticas universitarias. Algunas políticas los consideran importantes no porque tengan el potencial
de mejorar el aprendizaje de los estudiantes, sino porque previenen que los estudiantes cometan malas conductas
académicas. Por ejemplo, la Universidad 16 aconseja a los profesores que reconsideren su diseño de evaluación porque
esto puede "reducir la probabilidad de que los estudiantes hagan trampa'. Como afirman Adler-Kassner, Anson y Howard
(2008) señaló acertadamente que "invocar "mejores formas de prevenir el plagio" sólo sirve para reforzar la suposición
de que los estudiantes buscan plagiar" (235). Con demasiada frecuencia, las representaciones de los estudiantes y la
tecnología transmiten una concepción de la educación que se orienta hacia "atrapar" a los estudiantes en lugar de
involucrarlos. Como consecuencia, los estudiantes pueden sentirse desconfiados en lugar de empoderados en medio del
reciente desarrollo tecnológico. Los docentes son subjetivados menos como educadores sino más como "guardianes"
para evitar la mala conducta académica en la era digital.
Discusión
Nuestro análisis muestra que diversos problemas relacionados con GenAI han sido abordados implícita o
explícitamente en las políticas de 20 universidades líderes, y la originalidad del trabajo de los estudiantes es la
preocupación predominante. Estos hallazgos no son sorprendentes, ya que han sido mencionados en diferentes
grados en artículos de opinión o informes de los medios. Lo que es particularmente intrigante y digno de mayor
deliberación es cómo se representa el problema de la originalidad en las políticas GenAI y sus repercusiones e
implicaciones asociadas.
El marco político actual, que considera la participación de GenAI como externa a los esfuerzos individuales y
las contribuciones intelectuales de los estudiantes, refleja una mentalidad arraigada y una orientación de valores
hacia lo que constituye el trabajo original. En el campo de la escritura, Johnson-Eilola y Selber (2007) señaló que
existe una jerarquía implícita en la que el mejor trabajo de los escritores siempre se asocia con la idea de un
"genio solitario en el ático trabajando como esclavo en una obra escrita" (376). Casi dos décadas después, esta
idea todavía influye sutilmente en cómo las políticas institucionales interpretan y construyen la originalidad del
trabajo. La distinción trazada entre "trabajo asistido por IA" y "trabajo original" en las políticas universitarias
puede reforzar inadvertidamente la jerarquía tradicional que otorga mayor valor al trabajo exclusivamente
autogenerado. El posible inconveniente de esto es que los estudiantes pueden dudar a la hora de utilizar GenAI
incluso con fines de aprendizaje legítimos. Los estudiantes que opten por utilizar GenAI en la evaluación podrían
ser estigmatizados y percibidos como menos independientes y capaces.
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
11
En este contexto, sostenemos que existe un silencio crítico en las políticas de educación superior sobre la
evolución de la noción de originalidad en la era digital. Por un lado, el proceso de producción de obras originales
se está volviendo más complicado debido al reciente desarrollo tecnológico. Eaton (2023) escribió sobre cómo
hemos llegado a una era posplagio donde la escritura híbrida entre humanos e inteligencia artificial se convertirá
en la nueva normalidad. Sostuvo que los textos generados por IA no son estáticos, sino que a menudo son
"editados, revisados, reelaborados y remezclados" por humanos, lo que dificulta trazar la línea entre las
contribuciones humanas y las de la IA (3). La integración de GenAI en varias herramientas de productividad (por
ejemplo, Microsoft Office, Google Workspace) sólo hace que este proceso esté más entrelazado, y Chan (2023b)
señaló que es posible que los estudiantes ni siquiera sean conscientes del uso de la IA en la producción laboral.
Por otro lado, el auge de GenAI complica aún más lo que se entiende por originalidad en el trabajo de los
estudiantes. Si bien la originalidad se considera tradicionalmente como "individualista" y "atribuida a personas
individuales" (nakazawa, Udagawa y Akabayashi2022, 705), la producción de conocimiento en la era digital es un
proceso cada vez más distribuido y colaborativo. Con los continuos avances en la tecnología, la IA estará cada vez
más integrada en nuestra creatividad y proceso de resolución de problemas (Wu et al.2023).
Estas observaciones apuntan a la necesidad de conceptualizaciones más matizadas de la originalidad en las
políticas y prácticas de educación superior. Una posible vía es desarrollar una conceptualización situada de la
originalidad, que identifique dimensiones clave para evaluar la originalidad en función del contexto disciplinar y
el objetivo de aprendizaje. Lo que se considera original depende a menudo de un campo o dominio determinado
(Guetzkow, Lamont y Mallard2004) – por ejemplo, los cursos de escritura creativa a menudo requieren que los
estudiantes produzcan contenido altamente innovador, mientras que disciplinas como el derecho pueden
implicar el uso de plantillas y lenguaje estandarizado. Por lo tanto, la definición de originalidad, así como su
conexión con preocupaciones más amplias de mala conducta académica y aprendizaje de los estudiantes,
dependerá de "qué se está descargando, por quién y con qué propósitos en el proceso de aprendizaje" (Lodge,
Thompson y Corrin2023, 4). Esto no sólo permitirá una comprensión más sutil de la originalidad, sino que
también proporcionará claridad sobre qué aspectos específicos del trabajo de los estudiantes deben ser
originales para garantizar que los estudiantes demuestren resultados de aprendizaje particulares por sí mismos.
Otro hallazgo importante es que las políticas de educación superior tienden a encuadrar el problema de la
originalidad en el trabajo desde el ángulo de la mala conducta académica. Sostenemos que en las futuras
políticas de educación superior debería reflejarse un enfoque más inclusivo que vaya más allá de ver la
originalidad a través del estrecho lente de la vigilancia. En el futuro, las políticas de educación superior pueden
replantear la originalidad desde una perspectiva colaborativa y situarla a lo largo de un espectro continuo. Por
ejemplo, un marco estrecho de originalidad esperaría que los estudiantes que trabajan en un proyecto de
investigación científica completaran todas las etapas necesarias por sí solos sin ninguna ayuda de la IA. Sin
embargo, al replantear la originalidad en un espectro continuo, podemos explorar diferentes grados de
colaboración entre los estudiantes y la IA. Los estudiantes pueden aprovechar GenAI para ayudar a analizar
grandes conjuntos de datos y generar hipótesis iniciales, después de lo cual ejercen un juicio evaluativo para
evaluar y refinar los conocimientos generados por la IA (Bearman & Ajjawi2023; luo y chan2023). El producto final
es un esfuerzo de colaboración entre el estudiante y la IA, combinando sus respectivas fortalezas para producir
un trabajo original.
Trascendencia
Este estudio realiza aportes tanto a nivel del conocimiento como de la práctica. A nivel de conocimiento, el estudio
representa el primero de su tipo en analizar críticamente las políticas de GenAI en las universidades de todo el mundo.
Esto proporciona información valiosa sobre cómo se priorizan y enmarcan actualmente las cuestiones relacionadas con
la GenAI en la educación superior y expone áreas importantes que requieren mayor atención en la formulación de
políticas. Si bien la originalidad como concepto a menudo permanece incuestionable, nuestra discusión enriquecerá el
muy necesario conjunto de herramientas teóricas para futuros estudios que permitan conceptualizar e investigar más a
fondo la originalidad en la era de la IA.
12
J. LUO
Comprender la representación del problema en las políticas universitarias de GenAI es crucial para respaldar
futuras medidas a nivel práctico. Este estudio evoca una reflexión crítica sobre lo que hace que el trabajo de un
estudiante sea original en presencia de IA, lo que lleva a los responsables de políticas y profesionales de la
educación superior a revisar, repensar y revisar los discursos políticos actuales sobre el uso de GenAI y la
originalidad del trabajo. Un enfoque recomendado es organizar reuniones de consulta, seminarios y debates
para cuestionar y profundizar aún más el concepto de originalidad en lugar de verlo como algo consagrado en
las políticas. Será deseable asociarse con los estudiantes en estas consultas para comprender cómo abordan
GenAI y comprender la originalidad del trabajo.
Es necesario reflejar un enfoque más inclusivo en las políticas para abordar las cuestiones relacionadas con la
originalidad en el trabajo de los estudiantes. En lugar de enfatizar la originalidad desde una perspectiva de vigilancia, las
políticas pueden poner más énfasis en el apoyo disponible para que los estudiantes produzcan trabajos originales que
sean significativos para su aprendizaje. También sería importante reconocer factores estructurales más amplios que
influyen en la originalidad del trabajo de los estudiantes, como las tradiciones culturales sobre el uso de la tecnología y la
accesibilidad de GenAI en la universidad. Se debe hacer hincapié en la comunicación abierta y la colaboración con
estudiantes y profesores sobre el cumplimiento en el desarrollo de políticas para fomentar una cultura de confianza y
atención. Los formuladores de políticas podrían invitar a los estudiantes a recibir comentarios sobre el desarrollo de sus
políticas para demostrar la asociación en materia de vigilancia policial. Un mayor énfasis en la transparencia y el diálogo
bidireccional entre los líderes, el personal y los estudiantes de la educación superior puede llevar a que todas las partes
interesadas perciban la gobernanza como más equitativa y centrada en el aprendizaje.
Limitaciones, futuros estudios y conclusiones.
Este estudio revisó críticamente las políticas GenAI de 20 universidades líderes en todo el mundo.a través deEl marco
WPR de Bacchi. Descubrimos que el principal problema representado en las políticas universitarias tiene que ver con la
originalidad del trabajo de los estudiantes en la era de la IA, que se enmarca predominantemente como mala conducta
académica. A partir de estos hallazgos, profundizamos en la noción cambiante de originalidad en un panorama de
evaluación mediado por IA.
Para concluir, reflexionamos sobre algunas limitaciones de este estudio y describimos posibles direcciones
para estudios futuros. Primero, es importante reconocer que el análisis de políticas en este estudio está
influenciado por nuestra propia posición como investigadores. Nuestra inclinación a adoptar una perspectiva
crítica, así como nuestra trayectoria investigadora en evaluación.paraEl aprendizaje (en lugar de la "evaluación
del aprendizaje" o la "vigilancia de la educación"), inevitablemente da forma a nuestro análisis. Por lo tanto,
nuestro análisis representa solo una posible interpretación de las políticas GenAI y no pretende socavar todos los
esfuerzos invertidos en desarrollarlas. Para brindar perspectivas más diversas, alentamos a investigadores de
diversos campos (por ejemplo, sociología, psicología, economía) a contribuir con sus conocimientos sobre este
tema. También será interesante realizar estudios de políticas comparadas sobre universidades en diferentes
contextos geográficos o socioeconómicos. En lugar de centrarse en las mejores universidades medidas por QS
Rankings, las investigaciones futuras podrían ampliar el alcance y el tamaño de las muestras de políticas para
capturar un espectro más amplio de políticas institucionales.
En segundo lugar, como este estudio sólo se centra en textos de políticas, los efectos potenciales analizados
se beneficiarían de la evidencia empírica. En la actualidad, existe una gran cantidad de artículos de opinión sobre
GenAI y evaluación, pero faltan investigaciones empíricas. Recomendamos más estudios empíricos sobre cómo
profesores y estudiantes interpretan y responden a las políticas GenAI para proporcionar datos rigurosos sobre
los efectos de las políticas.
Finalmente, la tecnología GenAI se está desarrollando a una velocidad sin precedentes y las políticas de educación
superior también están en un proceso constante de cambios y actualizaciones. En vista de este campo en rápida
evolución, las políticas analizadas no deben interpretarse como fijas o estáticas. Este artículo no es un "diagnóstico
definitivo" de las políticas universitarias de GenAI, sino parte de un proceso continuo de configuración y mejora de estas
políticas hacia un uso más ético, efectivo y significativo de la tecnología en la evaluación.
EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR
13
También observamos que nuestra discusión sobre la originalidad es todavía bastante preliminar: hay mucho por
explorar en este panorama en evolución y alentamos a los investigadores a profundizar en los fundamentos
teóricos de la originalidad en la era de la IA.
Reconocimiento
Nos gustaría agradecer a los tres revisores que brindaron comentarios muy constructivos para mejorar la calidad del
artículo.
Declaración de divulgación
Los autores no informaron ningún posible conflicto de intereses.
Fondos
Este trabajo fue apoyado por la Beca de investigación inicial [número de subvención: RG 28/2023-2024 R] y la Propuesta de
subvención externa para el desarrollo y la presentación 2023/24 [número de subvención: EPL-S467] de la Universidad de
Educación de Hong Kong y Comité Departamental de Investigación y Títulos Superiores del EPL.
ORCIDO
Jiahui Luo (Jess)
http://orcid.org/0000-0003-1797-2191
Referencias
Adler-Kassner, L., C. Anson y RM Howard.2008. "Enmarcar el plagio". EnOriginalidad, imitación y plagio:
Enseñar escritura en la era digital, editado por C. Eisner y M. vicinius, 231–246. Ann Arbor, MI: Prensa de la Universidad de
Michigan.
Bacchi, C.2009.Análisis de políticas: ¿cuál es el problema?Bosque francés: Educación Pearson. Bacchi, C.2010. “La
política como discurso: ¿qué significa? ¿Adónde nos lleva?”Discurso: Estudios en lo Cultural
Política de educación21 (1): 45–57. doi:10.1080/01596300050005493.
Bacchi, C.2012. “¿Por qué estudiar las problematizaciones? Hacer visible la política”.Revista abierta de ciencia política02 (01): 1–8.
doi:10.4236/ojps.2012.21001.
Bacchi, C. y J. Eveline.2010. "Enfoques para la incorporación de la perspectiva de género: ¿Cuál es el problema que se representa?". En
Incorporación de la política: prácticas de género y teoría feminista, editado por C. Bacchi y J. Eveline, 111–138. Adelaida: Prensa de la
Universidad de Adelaida.
Bacchi, C. y S. Goodwin.2016.Análisis de políticas posestructurales: una guía para la práctica. Nueva York: Springer.
Bearman, M. y R. Ajjawi.2023. “Aprender a trabajar con la caja negra: pedagogía para un mundo artificial
Inteligencia."Revista británica de tecnología educativa54 (5): 1160-1173. doi:10.1111/bjet.13337. Bommarito,
M. y DM Katz.2022. "GPT toma el examen de la abogacía".Preimpresión de arXiv.
Cao, Y., Li, S. Liu, Y. Yan, Z. Dai, Y. Philip y Sun, L.2023. “Una encuesta completa sobre contenido generado por IA (AIGC):
una historia de la IA generativa desde GAn hasta ChatGPT”.Preimpresión de arXiv.
Chan, CKY2023a. "Un marco educativo integral de políticas de IA para la enseñanza y el aprendizaje universitario".
Revista Internacional de Tecnología Educativa en la Educación Superior20 (1): 38. doi:10.1186/s41239-023-00408-3. Chan, CKY2023b.
“¿Está la IA cambiando las reglas de mala conducta académica? Una mirada en profundidad a las percepciones de los estudiantes
del AI-giarismo”.Preimpresión de arXiv.
Cingillioglu, I.2023. "Detección de ensayos generados por IA: el desafío ChatGPT".La revista internacional de información
y tecnología de aprendizaje40 (3): 259–268. doi:10.1108/IJILT-03-2023-0043.
Algodón, DRE, PA Cotton y JR Shipway.2023. “Chatear y hacer trampa: garantizar la integridad académica en la era
de ChatGPT”.Innovaciones en Educación y Enseñanza Internacional. doi:10.1080/14703297.2023.2190148.
Dai, W., J. Lin, F. Jin, T. Li, YS Tsai, D. Gasevic y G. Chen.2023. “¿Pueden los modelos de lenguajes grandes proporcionar retroalimentación?
a los estudiantes? Un estudio de caso sobre ChatGPT ".EdArxiv.
Eaton, SE2023. “Postplagio: ética transdisciplinaria e integridad en la era de la inteligencia artificial y
neurotecnología”.Revista Internacional para la Integridad Educativa19 (1): 23. doi:10.1007/s40979-023-00144-1.
14
J. LUO
Eshet, Y.2023. “La pandemia de plagio: inspección de la deshonestidad académica durante el brote de COvID-19 utilizando
Software de originalidad”.Educación y Tecnologías de la Información.doi:10.1007/s10639-023-11967-3.
Foucault, M. 1986.El uso del placer: la historia de la sexualidad. Nueva York: vintage.
Gao, CA, FM Howard, n. S. Markov, EC Dyer, S. Ramesh, Y. Luo y AT Pearson.2022. “Comparación científica
Resúmenes generados por ChatGPT a resúmenes originales utilizando un detector de resultados de inteligencia artificial, un detector de
plagio y revisores humanos cegados ".BioRxiv.
Gilson, A., C. Safranek, T. Huang, contra Sócrates, L. Chi, RA Taylor y D. Chartash.2022. “¿Cómo funciona ChatGPT?
en los exámenes de licencia médica? Las implicaciones de los grandes modelos lingüísticos para la educación médica y la
evaluación del conocimiento.MedRxiv.
Guetzkow, J., M. Lamont y G. Mallard.2004. “¿Qué es la originalidad en las humanidades y las ciencias sociales?”
Revista sociológica estadounidense69 (2): 190–212. doi:10.1177/000312240406900203.
Johnson-Eilola, J. y SA Selber.2007. “Plagio, Originalidad, Ensamblaje”.Computadoras y composición24 (4):
375–403. doi:10.1016/j.compcom.2007.08.003.
Lodge, JM, K. Thompson y L. Corrin.2023. “Trazado de una agenda de investigación para la inteligencia artificial generativa
en Educación Terciaria”.Revista Australasia de Tecnología Educativa39 (1): 1–8. doi:10.14742/jet.8695.
Loutzenheiser, L.W.2015. “¿A quién llamas problema?: Abordar la transfobia y la homofobia a través de
Política escolar."Estudios críticos en educación56 (1): 99-115. doi:10.1080/17508487.2015.990473.
Luo, J. y CKY Chan.2023. “Conceptualización del juicio evaluativo en el contexto de la competencia holística
Desarrollo: resultados de un estudio Delphi.Valoración y Evaluación en la Educación Superior48 (4): 513–528. doi:10.108
0/02602938.2022.2088690.
Mizumoto, A. y M. Eguchi.2023. “Explorando el potencial del uso de un modelo de lenguaje de IA para ensayos automatizados
Puntuación."Métodos de investigación en lingüística aplicada2 (2): 100050.doi:10.1016/j.rmal.2023.100050.
nakazawa, E., M. Udagawa y A. Akabayashi.2022. “¿El uso de la IA para crear artículos de investigación académica
¿Socavar la originalidad del investigador?AI3 (3): 702–706. doi:10.3390/ai3030040.
nguyen, A., H. n. ngo, Y. Hong, B. Dang y B.-P T. nguyen.2023. “Principios éticos para la inteligencia artificial en
Educación."Educación y tecnologías de la información28 (4): 4221–4241. doi:10.1007/s10639-022-11316-w. Nieminen,
JH y SE Eaton.2023. “¿Son trampas las adaptaciones de evaluación? Un análisis político crítico”.
Valoración y Evaluación en la Educación Superior. doi:10.1080/02602938.2023.2259632.
Organización para la Cooperación y el Desarrollo Económico [OCDE].2023.Oportunidades, directrices y barreras de seguridad en
Uso eficaz y equitativo de la IA en la educación. París: Publicaciones de la OCDE.https://www.oecd.org/education/ceri/
Opportunities,%20guidelines%20and%20guardrails%20for%20 Effective%20and%20equitable%20use%20of%20
AI%20in%20education.pdf
Rudolph, J., S. Tan y S. Tan.2023. “ChatGPT: Hablador de tonterías o el fin de las evaluaciones tradicionales en niveles superiores
¿Educación?"Revista de enseñanza y aprendizaje aplicado6 (1): 1–22.
Grupo Russell.2023.Nuevos principios sobre el uso de la IA en la educación.https://russellgroup.ac.uk/news/new-principles-on-us
e-de-ia-en-educación/
Noticias del mundo universitario.2023.Oxford y Cambridge prohíben ChatGPT por temor a plagio.https://www.
universidadworldnews.com/post.php?story=20230304105854982
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura [UnESCO].2023.Orientación para la IA generativa en la educación.
catión e investigación.https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
Schiff, D.2022. “Educación para la IA, no IA para la educación: el papel de la educación y la ética en la política nacional de IA
Estrategias."Revista Internacional de Inteligencia Artificial en Educación32 (3): 527–563. doi:10.1007/s40593-021-00270-2. Prensa matutina del sur de
China.2023.Las universidades de Hong Kong ceden ante el auge de ChatGPT, herramientas de inteligencia artificial para la enseñanza y la asignación.
comentarios, pero esté atento al plagio.https://www.scmp.com/news/hong-kong/education/article/3233269/ hongkong-universities-relent-rise-chatgpt-ai-tools-teaching-and-assignments-keep-eye-out- plagio
Sullivan, M., A. Kelly y P. McLaughlan.2023. “ChatGPT en la educación superior: consideraciones para la integridad académica
y aprendizaje de los estudiantes”.Revista de enseñanza y aprendizaje aplicados6 (1): 1–10.
Tawell, A. y G. McCluskey.2021. “Utilizando Bacchi ¿Cuál es el problema que se representa? (WPR) Enfoque para
Analizar la política nacional de exclusión escolar en Inglaterra y Escocia: un ejemplo práctico”.Revista Internacional de
Investigación y Método en Educación45 (2): 137-149. doi:10.1080/1743727X.2021.1976750.
Agencia de Estándares y Calidad de la Educación Terciaria [TEQSA].2023.Reforma de la evaluación para la era de la inteligencia artificial.
https://www.teqsa.gov.au/guides-resources/resources/corporate-publications/assessment-reform-ageartificialintelligence
Woo, E.2022. “¿Cuál es el problema que se plantea en la política universitaria de clase mundial de China? Un postestructural
Análisis."Revista de política educativa, 38 (4): 644–664. doi:10.1080/02680939.2022.2045038.
Wu, Z., D. Ji, K. Yu, X. Zeng, D. Wu y M. Shidujaman.2023. "La creatividad de la IA y el modelo de cocreación entre humanos e IA".
EnLa interacción persona-ordenador. Teoría, métodos y herramientas., editado por M. Kurosu. Suiza: Springer.
Yan, L., L. Sha, L. Zhao, Y. Li, R. Martinez-Maldonado, G. Chen, X. Li, Y. Jin y D. Gašević.2023. “Práctico y Ético
Desafíos de los grandes modelos lingüísticos en la educación: una revisión sistemática del alcance.Revista británica de
tecnología educativa55 (1): 90-112. doi:10.1111/bjet.13370.
Descargar