Traducido del inglés al español - www.onlinedoctranslator.com Valoración y Evaluación en la Educación Superior ISSN: (Imprimir) (En línea) Página de inicio de la revista:www.tandfonline.com/journals/caeh20 Una revisión crítica de las políticas GenAI en la evaluación de la educación superior: un llamado a reconsiderar la “originalidad” del trabajo de los estudiantes Jiahui Luo (Jess) Para citar este artículo:Jiahui Luo (Jess) (4 de febrero de 2024): Una revisión crítica de las políticas de GenAI en la evaluación de la educación superior: un llamado a reconsiderar la “originalidad” del trabajo de los estudiantes, Evaluación y Evaluación en la Educación Superior, DOI:10.1080/02602938.2024.2309963 Para vincular a este artículo:https://doi.org/10.1080/02602938.2024.2309963 © 2024 El autor(es). Publicado por Informa UK Limited, que opera como Taylor & Francis Group Publicado en línea: 4 de febrero de 2024. Envíe su artículo a esta revista. Vistas del artículo: 5585 Ver artículos relacionados Ver datos de Crossmark Los términos y condiciones completos de acceso y uso se pueden encontrar en https://www.tandfonline.com/action/journalInformation?journalCode=caeh20 Valoración y evaluación en la educación superior https:// doi.org/10.1080/02602938.2024.2309963 Una revisión crítica de las políticas GenAI en la evaluación de la educación superior: un llamado a reconsiderar la “originalidad” del trabajo de los estudiantes Jiahui Luo (Jess) Departamento de Política y Liderazgo de Educación, Facultad de Educación y Desarrollo Humano/Centro de Estudios de Políticas y Liderazgo de la Educación Superior, Universidad de Educación de Hong Kong, RAE de Hong Kong, China ABSTRACTO PALABRAS CLAVE Este estudio ofrece un examen crítico de las políticas universitarias desarrolladas para abordar los desafíos recientes que presenta la IA generativa (GenAI) a la evaluación de la educación superior. Basándonos en el marco 'Cuál es el problema representado' (WPR) de Bacchi, analizamos las políticas GenAI de 20 universidades líderes en el mundo para explorar qué se consideran problemas en este panorama de evaluación mediado por IA y cómo estos problemas se representan en las políticas. Aunque en estas políticas se mencionaron diversos problemas relacionados con GenAI (por ejemplo, confiabilidad de los resultados generados por IA, acceso igualitario a GenAI), el principal problema representado es que los estudiantes no pueden presentar trabajos originales para evaluación. En el marco actual, GenAI a menudo se ve como un tipo de asistencia externa separada de los esfuerzos independientes y la contribución intelectual del estudiante, lo que socava la originalidad de su trabajo. Argumentamos que tal representación del problema no reconoce cómo el surgimiento de GenAI complica aún más el proceso de producción de trabajo original y lo que significa originalidad en una época en la que la producción de conocimiento se vuelve cada vez más distribuida, colaborativa y mediada por la tecnología. Por lo tanto, un silencio crítico en las políticas de educación superior se refiere a la noción cambiante de originalidad en la era digital y se requiere un enfoque más inclusivo para abordar la originalidad del trabajo de los estudiantes. IA generativa; política análisis; evaluación; ChatGPT; más alto educación Introducción Desde la aparición de poderosas herramientas de inteligencia artificial generativa (GenAI) como ChatGPT, las universidades de todo el mundo han estado trabajando en políticas para regular el uso de estas herramientas entre los estudiantes en la evaluación (Chan2023a; Grupo Russell2023). Por GenAI nos referimos a una técnica de inteligencia artificial capaz de generar una variedad de contenidos nuevos que incluyen, entre otros, textos, vídeos e imágenes (Cao et al.2023). Desde un punto de vista posestructural, estas políticas GenAI no son meras respuestas a problemas relacionados con la GenAI que existen "ahí fuera" en la educación superior. Más bien, dan forma a cómo se entienden los problemas al priorizar ciertas representaciones sobre otras. La forma en que se representan los problemas en las políticas GenAI no sólo manifiesta la lógica preferida de una universidad para gobernar las tecnologías emergentes, sino que también revela supuestos más profundos que subyacen a la evaluación en la educación superior. CONTACTOJiahui Luo (Jess) [email protected] © 2024 el Autor(es). Publicado por informa uK Limited, que opera como taylor & Francis group este es un artículo de acceso abierto distribuido bajo los términos de la licencia creative commons Atribución-no comercial-noderivadas (http:// creativecommons.org/licenses/by-nc-nd/4.0/), que permite la reutilización, distribución y reproducción sin fines comerciales en cualquier medio, siempre que la obra original esté debidamente citada y no se altere, transforme ni se aproveche de ninguna manera. Los términos en los que se ha publicado este artículo permiten la publicación del manuscrito aceptado en un repositorio por parte del autor o con su consentimiento. 2 J. LUO Esta línea de pensamiento se hace eco de lo que Bacchi (2010) denominó el paradigma del "cuestionamiento de problemas" en la investigación de políticas. Según Bacchi (2012), 'lo que decimos que queremos hacer respecto a algo indica lo que creemos que debe cambiar y, por tanto, cómo constituimos el “problema”' (4). Por ejemplo, las políticas escolares suelen considerar a los "jóvenes en riesgo" como un problema que "debe resolverse" (Loutzenheiser2015). El problema de los "jóvenes en riesgo" puede enmarcarse como un fracaso individual o como un problema estructural causado por recursos inadecuados para apoyar a los jóvenes. Los dos diferentes planteamientos de problemas conducirán a soluciones muy diferentes (por ejemplo, castigar a los "jóvenes en riesgo" o mejorar el apoyo a los jóvenes). Por lo tanto, en lugar de aceptar políticas al pie de la letra, el paradigma del "cuestionamiento de problemas" fomenta el escrutinio crítico de qué problemas se representan y cómo se representan a través de los discursos políticos (Tawell y McCluskey2021). Al hacerlo, este paradigma también abre posibilidades para explorar representaciones alternativas de problemas que desafíen presuposiciones que se dan por sentadas. Siguiendo el paradigma del "cuestionamiento de problemas", este estudio tiene como objetivo examinar críticamente las políticas de educación superior sobre GenAI y evaluación. En particular, busca comprender cuáles se consideran problemas en la evaluación de la educación superior en el surgimiento de GenAI y cómo se representan estos problemas. También se explorarán los supuestos subyacentes, los posibles silencios y los efectos de tales representaciones de problemas. El enfoque '¿Cuál es el problema representado?' (WPR) de Bacchi, que incluye seis preguntas centrales para el paradigma del 'cuestionamiento del problema', proporciona la herramienta metodológica para anclar nuestro análisis. GenAI y el cambiante panorama de la evaluación en la educación superior Las primeras investigaciones sobre GenAI y la evaluación tras el lanzamiento de ChatGPT se han centrado en su capacidad para realizar tareas de evaluación, como exámenes con preguntas de opción múltiple o abiertas (Bommarito y Katz2022; Gilson et al.2022). Otros han explorado si los resultados generados por la IA pueden ser distinguidos con éxito por los humanos y las herramientas de detección de la IA (Gao et al.2022; Cingillioglu2023). A pesar de algunas variaciones en los resultados de las investigaciones, prevalece el consenso de que GenAI muestra una competencia satisfactoria para aprobar ciertos exámenes profesionales y generar textos coherentes. Por un lado, estos resultados apuntan a muchas oportunidades nuevas que la GenAI puede aportar a la evaluación de la educación superior. Estas oportunidades incluyen, entre otras, generar comentarios a través de ChatGPT (Dai et al.2023), realizando puntuaciones automatizadas de ensayos (Mizumoto y Eguchi 2023) y crear evaluaciones personalizadas con la asistencia de GenAI (Cotton, Cotton y Shipway 2023). Por otro lado, los avances innovadores en GenAI también han presentado desafíos importantes en el campo de la evaluación. A muchas personas les preocupa que la mala conducta académica esté aumentando porque los estudiantes pueden eludir su proceso de aprendizaje al presentar trabajos generados por IA como propios para su evaluación, y hay una falta de herramientas confiables de detección de IA (Lodge, Thompson y Corrin2023). Sin regulaciones adecuadas, estos estudiantes pueden obtener una ventaja injusta sobre sus compañeros en la evaluación (Cotton, Cotton y Shipway2023). También existen preocupaciones sobre el acceso equitativo a las herramientas GenAI (Sullivan, Kelly y McLaughlan2023), seguridad de los datos en el uso de GenAI (Yan et al.2023 ), sesgos en los algoritmos de IA (Sullivan, Kelly y McLaughlan2023; Yan et al.2023), una falta de alfabetización en IA para profesores y estudiantes universitarios (Chan2023a) y la difusión de información fraudulenta generada por IA (Rudolph, Tan y Tan2023). Con respecto al uso de GenAI en la evaluación, han surgido muchas áreas grises sin pautas establecidas (Chan2023b). Por ejemplo, ¿es una mala conducta académica si un estudiante contribuye de forma independiente al contenido intelectual pero utiliza GenAI para pulir la escritura? ¿Debería considerarse más "favorable" e "independiente" el trabajo de los estudiantes realizado sin la ayuda de GenAI? Estas preguntas no sólo resaltan la importancia de revisar conceptos clave en la evaluación (por ejemplo, seguridad y validez de la evaluación), sino que también señalan la necesidad de revisar y EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 3 rediseñar la evaluación en la educación superior para preparar mejor a los estudiantes para un mundo con IA (Lodge, Thompson y Corrin2023). Políticas universitarias sobre GenAI y evaluación Estos desafíos ejercen una presión significativa sobre las universidades para "poner orden" en el perturbado panorama de la evaluación a través de la formulación de políticas. Aunque se publicaron muchas directrices relacionadas con la IA antes del lanzamiento de ChatGPT, la mayoría siguen siendo genéricas y no abordan específicamente cuestiones de la educación superior (Schiff2022; nguyen et al.2023). Schiff (2022) revisó 24 estrategias políticas nacionales de IA y encontró que el uso de la IA en la educación está en gran medida ausente de los discursos políticos. Las políticas anteriores tampoco han tenido en cuenta la profundidad y el alcance de la influencia aportada por los recientes avances tecnológicos. A medida que las herramientas GenAI se utilizan rápidamente a escala entre los estudiantes, Chan (2023a) argumentó que "todavía queda trabajo por hacer para formular documentos políticos más completos y centrados en la IA en la educación" (6). La falta de un marco político sólido sobre el uso de GenAI en la educación superior aumenta la dificultad para que las universidades aborden de manera rápida y efectiva los desafíos relacionados con la GenAI en la evaluación. Inicialmente, el uso de GenAI estaba prohibido entre los estudiantes de algunas universidades, pero esta política fue posteriormente criticada como insostenible y contraproducente para cultivar ciudadanos alfabetizados en IA para el futuro (Sullivan, Kelly y McLaughlan2023). Entre estas críticas se han publicado un gran número de artículos de opinión y trabajos de investigación (por ejemplo, Chan2023a; Lodge, Thompson y Corrin2023; Rudolph, Tan y Tan2023). Por ejemplo, Chan ( 2023a) propuso un marco de políticas GenAI para la enseñanza y el aprendizaje universitario basado en datos de encuestas sobre el uso de ChatGPT. El marco destaca tres dimensiones (pedagógica, ética y operativa) que las partes interesadas en la educación superior deben considerar en la formulación de políticas. Muchas organizaciones internacionales, como la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UnESCO2023) y la Organización para la Cooperación y el Desarrollo Económico (OCDE2023), también han publicado directrices sobre la regulación de GenAI en la educación. Sin embargo, estas directrices tienden a centrarse en cuestiones más amplias relacionadas con el impacto de GenAI en la educación (por ejemplo, regulaciones nacionales, pobreza digital) en lugar de en los problemas específicos que enfrenta la evaluación de la educación superior. A medida que evoluciona la comprensión de GenAI, muchas universidades han revisado y desarrollado sus políticas GenAI para guiar un uso más responsable de la tecnología. Un ejemplo notable son las directrices de política GenAI diseñadas conjuntamente por 24 universidades del Grupo Russell en el Reino Unido, que enfatizan cómo las universidades deben apoyar a los estudiantes y al personal para que se alfabeticen en IA y, al mismo tiempo, atienden las cuestiones de privacidad y plagio (Grupo Russell2023). En relación con la evaluación de la educación superior, la Agencia de Estándares y Calidad de la Educación Terciaria de Australia (TEQSA2023) propuso cinco principios rectores que subyacen a la reforma de la evaluación en la era GenAI, como adoptar un enfoque programático para la evaluación y promover la evaluación que enfatice el compromiso auténtico con la IA. Estos documentos y directrices de política representan una valiosa fuente de datos para comprender cómo las universidades de todo el mundo conciben y abordan los impactos, beneficios y riesgos asociados con la GenAI en la evaluación. Sin embargo, hasta la fecha ninguna investigación ha revisado estas políticas a nivel universitario sobre GenAI y faltan especialmente ángulos críticos. La mayoría de los debates políticos en curso giran en torno a la agenda de "qué funciona", como por ejemplo si las universidades han prohibido o permitido el uso de GenAI en el trabajo de los estudiantes, si se deberían utilizar herramientas de detección de IA y la eficacia potencial de ciertas políticas (por ejemplo, Noticias del mundo universitario2023; Prensa matutina del sur de China2023). “Cuestionamiento de problemas” en la investigación de políticas y el marco WPR La agenda de "lo que funciona" representa un enfoque tradicional del análisis de políticas, que cree que las políticas están diseñadasen respuesta aproblemas preexistentes (Bacchi2010). El foco del análisis es 4 J. LUO a menudo en los efectos de la resolución de problemas y los problemas en sí mismos no se examinan (Tawell y McCluskey2021). Por importante que sea, este enfoque considera que las políticas GenAI son funcionales y pasa por alto cómo los problemas pueden construirse socialmente para reflejar ciertos intereses y perspectivas. El paradigma del "cuestionamiento de problemas" desafía este enfoque y sostiene que las políticas "dar forma y significadoa los “problemas” que pretenden “abordar” (Bacchi y Eveline2010, 111, cursiva original). La forma en que se representan los problemas en las políticas es importante porque las representaciones conllevan implicaciones para lo que se considera "problemático" y necesita "arreglarse". Estas implicaciones no sólo dan forma a nuestras visiones del mundo, sino que también influyen en la sociedad de manera política al determinar qué voz incluir o dejar de lado (Bacchi).2012). Por lo tanto, no basta simplemente con analizar las políticas universitarias de GenAI para determinar qué tan bien resuelven problemas predefinidos en la evaluación; también debemos preguntarnos cómo ciertos problemas llegaron a ser vistos como problemas en primer lugar. Para facilitar el cuestionamiento de problemas críticos, Bacchi (2009) propuso el marco '¿Cuál es el problema representado? (WPR)' que se inspiró en el trabajo de Foucault sobre problematización. El marco consta de seis preguntas (vertabla 1). El marco WPR es adecuado para este estudio porque proporciona pasos y preguntas concretos para operacionalizar la problematización de las políticas GenAI. Su énfasis en desentrañar las construcciones de problemas se alinea con nuestro objetivo de investigación de sacar a la luz los supuestos implícitos alojados en las políticas GenAI. Estudio actual El objetivo general de este estudio es proporcionar un análisis crítico de la representación de los problemas en las políticas universitarias con respecto al uso de GenAI en la evaluación. Específicamente, estamos interesados en estas preguntas de investigación: 1. ¿Cuál es el mayor problema que representan las políticas universitarias sobre el uso de GenAI en la evaluación? 2. ¿Qué supuestos profundamente arraigados subyacen a esta representación del problema? 3. ¿Qué queda sin problema y silenciado en esta representación del problema? 4. ¿Qué efectos potenciales puede producir esta representación del problema? Estas preguntas de investigación se basan en cuatro de las seis preguntas del marco WPR (ver tabla 1, cuestiones 1, 2, 4 y 5). Al aplicar este marco a los estudios de políticas, varios académicos han señalado que los investigadores son libres de seleccionar "qué pregunta(s) investigar, el orden de la investigación o el formato de la investigación" en función de sus necesidades de investigación (Woo2022, 649; véase también Nieminen y Eaton.2023). Debido al límite de espacio en un solo trabajo de investigación, este estudio no puede presentar una genealogía completa de los problemas identificados (es decir, la Pregunta 3 en WPR). Dado que este estudio analiza únicamente los textos de políticas, investigar cómo se difunden ciertas representaciones de problemas queda fuera de su alcance (es decir, la Pregunta 6 en WPR). Tabla 1.el marco WPr (adaptado de Bacchi y Goodwin2016, 20). Q1 Q2 ¿Cuál es el problema representado en una política o políticas específicas? Q3 Q4 Q5 Q6 ¿Cómo ha surgido esta representación del "problema"? ¿Qué presuposiciones o supuestos profundamente arraigados (lógicas conceptuales) subyacen a esta representación de ¿El 'problema' (representación del problema)? ¿Qué queda sin problema en esta representación del problema? ¿Dónde están los silencios? ¿Qué efectos (discursivos, subjetivación, vividos) produce esta representación del "problema"? ¿Cómo y dónde se ha producido, difundido y defendido esta representación del "problema"? ¿Cómo ha sido y/o cómo puede ser interrumpido y reemplazado? EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 5 Método Muestreo Dado que no es factible que este estudio analice todas las políticas GenAI disponibles emitidas por universidades de todo el mundo, adoptamos un muestreo intencional para centrarnos en las 20 mejores universidades reconocidas por el QS World University Rankings 2024. Entre estas 20 universidades, 10 están ubicadas en América del Norte, cinco en Europa, tres en Australia y dos en Asia. Aunque existen controversias en torno a estas clasificaciones universitarias (por ejemplo, sesgo hacia la investigación y la comercialización), las políticas de estas universidades a menudo atraen una amplia atención pública y sirven como modelo para otras instituciones en la formulación de políticas. Por lo tanto, nuestro enfoque de muestreo nos permite analizar casos ricos en información cuyas representaciones de problemas tienen más probabilidades de ejercer influencia más allá de su propia universidad y revelar el pensamiento dominante en torno a la GenAI en la evaluación de la educación superior. Recopilación de datos Buscamos en los sitios web oficiales de las 20 universidades mejor clasificadas sus políticas sobre el uso de GenAI en la evaluación (verFigura 1para conocer el procedimiento detallado de recopilación de datos). Una directriz importante que dirige nuestra inclusión de políticas es la definición de Foucault de "textos prescriptivos", es decir, textos que están "escritos para ofrecer reglas, opiniones y consejos sobre cómo comportarse como uno debe" (1986, 12-13). Los criterios de inclusión y exclusión de los textos de políticas se describen enTabla 2. La búsqueda se realizó a principios de noviembre de 2023, aproximadamente un año desde la introducción de ChatGPT. Se creó un archivo de datos separado para cada universidad: todas las páginas web que contenían políticas GenAI en el sitio web de una universidad se transformaron a formato PDF y se guardaron en su archivo de datos. También se generó una hoja de Excel para catalogar los enlaces web a todas las políticas incluidas. Figura 1.procedimiento de recogida de datos. 6 J. LUO textos. Esta investigación proporciona información oportuna sobre las políticas GenAI luego de un año de intensos debates en la educación superior sobre las tecnologías de IA y su papel en la evaluación. En la búsqueda participaron dos asistentes de investigación. Uno examinó las universidades clasificadas entre 1 y 10, mientras que el otro se centró en las universidades clasificadas entre 11 y 20. Después de la búsqueda individual, los dos asistentes de investigación revisaron los resultados de cada uno para validar los datos. El autor cotejó una muestra (alrededor del 30%) de su trabajo. Las discrepancias se resolvieron consultando los sitios web de las universidades y mediante debates. Análisis de los datos El análisis de datos comenzó con la codificación abierta de los documentos incluidos para capturar los principales contenidos entregados en estas políticas. Posteriormente, realizamos el análisis guiado por las cuatro preguntas específicas en el marco WPR (verTabla 3). Si bien el marco del WPR establece una directriz sencilla, nuestro análisis no fue lineal sino que implicó un ciclo reiterativo de examen, reflexión y refinamiento. Recomendaciones Entre las 20 universidades objetivo, diecinueve han publicado políticas disponibles públicamente que regulan el uso de GenAI en la evaluación. Para evitar señalar universidades específicas y asignar culpas, usaremos códigos (por ejemplo, Universidad 01) para referirnos a las universidades en nuestra presentación y discusión. ¿Cuál es el principal problema representado? (RQ1) Este estudio identificó diversas representaciones de problemas en las políticas GenAI de las universidades con respecto a la evaluación, que incluyen preocupaciones sobre la originalidad del trabajo de los estudiantes, la necesidad de rediseñar la evaluación, la seguridad de los datos y cuestiones de equidad. Según cómo se enmarcan en los textos de políticas, estos problemas se clasifican además en seis grupos con diferentes orientaciones (Tabla 4). El principal problema representado es que los estudiantes no pueden presentar su propio trabajo original para evaluación con la presencia de GenAI. Términos como "obra original", "obra propia" y "autores" se mencionan con frecuencia en las políticas. Se recuerda a los estudiantes que el contenido generado por IA no debe considerarse su trabajo original y que son responsables de incluir dicho contenido en la evaluación. No presentar el trabajo original, como se indica en la mayoría de las políticas, constituye una grave violación de la integridad académica. Por ejemplo: Los estudiantes deben ser autores de su propio trabajo. Contenido producido por plataformas de inteligencia artificial, como ChatGPT,no representa el trabajo original del estudianteentonces sería considerado una forma demala conducta académica. (Universidad 02) Tabla 2.Los criterios de inclusión y exclusión. Criterios de inclusión (los textos incluidos deben…) • Centrarse en políticas a nivel universitario Criterios de exclusión (los textos deben excluir…) • Políticas que se aplican a un departamento o facultad específicos • directrices regulatorias propuestas por personal individual que no representan opiniones universitarias • Centrarse en las políticas que rigen el uso de genAi en la educación superior. • páginas de recursos informativos sobre genAi (por ejemplo, introducción a genAi, diferentes tipos de herramientas genAi, lista de lecturas recomendadas de investigaciones relacionadas con genAi) • Estar disponible públicamente • Ser publicado en inglés. • documentos internos • Políticas escritas en idiomas distintos al inglés. EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 7 Tabla 3.análisis de los datos. preguntas de wpr Q1 ¿Cuál es el problema que representa estar en un ¿política o políticas específicas? análisis de los datos • Buscamos ambosdeclaraciones explícitasque definen los problemas que la política pretende abordar (por ejemplo, términos como "tema", "desafío", "preocupación") yrepresentaciones de problemas implícitos(por ejemplo, exploramos las soluciones propuestas y trabajamos hacia atrás para identificar los problemas implicados). Q2 ¿Qué presuposiciones o ¿Qué supuestos subyacen a esta representación Q4 • Luego se utilizó el análisis temático para agrupar los problemas identificados en temas. Revisamos cuidadosamente los resultados del primer trimestre y volvimos a los textos de las políticas. examinar cómo se describen y formulan estas preguntas. del "problema"? Lo que no resulta problemático en este problema Reflexionamos sobre aspectos que pueden quedar sin problemas en la ¿representación? ¿Dónde están los silencios? políticas. específicamente, buscamos inquietudes o perspectivas relacionadas con nuestro tema que no están suficientemente mencionadas Q5 ¿Qué efectos produce esto? representación del 'problema'? en las políticas. Consideramos los efectos discursivos, de subjetivación y vividos en diferentes partes interesadas (por ejemplo, profesores, estudiantes) producidas por las representaciones del problema. Reflexionamos sobre cómo nuestro propio posicionamiento como investigadores podría haber influido en nuestra interpretación de las políticas. Enviar trabajos y evaluaciones creados por alguien o algo más,como si fuera tuyo, esPlagio y es una forma de hacer trampa.y esto incluye contenido generado por IA. (Universidad 06) Los estudiantes no pueden tergiversar como su propio trabajo ningún resultado generado por oderivado de la IA generativa. (Universidad 18) Para garantizar la originalidad del trabajo de los estudiantes en la evaluación, muchas universidades prescribieron además reglas y orientaciones para profesores y estudiantes. En primer lugar, se espera que los profesores proporcionen instrucciones claras en términos del uso aceptable de GenAI en sus cursos. La Universidad 16, por ejemplo, estipula que "Los instructores deben ser directos y transparentes sobre qué herramientas pueden usar los estudiantes y sobre los motivos de cualquier restricción.'. El uso no autorizado de GenAI está estrictamente prohibido y los estudiantes deben solicitar la aprobación de sus profesores para utilizar dicha tecnología en la evaluación (por ejemplo, 'La universidad dejó claro a los estudiantes... que el uso no autorizado de herramientas de inteligencia artificial en exámenes y otros trabajos evaluados es una falta disciplinaria grave' [Universidad 03]). En los casos en que se permita el uso de GenAI, los estudiantes deben atribuir adecuadamente las contribuciones de GenAI y asegurarse de que sus presentaciones sigan representando sustancialmente su propio trabajo. (p.ej 'cuando el organizador del curso haya permitido el uso de herramientas de inteligencia artificial como ChatGPT, deben acreditarse adecuadamente y sus presentaciones deben ser sustancialmente su propio trabajo' [Universidad 20]). Además, hay llamamientos recurrentes para que los profesores reconsideren su diseño de evaluación para reducir los "problemas de trampas". La 'Orientación sobre IA' de la Universidad 16 establece explícitamente que'Los cambios en el diseño y la estructura de las tareas pueden reducir sustancialmente la probabilidad de que los estudiantes hagan trampa.La Universidad 06 aconseja a los profesores que se aseguren de que su evaluación mida "habilidades de orden superior que aún no pueden ser bien replicadas por la IA" o que "el uso de herramientas de generación de contenido de IA no sea ventajoso/útil" para completar la tarea de evaluación. También se recomienda a los profesores utilizar "entrevistas de autenticidad" o "exámenes orales" para verificar si los estudiantes completaron su trabajo de forma independiente. Un ejemplo notable es el de la Universidad 06, que afirma que su departamento debe invitar a "una selección aleatoria de estudiantes" a asistir a una "entrevista de autenticidad". Durante la entrevista, se pedirá a los estudiantes que aclaren sus conocimientos sobre la materia y cómo abordaron las tareas enviadas. ¿Qué supuestos profundamente arraigados subyacen a esta representación del problema y qué queda sin problemas? (PI2 y 3) La originalidad del trabajo de los estudiantes, así como las preocupaciones asociadas sobre la mala conducta académica, se representan como un problema importante en las políticas universitarias en todo el mundo. Sostenemos que tal 8 J. LUO Tabla 4.Representaciones de problemas relacionados con el uso de genAi en la evaluación. el problema se enmarca Mala conducta académica ejemplo ¿Cuál es el problema? alrededor... • los estudiantes no pueden enviar su 'contenido producido por plataformas Ai, como propio trabajo original para chatgPt, no representa el trabajo original del evaluación estudiante, por lo que se consideraría una forma de nortea 15 mala conducta académica que deberá abordarse según los procedimientos disciplinarios de la universidad.' (universidad 02) Política y directrices • faltan expectativas y directrices claras (por parte de los profesores del curso) sobre el uso de genAi por parte de los estudiantes en la evaluación 'los instructores deben clara y consistentemente comunicar a los estudiantes sus expectativas sobre el uso de gAi en sus tareas y clases, incluso cuándo está y no está permitido, y qué usos de gAi están 9 consideradas violaciones de la integridad académica. (universidad 13) Diseño de evaluación • las tareas de evaluación actuales deberían rediseñarse para abordar tanto el Oportunidades y desafíos que trae genAi 'garantizar que las evaluaciones se desarrollen para 8 Evaluar resultados de aprendizaje que prueben y den crédito a habilidades de alto nivel que la IA aún no puede replicar, como el pensamiento crítico y la síntesis de nuevas ideas, y garantizar que las preguntas específicas planteadas en la evaluación se actualicen tecnología(Limitaciones de tecnología) • periódicamente. (universidad 06) 'Si bien sus resultados genAi produce información fraudulenta y sesgada pueden parecer plausibles y 8 bien escritas, las herramientas de IA con frecuencia se equivocan y no se puede confiar en su precisión objetiva. (universidad 09) • Las herramientas de detección genAi no son confiables 'Creemos que la detección y la vigilancia 7 Las herramientas no son un medio eficaz para identificar o disuadir el uso de IA generativa. no son confiables y parecen estar parcializados. No recomendamos que los profesores utilicen estas herramientas.' (universidad 18) • - El uso de genAi genera preocupaciones sobre la seguridad y la privacidad de los datos. 'sistemas, aplicaciones y aplicaciones de IA generativa 6 Los productos de software que procesan, analizan o mueven datos confidenciales requieren una revisión de seguridad antes de ser adquiridos, incluso si el formación y apoyo software es gratuito. (universidad 11) • los profesores y estudiantes necesitan recibir formación relevante 'introducir formación para que los estudiantes informen de las 7 Características clave de las herramientas de generación de contenido Ai y, en particular, sus limitaciones. (universidad 06) equidad • Surgen cuestiones de equidad y equidad debido al uso de genAi en la evaluación. 'si una instrucción de evaluación permite el uso de Ai, se habrán tomado medidas para garantizar un acceso equitativo.' (universidad 20) 3 el número de universidades (de 20) que han representado este problema en sus políticas. a La representación de problemas revela creencias profundamente arraigadas en la comunidad de educación superior sobre cómo comprender y abordar la "originalidad" en la evaluación. Trabajo original y trabajo no asistido por IA En nuestro análisis de políticas, encontramos que el uso de GenAI por parte de los estudiantes se considera una amenaza a la originalidad de su trabajo. Esto supone que la participación de GenAI constituye un tipo de asistencia externa, que está separada de los esfuerzos independientes y la contribución intelectual del estudiante. Por ejemplo, University 20 analiza la capacidad de las máquinas de detección para 'diferenciar entre texto ChatGPT y texto que es realmente original', lo que implica una clara distinción. En algunas políticas, el uso de GenAI no se trata de manera diferente a la subcontratación del trabajo del curso a un tercero (por ejemplo, amigos, escritores fantasma): EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 9 Así como los estudiantes no pueden entregar el trabajo de otra persona como propio,Los estudiantes no pueden tergiversar como su propio trabajo ningún resultado generado o derivado de la IA generativa. (Universidad 18) Ausencia de una declaración clara de un instructor del curso, uso o consulta con IA generativase tratará de manera análoga a la asistencia de otra persona. (Universidad 05) Según nuestra revisión, un silencio notable se refiere a la noción cambiante de "trabajo original" en un panorama de evaluación mediado por IA. Por "trabajo original", parece haber una implicación en las políticas de que se refiere al trabajo de los estudiantes producido por ellos mismos sin la ayuda de IA u otros. Sin embargo, a medida que la GenAI continúa avanzando e impregnando nuestra vida diaria, hemos llegado a un momento en el que la tecnología se mezcla con el pensamiento, la escritura y la acción humanos. Eaton (2023) fue más allá al argumentar que pronto sería inútil "determinar dónde termina el ser humano y dónde comienza la inteligencia artificial" (10). La noción misma de "obra original" está siendo remodelada y requiere un nuevo examen. Trabajo original y mala conducta académica. En nuestro análisis de políticas, encontramos que la originalidad del trabajo de los estudiantes se enmarca principalmente como una preocupación de plagio o mala conducta académica. Por ejemplo, la Universidad 02 escribió explícitamente que 'El contenido producido por plataformas de IA... no representa el trabajo original del estudiante, por lo que se consideraría una forma de mala conducta académica.'. Varias universidades piden a los estudiantes que firmen un "formulario de declaración de originalidad" para asegurarse'ellos [ustedes] no presentan la producción generada por IA como su [su] trabajo original' (Universidad 14). Incluso antes del reciente aumento de la atención hacia GenAI, la estrecha conexión entre la originalidad del trabajo y la mala conducta académica se ha evidenciado en la 'puntuación de originalidad' producida por Turnitin y otras máquinas de detección de plagio para indicar similitudes entre el trabajo de los estudiantes y una base de datos de trabajos anteriores ( Eshet2023). La arraigada orientación valorativa hacia el trabajo original está entrelazada con comportamientos deshonestos entre los estudiantes. Por ejemplo, Johnson-Eilola y Selber (2007) observó que los estudiantes a veces se niegan intencionalmente a hacer atribuciones a los textos fuente porque también reconocen el valor principal que se otorga a la producción de un trabajo original que sea 100% autogenerado. Si bien el marco actual aborda preocupaciones válidas sobre el uso de GenAI, presenta una comprensión muy limitada de la originalidad desde el punto de vista de la vigilancia. En estas prácticas arraigadas desde hace mucho tiempo en la educación superior, la originalidad se reduce a un número cuantificable (por ejemplo, puntuación de originalidad) o un ejercicio de marcar casillas (por ejemplo, firmar un formulario de declaración de originalidad). Hay muy poca problematización sobre lo que hace que el trabajo de un estudiante sea "original" en nuestro conjunto de datos. Una excepción es la Universidad 07, que proporciona algunas explicaciones sobre cómo los humanos generan texto original y sostiene que este proceso es similar a cómo GenAI produce texto (por ejemplo, 'Podría decirse que, en un grado que no desaparece, los humanos estamos haciendo lo mismo [que la IA] cuando generamos lo que se considera texto original: escribimos basándonos en asociaciones, y nuestras asociaciones mientras escribimos provienen de lo que previamente escuchamos o leímos de otros humanos.). Y, sin embargo, estas elaboraciones no condujeron a una comprensión más sofisticada de la "obra original". Más bien, la universidad continúa concluyendo que enviar contenido generado por IA para su evaluación es similar a la escritura fantasma, lo que debe considerarse como una forma de mala conducta académica. ¿Qué efectos potenciales puede producir esta representación del problema? (RQ4) Bacchi (2009) señalaron tres tipos de efectos que podrían ser generados por una determinada representación del problema: efectos discursivos, subjetivación y vividos.Efectos discursivosdenotan las formas en que el discurso político moldea nuestra comprensión de lo que se considera relevante o importante. Efectos de subjetivaciónseñalan el poder del discurso político en la configuración de identidades y subjetividades individuales.efectos vividosllamar la atención sobre las consecuencias tangibles experimentadas por 10 J. LUO individuos en su vida diaria. Dado que este estudio sólo examina textos de políticas, discutimos la potencialefectos de los problemas representados más que empíricos. En nuestro análisis, encontramos que GenAI se presenta como una amenaza a la originalidad del trabajo de los estudiantes. Discursivamente, esta representación implica que el trabajo de los estudiantes sin ninguna participación de la IA es más "original" y, por tanto, más alineado con los valores que sustentan la integridad académica. Aunque varias universidades han aconsejado a los docentes crear diseños de evaluación que permitan a los estudiantes y a la IA colaborar en la producción del trabajo, la distinción resaltada entre "trabajo asistido por IA" y "trabajo original" aún puede construir una jerarquía: trabajo que es completamente "humano". ' se entiende como más original, mientras que el trabajo colaborado con IA es útil pero menos valorado. En este contexto, muchas formas emergentes de trabajo colaborativo entre humanos e IA podrían quedar de lado debido a una falta de "originalidad". Subjetivamente, esta representación puede estigmatizar a los estudiantes que usan GenAI independientemente de cómo la usen, asumiendo que su trabajo es menos auténtico o valioso. Teniendo en cuenta los efectos vividos, los estudiantes pueden volverse reservados, si no resistentes, a aprovechar dicha tecnología en su aprendizaje. También encontramos que el problema representado de la originalidad del trabajo se aborda principalmente desde el ángulo de la mala conducta académica. Discursivamente, esta representación del problema posiciona a los estudiantes como potencialmente poco confiables y propensos a presentar trabajos que no son suyos. Una observación importante se refiere a la formulación de directrices específicas (por ejemplo, rediseño de la evaluación, realización de exámenes orales) dentro de las políticas universitarias. Algunas políticas los consideran importantes no porque tengan el potencial de mejorar el aprendizaje de los estudiantes, sino porque previenen que los estudiantes cometan malas conductas académicas. Por ejemplo, la Universidad 16 aconseja a los profesores que reconsideren su diseño de evaluación porque esto puede "reducir la probabilidad de que los estudiantes hagan trampa'. Como afirman Adler-Kassner, Anson y Howard (2008) señaló acertadamente que "invocar "mejores formas de prevenir el plagio" sólo sirve para reforzar la suposición de que los estudiantes buscan plagiar" (235). Con demasiada frecuencia, las representaciones de los estudiantes y la tecnología transmiten una concepción de la educación que se orienta hacia "atrapar" a los estudiantes en lugar de involucrarlos. Como consecuencia, los estudiantes pueden sentirse desconfiados en lugar de empoderados en medio del reciente desarrollo tecnológico. Los docentes son subjetivados menos como educadores sino más como "guardianes" para evitar la mala conducta académica en la era digital. Discusión Nuestro análisis muestra que diversos problemas relacionados con GenAI han sido abordados implícita o explícitamente en las políticas de 20 universidades líderes, y la originalidad del trabajo de los estudiantes es la preocupación predominante. Estos hallazgos no son sorprendentes, ya que han sido mencionados en diferentes grados en artículos de opinión o informes de los medios. Lo que es particularmente intrigante y digno de mayor deliberación es cómo se representa el problema de la originalidad en las políticas GenAI y sus repercusiones e implicaciones asociadas. El marco político actual, que considera la participación de GenAI como externa a los esfuerzos individuales y las contribuciones intelectuales de los estudiantes, refleja una mentalidad arraigada y una orientación de valores hacia lo que constituye el trabajo original. En el campo de la escritura, Johnson-Eilola y Selber (2007) señaló que existe una jerarquía implícita en la que el mejor trabajo de los escritores siempre se asocia con la idea de un "genio solitario en el ático trabajando como esclavo en una obra escrita" (376). Casi dos décadas después, esta idea todavía influye sutilmente en cómo las políticas institucionales interpretan y construyen la originalidad del trabajo. La distinción trazada entre "trabajo asistido por IA" y "trabajo original" en las políticas universitarias puede reforzar inadvertidamente la jerarquía tradicional que otorga mayor valor al trabajo exclusivamente autogenerado. El posible inconveniente de esto es que los estudiantes pueden dudar a la hora de utilizar GenAI incluso con fines de aprendizaje legítimos. Los estudiantes que opten por utilizar GenAI en la evaluación podrían ser estigmatizados y percibidos como menos independientes y capaces. EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 11 En este contexto, sostenemos que existe un silencio crítico en las políticas de educación superior sobre la evolución de la noción de originalidad en la era digital. Por un lado, el proceso de producción de obras originales se está volviendo más complicado debido al reciente desarrollo tecnológico. Eaton (2023) escribió sobre cómo hemos llegado a una era posplagio donde la escritura híbrida entre humanos e inteligencia artificial se convertirá en la nueva normalidad. Sostuvo que los textos generados por IA no son estáticos, sino que a menudo son "editados, revisados, reelaborados y remezclados" por humanos, lo que dificulta trazar la línea entre las contribuciones humanas y las de la IA (3). La integración de GenAI en varias herramientas de productividad (por ejemplo, Microsoft Office, Google Workspace) sólo hace que este proceso esté más entrelazado, y Chan (2023b) señaló que es posible que los estudiantes ni siquiera sean conscientes del uso de la IA en la producción laboral. Por otro lado, el auge de GenAI complica aún más lo que se entiende por originalidad en el trabajo de los estudiantes. Si bien la originalidad se considera tradicionalmente como "individualista" y "atribuida a personas individuales" (nakazawa, Udagawa y Akabayashi2022, 705), la producción de conocimiento en la era digital es un proceso cada vez más distribuido y colaborativo. Con los continuos avances en la tecnología, la IA estará cada vez más integrada en nuestra creatividad y proceso de resolución de problemas (Wu et al.2023). Estas observaciones apuntan a la necesidad de conceptualizaciones más matizadas de la originalidad en las políticas y prácticas de educación superior. Una posible vía es desarrollar una conceptualización situada de la originalidad, que identifique dimensiones clave para evaluar la originalidad en función del contexto disciplinar y el objetivo de aprendizaje. Lo que se considera original depende a menudo de un campo o dominio determinado (Guetzkow, Lamont y Mallard2004) – por ejemplo, los cursos de escritura creativa a menudo requieren que los estudiantes produzcan contenido altamente innovador, mientras que disciplinas como el derecho pueden implicar el uso de plantillas y lenguaje estandarizado. Por lo tanto, la definición de originalidad, así como su conexión con preocupaciones más amplias de mala conducta académica y aprendizaje de los estudiantes, dependerá de "qué se está descargando, por quién y con qué propósitos en el proceso de aprendizaje" (Lodge, Thompson y Corrin2023, 4). Esto no sólo permitirá una comprensión más sutil de la originalidad, sino que también proporcionará claridad sobre qué aspectos específicos del trabajo de los estudiantes deben ser originales para garantizar que los estudiantes demuestren resultados de aprendizaje particulares por sí mismos. Otro hallazgo importante es que las políticas de educación superior tienden a encuadrar el problema de la originalidad en el trabajo desde el ángulo de la mala conducta académica. Sostenemos que en las futuras políticas de educación superior debería reflejarse un enfoque más inclusivo que vaya más allá de ver la originalidad a través del estrecho lente de la vigilancia. En el futuro, las políticas de educación superior pueden replantear la originalidad desde una perspectiva colaborativa y situarla a lo largo de un espectro continuo. Por ejemplo, un marco estrecho de originalidad esperaría que los estudiantes que trabajan en un proyecto de investigación científica completaran todas las etapas necesarias por sí solos sin ninguna ayuda de la IA. Sin embargo, al replantear la originalidad en un espectro continuo, podemos explorar diferentes grados de colaboración entre los estudiantes y la IA. Los estudiantes pueden aprovechar GenAI para ayudar a analizar grandes conjuntos de datos y generar hipótesis iniciales, después de lo cual ejercen un juicio evaluativo para evaluar y refinar los conocimientos generados por la IA (Bearman & Ajjawi2023; luo y chan2023). El producto final es un esfuerzo de colaboración entre el estudiante y la IA, combinando sus respectivas fortalezas para producir un trabajo original. Trascendencia Este estudio realiza aportes tanto a nivel del conocimiento como de la práctica. A nivel de conocimiento, el estudio representa el primero de su tipo en analizar críticamente las políticas de GenAI en las universidades de todo el mundo. Esto proporciona información valiosa sobre cómo se priorizan y enmarcan actualmente las cuestiones relacionadas con la GenAI en la educación superior y expone áreas importantes que requieren mayor atención en la formulación de políticas. Si bien la originalidad como concepto a menudo permanece incuestionable, nuestra discusión enriquecerá el muy necesario conjunto de herramientas teóricas para futuros estudios que permitan conceptualizar e investigar más a fondo la originalidad en la era de la IA. 12 J. LUO Comprender la representación del problema en las políticas universitarias de GenAI es crucial para respaldar futuras medidas a nivel práctico. Este estudio evoca una reflexión crítica sobre lo que hace que el trabajo de un estudiante sea original en presencia de IA, lo que lleva a los responsables de políticas y profesionales de la educación superior a revisar, repensar y revisar los discursos políticos actuales sobre el uso de GenAI y la originalidad del trabajo. Un enfoque recomendado es organizar reuniones de consulta, seminarios y debates para cuestionar y profundizar aún más el concepto de originalidad en lugar de verlo como algo consagrado en las políticas. Será deseable asociarse con los estudiantes en estas consultas para comprender cómo abordan GenAI y comprender la originalidad del trabajo. Es necesario reflejar un enfoque más inclusivo en las políticas para abordar las cuestiones relacionadas con la originalidad en el trabajo de los estudiantes. En lugar de enfatizar la originalidad desde una perspectiva de vigilancia, las políticas pueden poner más énfasis en el apoyo disponible para que los estudiantes produzcan trabajos originales que sean significativos para su aprendizaje. También sería importante reconocer factores estructurales más amplios que influyen en la originalidad del trabajo de los estudiantes, como las tradiciones culturales sobre el uso de la tecnología y la accesibilidad de GenAI en la universidad. Se debe hacer hincapié en la comunicación abierta y la colaboración con estudiantes y profesores sobre el cumplimiento en el desarrollo de políticas para fomentar una cultura de confianza y atención. Los formuladores de políticas podrían invitar a los estudiantes a recibir comentarios sobre el desarrollo de sus políticas para demostrar la asociación en materia de vigilancia policial. Un mayor énfasis en la transparencia y el diálogo bidireccional entre los líderes, el personal y los estudiantes de la educación superior puede llevar a que todas las partes interesadas perciban la gobernanza como más equitativa y centrada en el aprendizaje. Limitaciones, futuros estudios y conclusiones. Este estudio revisó críticamente las políticas GenAI de 20 universidades líderes en todo el mundo.a través deEl marco WPR de Bacchi. Descubrimos que el principal problema representado en las políticas universitarias tiene que ver con la originalidad del trabajo de los estudiantes en la era de la IA, que se enmarca predominantemente como mala conducta académica. A partir de estos hallazgos, profundizamos en la noción cambiante de originalidad en un panorama de evaluación mediado por IA. Para concluir, reflexionamos sobre algunas limitaciones de este estudio y describimos posibles direcciones para estudios futuros. Primero, es importante reconocer que el análisis de políticas en este estudio está influenciado por nuestra propia posición como investigadores. Nuestra inclinación a adoptar una perspectiva crítica, así como nuestra trayectoria investigadora en evaluación.paraEl aprendizaje (en lugar de la "evaluación del aprendizaje" o la "vigilancia de la educación"), inevitablemente da forma a nuestro análisis. Por lo tanto, nuestro análisis representa solo una posible interpretación de las políticas GenAI y no pretende socavar todos los esfuerzos invertidos en desarrollarlas. Para brindar perspectivas más diversas, alentamos a investigadores de diversos campos (por ejemplo, sociología, psicología, economía) a contribuir con sus conocimientos sobre este tema. También será interesante realizar estudios de políticas comparadas sobre universidades en diferentes contextos geográficos o socioeconómicos. En lugar de centrarse en las mejores universidades medidas por QS Rankings, las investigaciones futuras podrían ampliar el alcance y el tamaño de las muestras de políticas para capturar un espectro más amplio de políticas institucionales. En segundo lugar, como este estudio sólo se centra en textos de políticas, los efectos potenciales analizados se beneficiarían de la evidencia empírica. En la actualidad, existe una gran cantidad de artículos de opinión sobre GenAI y evaluación, pero faltan investigaciones empíricas. Recomendamos más estudios empíricos sobre cómo profesores y estudiantes interpretan y responden a las políticas GenAI para proporcionar datos rigurosos sobre los efectos de las políticas. Finalmente, la tecnología GenAI se está desarrollando a una velocidad sin precedentes y las políticas de educación superior también están en un proceso constante de cambios y actualizaciones. En vista de este campo en rápida evolución, las políticas analizadas no deben interpretarse como fijas o estáticas. Este artículo no es un "diagnóstico definitivo" de las políticas universitarias de GenAI, sino parte de un proceso continuo de configuración y mejora de estas políticas hacia un uso más ético, efectivo y significativo de la tecnología en la evaluación. EVALUACIÓN Y EVALUACIÓN EN LA EDUCACIÓN SUPERIOR 13 También observamos que nuestra discusión sobre la originalidad es todavía bastante preliminar: hay mucho por explorar en este panorama en evolución y alentamos a los investigadores a profundizar en los fundamentos teóricos de la originalidad en la era de la IA. Reconocimiento Nos gustaría agradecer a los tres revisores que brindaron comentarios muy constructivos para mejorar la calidad del artículo. Declaración de divulgación Los autores no informaron ningún posible conflicto de intereses. Fondos Este trabajo fue apoyado por la Beca de investigación inicial [número de subvención: RG 28/2023-2024 R] y la Propuesta de subvención externa para el desarrollo y la presentación 2023/24 [número de subvención: EPL-S467] de la Universidad de Educación de Hong Kong y Comité Departamental de Investigación y Títulos Superiores del EPL. ORCIDO Jiahui Luo (Jess) http://orcid.org/0000-0003-1797-2191 Referencias Adler-Kassner, L., C. Anson y RM Howard.2008. "Enmarcar el plagio". EnOriginalidad, imitación y plagio: Enseñar escritura en la era digital, editado por C. Eisner y M. vicinius, 231–246. Ann Arbor, MI: Prensa de la Universidad de Michigan. Bacchi, C.2009.Análisis de políticas: ¿cuál es el problema?Bosque francés: Educación Pearson. Bacchi, C.2010. “La política como discurso: ¿qué significa? ¿Adónde nos lleva?”Discurso: Estudios en lo Cultural Política de educación21 (1): 45–57. doi:10.1080/01596300050005493. Bacchi, C.2012. “¿Por qué estudiar las problematizaciones? Hacer visible la política”.Revista abierta de ciencia política02 (01): 1–8. doi:10.4236/ojps.2012.21001. Bacchi, C. y J. Eveline.2010. "Enfoques para la incorporación de la perspectiva de género: ¿Cuál es el problema que se representa?". En Incorporación de la política: prácticas de género y teoría feminista, editado por C. Bacchi y J. Eveline, 111–138. Adelaida: Prensa de la Universidad de Adelaida. Bacchi, C. y S. Goodwin.2016.Análisis de políticas posestructurales: una guía para la práctica. Nueva York: Springer. Bearman, M. y R. Ajjawi.2023. “Aprender a trabajar con la caja negra: pedagogía para un mundo artificial Inteligencia."Revista británica de tecnología educativa54 (5): 1160-1173. doi:10.1111/bjet.13337. Bommarito, M. y DM Katz.2022. "GPT toma el examen de la abogacía".Preimpresión de arXiv. Cao, Y., Li, S. Liu, Y. Yan, Z. Dai, Y. Philip y Sun, L.2023. “Una encuesta completa sobre contenido generado por IA (AIGC): una historia de la IA generativa desde GAn hasta ChatGPT”.Preimpresión de arXiv. Chan, CKY2023a. "Un marco educativo integral de políticas de IA para la enseñanza y el aprendizaje universitario". Revista Internacional de Tecnología Educativa en la Educación Superior20 (1): 38. doi:10.1186/s41239-023-00408-3. Chan, CKY2023b. “¿Está la IA cambiando las reglas de mala conducta académica? Una mirada en profundidad a las percepciones de los estudiantes del AI-giarismo”.Preimpresión de arXiv. Cingillioglu, I.2023. "Detección de ensayos generados por IA: el desafío ChatGPT".La revista internacional de información y tecnología de aprendizaje40 (3): 259–268. doi:10.1108/IJILT-03-2023-0043. Algodón, DRE, PA Cotton y JR Shipway.2023. “Chatear y hacer trampa: garantizar la integridad académica en la era de ChatGPT”.Innovaciones en Educación y Enseñanza Internacional. doi:10.1080/14703297.2023.2190148. Dai, W., J. Lin, F. Jin, T. Li, YS Tsai, D. Gasevic y G. Chen.2023. “¿Pueden los modelos de lenguajes grandes proporcionar retroalimentación? a los estudiantes? Un estudio de caso sobre ChatGPT ".EdArxiv. Eaton, SE2023. “Postplagio: ética transdisciplinaria e integridad en la era de la inteligencia artificial y neurotecnología”.Revista Internacional para la Integridad Educativa19 (1): 23. doi:10.1007/s40979-023-00144-1. 14 J. LUO Eshet, Y.2023. “La pandemia de plagio: inspección de la deshonestidad académica durante el brote de COvID-19 utilizando Software de originalidad”.Educación y Tecnologías de la Información.doi:10.1007/s10639-023-11967-3. Foucault, M. 1986.El uso del placer: la historia de la sexualidad. Nueva York: vintage. Gao, CA, FM Howard, n. S. Markov, EC Dyer, S. Ramesh, Y. Luo y AT Pearson.2022. “Comparación científica Resúmenes generados por ChatGPT a resúmenes originales utilizando un detector de resultados de inteligencia artificial, un detector de plagio y revisores humanos cegados ".BioRxiv. Gilson, A., C. Safranek, T. Huang, contra Sócrates, L. Chi, RA Taylor y D. Chartash.2022. “¿Cómo funciona ChatGPT? en los exámenes de licencia médica? Las implicaciones de los grandes modelos lingüísticos para la educación médica y la evaluación del conocimiento.MedRxiv. Guetzkow, J., M. Lamont y G. Mallard.2004. “¿Qué es la originalidad en las humanidades y las ciencias sociales?” Revista sociológica estadounidense69 (2): 190–212. doi:10.1177/000312240406900203. Johnson-Eilola, J. y SA Selber.2007. “Plagio, Originalidad, Ensamblaje”.Computadoras y composición24 (4): 375–403. doi:10.1016/j.compcom.2007.08.003. Lodge, JM, K. Thompson y L. Corrin.2023. “Trazado de una agenda de investigación para la inteligencia artificial generativa en Educación Terciaria”.Revista Australasia de Tecnología Educativa39 (1): 1–8. doi:10.14742/jet.8695. Loutzenheiser, L.W.2015. “¿A quién llamas problema?: Abordar la transfobia y la homofobia a través de Política escolar."Estudios críticos en educación56 (1): 99-115. doi:10.1080/17508487.2015.990473. Luo, J. y CKY Chan.2023. “Conceptualización del juicio evaluativo en el contexto de la competencia holística Desarrollo: resultados de un estudio Delphi.Valoración y Evaluación en la Educación Superior48 (4): 513–528. doi:10.108 0/02602938.2022.2088690. Mizumoto, A. y M. Eguchi.2023. “Explorando el potencial del uso de un modelo de lenguaje de IA para ensayos automatizados Puntuación."Métodos de investigación en lingüística aplicada2 (2): 100050.doi:10.1016/j.rmal.2023.100050. nakazawa, E., M. Udagawa y A. Akabayashi.2022. “¿El uso de la IA para crear artículos de investigación académica ¿Socavar la originalidad del investigador?AI3 (3): 702–706. doi:10.3390/ai3030040. nguyen, A., H. n. ngo, Y. Hong, B. Dang y B.-P T. nguyen.2023. “Principios éticos para la inteligencia artificial en Educación."Educación y tecnologías de la información28 (4): 4221–4241. doi:10.1007/s10639-022-11316-w. Nieminen, JH y SE Eaton.2023. “¿Son trampas las adaptaciones de evaluación? Un análisis político crítico”. Valoración y Evaluación en la Educación Superior. doi:10.1080/02602938.2023.2259632. Organización para la Cooperación y el Desarrollo Económico [OCDE].2023.Oportunidades, directrices y barreras de seguridad en Uso eficaz y equitativo de la IA en la educación. París: Publicaciones de la OCDE.https://www.oecd.org/education/ceri/ Opportunities,%20guidelines%20and%20guardrails%20for%20 Effective%20and%20equitable%20use%20of%20 AI%20in%20education.pdf Rudolph, J., S. Tan y S. Tan.2023. “ChatGPT: Hablador de tonterías o el fin de las evaluaciones tradicionales en niveles superiores ¿Educación?"Revista de enseñanza y aprendizaje aplicado6 (1): 1–22. Grupo Russell.2023.Nuevos principios sobre el uso de la IA en la educación.https://russellgroup.ac.uk/news/new-principles-on-us e-de-ia-en-educación/ Noticias del mundo universitario.2023.Oxford y Cambridge prohíben ChatGPT por temor a plagio.https://www. universidadworldnews.com/post.php?story=20230304105854982 Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura [UnESCO].2023.Orientación para la IA generativa en la educación. catión e investigación.https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research Schiff, D.2022. “Educación para la IA, no IA para la educación: el papel de la educación y la ética en la política nacional de IA Estrategias."Revista Internacional de Inteligencia Artificial en Educación32 (3): 527–563. doi:10.1007/s40593-021-00270-2. Prensa matutina del sur de China.2023.Las universidades de Hong Kong ceden ante el auge de ChatGPT, herramientas de inteligencia artificial para la enseñanza y la asignación. comentarios, pero esté atento al plagio.https://www.scmp.com/news/hong-kong/education/article/3233269/ hongkong-universities-relent-rise-chatgpt-ai-tools-teaching-and-assignments-keep-eye-out- plagio Sullivan, M., A. Kelly y P. McLaughlan.2023. “ChatGPT en la educación superior: consideraciones para la integridad académica y aprendizaje de los estudiantes”.Revista de enseñanza y aprendizaje aplicados6 (1): 1–10. Tawell, A. y G. McCluskey.2021. “Utilizando Bacchi ¿Cuál es el problema que se representa? (WPR) Enfoque para Analizar la política nacional de exclusión escolar en Inglaterra y Escocia: un ejemplo práctico”.Revista Internacional de Investigación y Método en Educación45 (2): 137-149. doi:10.1080/1743727X.2021.1976750. Agencia de Estándares y Calidad de la Educación Terciaria [TEQSA].2023.Reforma de la evaluación para la era de la inteligencia artificial. https://www.teqsa.gov.au/guides-resources/resources/corporate-publications/assessment-reform-ageartificialintelligence Woo, E.2022. “¿Cuál es el problema que se plantea en la política universitaria de clase mundial de China? Un postestructural Análisis."Revista de política educativa, 38 (4): 644–664. doi:10.1080/02680939.2022.2045038. Wu, Z., D. Ji, K. Yu, X. Zeng, D. Wu y M. Shidujaman.2023. "La creatividad de la IA y el modelo de cocreación entre humanos e IA". EnLa interacción persona-ordenador. Teoría, métodos y herramientas., editado por M. Kurosu. Suiza: Springer. Yan, L., L. Sha, L. Zhao, Y. Li, R. Martinez-Maldonado, G. Chen, X. Li, Y. Jin y D. Gašević.2023. “Práctico y Ético Desafíos de los grandes modelos lingüísticos en la educación: una revisión sistemática del alcance.Revista británica de tecnología educativa55 (1): 90-112. doi:10.1111/bjet.13370.