Según una nueva investigación realizada por la Universidad de East Angle (Reino Unido), los artículos creados por IA aún no cumplen con los esfuerzos de los estudiantes reales.
Una nueva investigación publicada hoy compara el trabajo de 145 estudiantes reales con artículos desarrollados por Chat GPT.
Aunque los artículos de IA se encontraron impresionantemente integrados y gramaticalmente, disminuyeron en un área importante: tenían una falta de contacto personal.
Dado que la línea entre la escritura humana y la máquina continúa, el estudio indica la importancia de promover la alfabetización crítica y la conciencia moral en el período digital.
Se espera que estos resultados puedan ayudar a identificar el fraude en las escuelas, colegios y universidades de todo el mundo al reconocer los artículos de las máquinas.
El profesor Ken Helland, que pertenece a la Escuela de Educación y Aprendizaje de Vida de la UEA, dijo: “Desde su lanzamiento público, Chat GPT ha creado muchos problemas entre los maestros de que los estudiantes lo usarán para escribir sus tareas.
“El temor es que Chat GPT y otras herramientas de escritura de IA pueden facilitar el fraude y pueden debilitar la alfabetización básica y las habilidades de pensamiento crítico. Especialmente este es el caso porque aún no tenemos herramientas para detectar textos creados por EI.
“En respuesta a estas preocupaciones, queríamos ver cuán de cerca la IA podría imitar la redacción de un artículo humano, especialmente centrándonos en cómo los autores se involucraron con los lectores”.
El equipo de investigación analizó 145 artículos escritos por estudiantes universitarios reales y otros 145 producidos por Chat Gpt.
“Estábamos particularmente interesados en ver lo que llamamos ‘Mangani Marker’ como preguntas e interpretaciones personales”, dijo el profesor Helland.
“Hemos descubierto que los artículos escritos por los estudiantes reales incluyen una rica fila de estrategias de participación permanente, que los hacen más interactivos y convencidos.
Dijo que estaba lleno de preguntas de retórica, aspectos personales y apelaciones directas para los lectores, todas las técnicas que aumentan claras, contactan y crean un argumento fuerte.
“Por otro lado, los artículos de Chatigat, mientras que las fluctuaciones con fluidez fueron más extraordinarias. Los artículos de AI imitaron las convenciones educativas escritas, pero no pudieron inyectar texto con contacto personal o mostrar una postura clara.
Dijo que dio una tendencia a evitar preguntas y comentarios personales limitados. En general, estaban menos comprometidos, menos convincentes, y no había un contexto fuerte en ningún tema.
Agregó: “Esto refleja la naturaleza de sus datos de capacitación y los métodos de aprendizaje estadístico, que prefieren la importancia del diálogo”.
A pesar de sus deficiencias, el estudio no rechaza el papel de la IA en el aula.
En cambio, los investigadores dicen que herramientas como Chat GPT deben usarse como ayudas de enseñanza en lugar de atajos.
“Cuando los estudiantes vienen a la escuela, la universidad o la universidad, no les enseñamos cómo escribir, les enseñamos cómo pensar, y esto es algo en lo que ningún algoritmo puede copiar”.
El estudio fue dirigido por UEA en colaboración con el profesor Kevin Jiang de la Universidad Jillin, China.
¿Chattgapt escribe como un estudiante? En la revista Argumento de argumentos publica marcadores de mangani Comunicación escrita.
Deducido










