Por Khari Johnson, CalMatters
En diciembre, a una clase de alumnos de cuarto grado de la escuela primaria Delevan Drive en Los Ángeles se le asignó una tarea: escribir un informe sobre un libro sobre PP Longstocking, luego dibujar o usar inteligencia artificial para crear la portada de un libro.
Cuando la hija de Jodi Hughes pidió a Adobe Express for Education, el software de diseño gráfico proporcionado por su maestra, que creara una imagen de “una niña pelirroja con medias altas y la trenza alisada”, no produjo nada parecido al personaje de un libro infantil sueco que ella describió con precisión. En cambio, usando Agregado recientemente La inteligencia artificial, la creó Imágenes sexuales de mujeres. En ropa interior y bikini. Hughes se puso rápidamente en contacto con otros padres, quienes dijeron que podían reproducir resultados similares en sus propias computadoras Chromebook proporcionadas por la escuela. Días después, el grupo de padres Escuela más allá de la pantalla Los Ángeles le ha dicho a la junta escolar que se opone a un mayor uso del software de Adobe.
El incidente plantea dudas no sólo sobre el uso de un producto de IA en particular por parte del distrito escolar de Los Ángeles, sino también sobre el mismo. Los administradores estatales proporcionan directrices a las escuelas Cómo adoptar tecnología de forma segura en California Semanas después del incidente, el Departamento de Educación del estado publicó una nueva versión de las pautas, en las que ha estado trabajando durante varios meses con la ayuda de un grupo de 50 maestros, administradores y expertos. La enmienda surge en respuesta a las directivas de la Legislatura, que aprobó dos leyes en 2024 que pedían al departamento, esencialmente, controlar la rápida propagación de la IA entre estudiantes, profesores y administradores.
Los críticos se preguntan si las pautas habrían ayudado a los padres a evitar que se les llame PPGate; La controversia, dicen, es evidencia de que los distritos, las escuelas y los padres, que a menudo carecen del tiempo o los recursos para garantizar que las herramientas de software no produzcan resultados dañinos, necesitan más ayuda del estado. Las directrices, añaden, también son demasiado vagas en algunos lugares y no hacen lo suficiente para definir directrices sobre cómo los profesores utilizan la IA en el aula.
Los problemas con las directrices ponen en duda cómo el departamento puede responder eficazmente a las directivas de los funcionarios electos para proteger una tecnología que, según las directrices, puede alienar y ver estrechamente a los niños.
A medida que la IA se vuelve cada vez más frecuente en la sociedad, gestionar la tecnología de forma eficaz se convierte en una cuestión urgente. Aunque ChatGPT de OpenAI popularizó la IA generativa hace sólo tres años, las encuestas muestran que un La mayoría de profesores y estudiantes A nivel nacional ahora se utiliza alguna tecnología energética.
Sin embargo, la IA puede ayudar a ahorrar Tiempo del profesor, aprendizaje personalizadoY al favorecer a quienes no hablan inglés o tienen discapacidades, puede calificar sus trabajos incorrectamente y crear imágenes que hacer permanente o intensificar Estereotipo o Imágenes sexuales de mujeres.Especialmente mujeres de color. Mayoría en California Los estudiantes de K-12 son personas de color. Desde que comenzó la rápida expansión de la adopción de la IA generativa, los educadores que hablaron con CalMatters sintieron la necesidad de preparar a sus estudiantes para un futuro en el que la IA sea omnipresente y el temor de que las herramientas de IA pudieran hacer trampa en los exámenes y crear déficits en la lógica, el razonamiento y el pensamiento crítico.
“Hay un margen reducido para que los maestros establezcan las reglas antes de que se pongan duras”, dijo LaShawn Chatmon, director ejecutivo del National Equity Project, un grupo de Oakland que ayuda a los maestros a crear resultados más equitativos. “Las agencias educativas locales que aprovechan esta oportunidad para aprender y codiseñar políticas con estudiantes y familias pueden ayudar a cambiar quién decide el papel de la IA en nuestra educación y nuestras vidas”.
Un portavoz del distrito dijo a CalMatters que las imágenes generadas por el modelo de IA no se alinean con los estándares del distrito y que “estamos colaborando con Adobe para resolver el problema”. El vicepresidente de educación de Adobe, Charlie Miller, dijo que la compañía implementó cambios para abordar el problema dentro de las 24 horas posteriores a enterarse del incidente. Miller no respondió a las preguntas sobre cómo se probó el equipo antes de su despliegue.
Como resultado de la experiencia de su hijo, Hughes cree que no se debe pedir a los estudiantes que utilicen generadores de texto a imágenes para las tareas. Pero no ve ningún intento de limitar el uso de la tecnología bajo la dirección del Departamento de Educación.
“Estas empresas de tecnología están comercializando productos para niños que no han sido completamente probados”, dijo. “No sé dónde trazar la línea, pero la escuela primaria es demasiado joven porque puede volverse muy desagradable muy rápido, como hemos visto con el personal de Grok”, añadió, refiriéndose al reciente abuso del sistema de inteligencia artificial de Grok para eliminar sin consentimiento la ropa de imágenes de mujeres y niños.
Problemas con la guía de la IA
La guía proporciona una lista de usos inaceptables de la IA por parte de los estudiantes, como el plagio, e insta a los educadores a integrar situaciones del mundo real y estudios de casos en las discusiones para ayudar a los estudiantes a aplicar principios éticos a situaciones prácticas. También dice que se debe enseñar a los estudiantes a “pensar de manera crítica y creativa” sobre las “ventajas y desafíos” de las herramientas de inteligencia artificial.
Julie Flapan, directora del Proyecto de Equidad en Ciencias de la Computación en el Centro X de UCLA, dijo que el caso de Pippi Calzaslargas le recordó un estudio de 2024 que encontró que los hombres jóvenes negros y latinos Los blancos más jóvenes tienen más probabilidades de utilizar IA generativa. Dijo que esos datos, combinados con las disparidades históricas en el acceso a la educación en ciencias de la computación, significan que algunos padres y estudiantes necesitarán ayuda para pensar críticamente sobre la IA.
“A menudo pensamos en los avances tecnológicos como una forma de nivelar el campo de juego”, dijo. “Pero el hecho es que sabemos que exacerban la desigualdad”.
Flapan dijo que las directrices exigen pensamiento crítico y examinar las herramientas de IA antes de su uso, y alienta a los líderes educativos a involucrar a la comunidad en la toma de decisiones. Pero añadió que las directrices no detallan cómo hacerlo.
Charles Logan, un ex maestro que ahora dirige un laboratorio de tecnología en la Universidad Northwestern, dijo que las pautas se quedan cortas al no brindar una guía clara sobre cómo los maestros y los padres pueden optar por no usar la tecnología. Una institución Brookings Estudiar Publicado en enero, basado en entrevistas con estudiantes, profesores y administradores en 50 países, concluyó que los riesgos de la IA en el aula actualmente superan los beneficios y “podría socavar el desarrollo fundamental de los niños”.
Mark Johnson, Jefe de Asuntos Gubernamentales Código.orgelogió las pautas, pero dijo que el estado debería brindar más apoyo educativo en IA a los educadores y desarrollar el dominio de los requisitos de IA y ciencias de la computación para la graduación. A Informes recientes de Johnson Cuatro estados han adoptado dichos requisitos de graduación después de publicar directrices de IA.
Kathryn Goett, quien se desempeñó como coordinadora de informática del Departamento de Educación hasta enero, cuando se le preguntó sobre el incidente de Calzaslargas, señaló partes de la guía que enfatizan la importancia de involucrar a las familias, las comunidades y los miembros de la junta escolar al evaluar las herramientas de inteligencia artificial. También dijo que el pensamiento crítico es importante para prevenir tales resultados, señalando pautas que obligan a los administradores a considerar el daño potencial antes de su uso.
Se están preparando directrices adicionales sobre cómo poner en práctica las directrices publicadas recientemente: el grupo de trabajo de IA del departamento presentará recomendaciones de políticas específicas basadas en las directrices en julio.
El estrés de las narrativas sobre la inevitabilidad de la IA
La última versión de las pautas de IA del Departamento de Educación de California se produce cuando las agencias de educación locales se alejan de las prohibiciones generales de IA luego del lanzamiento de ChatGPT de OpenAI en 2022. En cambio, los distritos están avanzando hacia determinar cuándo y cómo los estudiantes y maestros pueden usar la tecnología. Estas decisiones locales serán críticas para cómo se usa la tecnología en las escuelas, ya que el estado no puede adoptar las pautas de los distritos escolares.
Incluso los distritos escolares más grandes de California pueden enfrentar serios desafíos al implementar la IA. En junio de 2024, el superintendente del Distrito Unificado de Los Ángeles prometió los mejores tutores de IA del mundo, pero Después de semanas hubo que dejar de utilizarlo. Una semana después, Se supo que la mayoría de los miembros de la junta del Distrito Escolar Unificado de San Diego, el segundo distrito más grande del estado, firmaron un contrato para un plan de estudios que no sabían que incluía una herramienta de calificación de IA.
El movimiento hacia directrices estatales y distritales sobre IA, en lugar de prohibiciones, refleja un sentido más amplio de inevitabilidad en el estado en torno a la adopción de tecnología. en su octubre Vetar un proyecto de ley Eso habría impedido el uso de chatbots por parte de menores, dijo el gobernador Gavin Newsom. La IA ya está dando forma al mundo y “no podemos preparar a nuestros jóvenes para un futuro en el que la IA sea omnipresente e impida por completo el uso de estas herramientas”.
Logan, quien recientemente asesoró a los Guardianes de San Diego Cómo prevenir y rechazar el uso de la IA en el aulaEsto contradice la idea. Dice que las directrices del Departamento de Educación de California deberían abordar situaciones en las que los padres quieran evitar que sus hijos utilicen la IA.
“Es sorprendente que las directrices quisieran que los niños de jardín de infantes fueran usuarios hábiles de IA y no había lugar para decir no o optar por no participar”, dijo en una llamada telefónica.
Las pautas estatales sobre IA se unen a una serie de esfuerzos para proteger a los niños de la IA, incluidos proyectos de ley que se encuentran ante la Legislatura que buscan prohibir los juguetes con chatbots complementarios y proteger la privacidad de los estudiantes en la era de la IA. Common Sense Media y OpenAI están trabajando para incluir una iniciativa de seguridad infantil en línea en la boleta electoral de noviembre.











