Este artículo fue reportado y escrito por nuestro socio de medios Capital News Service.
Los legisladores quieren fortalecer la educación sobre seguridad en Internet en las escuelas públicas agregando gestión de riesgos mediante inteligencia artificial.
El representante Alex Askew, demócrata por Virginia Beach, presentó el Proyecto de Ley 171 de la Cámara de Representantes, que actualizaría las políticas actuales de uso de Internet e incluiría instrucciones sobre el fraude en línea, la desinformación y el contenido generado por inteligencia artificial.
La política actual restringe la distribución y visualización de contenido ilegal en línea y requiere en términos generales la inclusión de un “componente de seguridad en Internet para estudiantes integrado en el programa de instrucción del departamento”.
El exgobernador Glenn Youngkin emitió la Orden Ejecutiva 30 en 2024, que incluye pautas para la integración de la IA en la educación para dotar a los estudiantes de las habilidades necesarias para aprovechar la IA de manera responsable y efectiva.
Askew dijo que aunque la ley actual de Virginia cubre los requisitos básicos para la instrucción de seguridad en Internet en las escuelas de Virginia, los estudiantes frecuentemente se enfrentan a fraudes de IA e incidentes de ciberacoso.
“Estas nuevas amenazas requieren que sigamos enseñando a los niños a protegerse de los daños en línea, y cuanto más específicos sean los algoritmos, mayor será el daño que los niños puedan enfrentar”, afirmó Askew.
Representantes de la PTA de Virginia y la Asociación de Educación de Virginia testificaron en apoyo del proyecto de ley en la reunión del subcomité K-12. Destacaron la importancia de mantenerse informado sobre las amenazas en línea dirigidas a los estudiantes.
Meg Gruber, cabildera y ex presidenta de VEA, habló sobre la importancia de permitir a los estudiantes reconocer el contenido generado por IA y la legislación que impediría el uso ampliado de la IA en entornos académicos.
“A menos que se tome el tiempo para investigarlo a fondo, estamos empezando a ver una situación en la que si se puede confiar en la persona que comparte la información, no necesariamente se puede confiar en que sea precisa o que no haya sido generada por una IA”, dijo Gruber.
Gruber también dijo que los estudiantes a menudo no saben cómo saber si un vídeo o clip es generado por IA, y que es necesario enseñarles a diferenciar entre contenidos.
Los partidarios del proyecto de ley están preocupados por el impacto que las aplicaciones podrían tener en el desarrollo mental de los jóvenes a medida que se vuelven más populares.
Meghan Puglia, profesora asociada de neurología en la Universidad de Virginia, dijo que una parte importante del proceso de aprendizaje de un niño implica ser capaz de “resolver las cosas por sí solo”.
“Para aprender realmente, es necesario que haya una gran cantidad de dificultades y desafíos que superar”, dice Puglia. “Si la IA elimina eso, existen grandes preocupaciones sobre cómo afectará eso al desarrollo cognitivo, el aprendizaje y la creatividad”.
Puglia expresó su apoyo a educar a los estudiantes sobre el contenido generado por IA lo antes posible, y señaló que las conversaciones apropiadas para la edad sobre el uso de la tecnología siempre son útiles.
El proyecto de ley fue aprobado por la Cámara con apoyo bipartidista y luego fue remitido al Comité Senatorial de Educación y Salud para mayor consideración.
Capital News Service es un programa de la Escuela de Comunicación Robertson de la Virginia Commonwealth University. Los estudiantes de este programa brindan cobertura del gobierno estatal a una variedad de medios de comunicación de Virginia.


