Esta normativa pionera tiene como objetivo fundamental lograr un equilibrio entre el uso innovador de la IA y la garantía de su aplicación ética, segura y transparente.
La nueva ley europea que regulará la IA, y que entrará en vigor el año 2024, recoge las recomendaciones recogidas en la propuesta de la Comisión europea de abril de 2021. Dada su singularidad, el 19 de mayo del mismo año, el Parlamento europeo redactó una resolución específica que abordara el impacto de la IA en el ámbito educativo.
Una de las conclusiones más importantes es el reconocimiento de la necesidad de reducir al mínimo el riesgo de adoptar decisiones asistidas por IA erróneas o sesgadas en esferas críticas como la educación y la formación, donde confluyen además de los factores generales la especial vulnerabilidad que sufren los menores debido a su desarrollo cognitivo y madurativo.
La iniciativa legislativa ha recibido la aprobación en el mes de julio, marcando así el inicio de una fase crucial de negociaciones con los 27 países miembros de la UE. El objetivo final es llegar a un acuerdo definitivo antes de que finalice el año.
La Ley de Inteligencia Artificial de la UE supone un avance significativo en la regulación de esta tecnología emergente. Su propósito es establecer un marco legal claro y coherente que aborde los desafíos y riesgos asociados con la IA, al tiempo que proteja los derechos fundamentales de los ciudadanos europeos. Además, busca fomentar la confianza y la aceptación de la IA en la sociedad, promoviendo así la competitividad y la innovación en el mercado europeo.
Alto riesgo
Los sistemas de inteligencia artificial de alto riesgo dentro del contexto educativo serían aquellos que pudiesen afectar a los derechos o la seguridad de las personas. Por ejemplo, los sistemas que evalúen el conocimiento o las habilidades de los estudiantes o que determinen su acceso a la educación. Estos sistemas tendrían que cumplir con una serie de requisitos obligatorios, como:
- Calidad y seguridad: tendrían que estar diseñados y desarrollados con datos precisos y representativos, y ser sólidos y resistentes a errores o ataques.
- Transparencia y trazabilidad: tendrían que ser documentados y registrados, y proporcionar información clara y adecuada a los usuarios sobre su funcionamiento, sus capacidades y sus limitaciones.
- Supervisión humana: tendrían que permitir la intervención o la supervisión humana efectiva en todo momento, y garantizar que las personas puedan anular o desactivar el sistema si es necesario.
- Responsabilidad: tendrían que estar sujetos a un sistema de gestión de riesgos y a un sistema de control de calidad antes, durante y después de su puesta en funcionamiento. Además, los proveedores tendrían que garantizar el acceso a recursos efectivos en caso de daños causados por el sistema.
Información extraída del artículo Cómo afectará la ley de Inteligencia Artificial a la Educación publicado en Cuadernos de Pedagogía.