Regulación de la IA en universidades: dos modelos
Una de las tantas cuestiones que se plantean al interior de las universidades es si permitir, prohibir o incentivar el uso de “inteligencias artificiales” (especialmente, “language models”) entre estudiantes en relación con las tareas o evaluaciones de cursos.
Cada alternativa, por supuesto, tiene pros y contras. Incentivar el uso puede reducir el pensamiento crítico u otras competencias. Pero, por otro lado, prohibirlo podría ponernos de espaldas a la realidad y quitarle a los estudiantes la posibilidad de aprender a usar en su máximo nivel herramientas que serán básicas en los próximos años (o, incluso, ya lo son).
Los europeos y latinoamericanos solemos asumir que debemos tomar una decisión: elegir entre un modelo u otro y crear una regla general que abarque a todos los casos. Sin embargo, una regla uniforme para casos disímiles es la peor regla (peor que cada regla específica considerada individualmente). Cada curso tiene necesidades distintas. Por ejemplo, no es lo mismo un curso de primeros ciclos que un curso de últimso ciclos.
Otra cuestión tiene que ver con quién elige: ¿debe ser una autoridad centralizada dentro de la universidad o cada profesor? Un ejemplo de la aplicación “absolutista” (general, uniforme) y de “arriba hacia abajo” es la francesa Science Po (aquí).
Pero aquí viene un “truco” que tiene que ver con la cultura regulatoria de los países anglosajones: no es necesario elegir una regla uniforme para toda la universidad. Tampoco es necesario que lo haga una autoridad central. Miren el caso de Harvard, por ejemplo:
Fuera de elegir una regla, lo que señalan es que existen tres políticas distintas que pueden ser aplicadas por un curso: restrictiva, mixta o incentivadora. Cada profesor elige qué regla aplicar dependiendo de las necesidades de su curso. Link aquí.
La tendencia americana a la “customización” incluso los lleva a inventar aplicativos para crear reglas (“statements”) para syllabus de forma personalizada de acuerdo a las necesidades y preferencias de cada profesor. Ver por ejemplo esta herramienta creada por Pipperdine University: aquí.
Sea al regular, prohibir o incluso incentivar el uso de la IA, considero que uno de los mayores riesgos es la obsolescencia de las políticas e iniciativas que tomemos en torno a la IA. Es una tecnología que avanza muy rápido. Algo que hoy nos puede parecer de “avanzada” mañana podría estar completamente desfasado. Por ejemplo, puede ser que implementemos un sistema built-in de IA para una universidad, apostando por un sistema específico, pero ese sistema sea superado al día siguiente por otro más potente, versátil o gratuito. Puede ser que creemos aplicativos especiales para cada curso, pero luego los estudiantes tengan acceso -por fuera- a mejores herramientas que las elegidas por la universidad.
Dado este riesgo, sumado a las diferentes necesidades e intereses de cada estudiante y profesor; mi recomendación sería seguir el sistema americano, donde se privilegia la elección individual y la adaptación caso a caso. Evitaría tomar decisiones generales y más bien seguiría el camino de las iniciativas focalizadas y en base a decisiones descentralizadas.
Post scriptum
El Derecho, la regulación y las políticas públicas también son tecnologías; y, como tales, en algunos lugares son más avanzados que en otros. En este caso, existe una simetría entre los lugares donde se inventan cosas como la IA y los lugares donde se les regula (o se les deja de regular) mejor. Europa no solo se ha convertido en irrelevante en la creación de tecnologías como IA, sino que su forma de regularlas se ha convertido en un meme.