Desde el punto de vista de la integridad académica, la aparición de ChatGPT llevó a muchos a temer que los estudiantes utilizaran la inteligencia artificial (IA) para hacer trampas. También se temía que una dependencia excesiva de las herramientas de IA pudiera socavar el pensamiento crítico y la capacidad de resolución de problemas. En respuesta, algunas instituciones han adoptado un enfoque conservador respecto a la IA, imponiendo límites a su uso y favoreciendo un planteamiento de ‘ver y esperar’. Pero este no ha sido el caso de la Universidad de Texas, en San Antonio, Estados Unidos (UTSA).
La tecnología académica se ha convertido en una industria en sí misma en los últimos 20 años y ha replanteado totalmente las posibilidades del campus. En este escenario, la IA es sólo una de esas tecnologías.
Melissa Vito, vicerrectora de Innovación Académica de la UTSA, admite que oyó hablar por primera vez de ChatGPT mientras se cortaba el pelo en 2022, e inmediatamente pensó que la universidad tenía que adelantarse. No para limitar o controlar el uso de la IA, sino para enmarcar la narrativa en torno a ella, ya que gran parte de lo que se decía al respecto era negativo. No quería que estas percepciones empañaran las ideas del personal y los estudiantes sobre lo que la IA podía y no podía hacer.
UTSA
Trabajando en estrecha colaboración con su colega Kendra Ketchum, vicepresidenta de Gestión de la Información y Tecnología, empezaron por colocar las piezas operativas necesarias del rompecabezas para permitir una adopción segura en toda la universidad. “Inmediatamente nos fijamos en herramientas como Microsoft 365 Copilot porque ya teníamos una licencia de Microsoft 365”, dice Ketchum. “Estábamos contentos de pagar un poco más por la licencia para utilizar una herramienta que ya sabíamos cómo apoyar desde una perspectiva operativa, haciendo posible que la facultad probara casos de uso desplegando pequeñas iniciativas de IA. Pero esto no implicaba que cualquiera pudiera hacer lo que quisiera”.
Definiendo las salvaguardas
Según Ketchum, fueron muy deliberados a la hora de no desarrollar políticas restrictivas en torno al uso de la IA. En su lugar, elaboraron directrices de adopción de la IA en consulta con expertos y analistas de IDC y Gartner, así como con su equipo jurídico y de ciberseguridad. “Ya tenemos políticas de uso aceptable e integridad académica”, dice Vito. “Tenemos todas las políticas que necesitamos. Pero en lo que teníamos que centrarnos era en el aprendizaje, y en cómo podíamos experimentar de forma creativa con esta tecnología para poder potenciar nuestros objetivos académicos y mejorar la experiencia de los estudiantes. Cuando trabajas con algo que evoluciona constantemente, establecer una política difícil de cambiar puede frenar la innovación”. Ketchum está de acuerdo.
UTSA
Poco después del lanzamiento de ChatGPT, Ketchum notó que sus técnicos de servicio estaban usando el chatbot de IA para construir respuestas a consultas y resolver tickets, y las respuestas que obtuvieron estaban bien elaboradas y eran profesionales. “No estaban introduciendo información privada en la plataforma ni haciendo nada que no debieran; simplemente la estaban utilizando para trabajar de forma un poco más inteligente”, afirma. “Si la gente ya está utilizando estas herramientas, sabíamos que teníamos que responder operativamente para poder apoyar su despliegue en todo el campus con los niveles necesarios de alfabetización”.
Mucha gente, cuando se enfrenta a un cambio, quiere certidumbre, dice Vito. “Creo que había personas que esperaban una política porque no se sienten cómodas con las zonas grises”, añade. “En lugar de eso, les dimos un terreno de juego que podían utilizar para aprender y experimentar”. No se impuso nada, subraya, no se presionó al personal ni a los profesores para que utilizaran esta tecnología si no querían hacerlo. “Pero era importante para nosotros ser muy inclusivos en nuestras conversaciones sobre estas herramientas, explicando cómo pueden ser útiles y dónde pueden añadir valor”, dice Ketchum.
Ritmo de progreso
Para otras instituciones académicas que quieran desarrollar su propio enfoque de la IA, el consejo de Ketchum es empezar poco a poco, encontrar la herramienta que pueda funcionar y probarla utilizando las directrices y buenas prácticas existentes. Vito cree que es importante no perder de vista el objetivo, y explica que ya han estado trabajando para mejorar la alfabetización digital en toda la universidad, ya que esto no es más que una evolución.
Vito también subraya la importancia de que todo el mundo participe. “Cuando se invita a la gente a participar, siente que forma parte de algo”, afirma. “Entonces, muchas de estas cosas pasan de ser intimidantes a ser bastante emocionantes”.
Read More from This Article: Directrices en lugar de políticas: el enfoque para abordar la IA generativa de la Universidad de Texas
Source: News