El avance de la Inteligencia Artificial y las aulas universitarias, tema de debate en UNL
“Inteligencia Artificial, interpelación a las aulas universitarias” fue el título de una conferencia desarrollada en el auditorio de la Facultad de Ciencias Económicas de la Universidad Nacional del Litoral. Se trató de una iniciativa impulsada por FCE y la Facultad de Ingeniería y Ciencias Hídricas (FICH) cuyo eje central fue las limitaciones y posibilidades de ChatGPT en la enseñanza universitaria.
Disertaron el doctor en Ingeniería, Hugo Leonardo Rufiner, y la secretaría Académica y de Bienestar Estudiantil de FCE, Andrea Pacífico. Además, estuvieron acompañados por el Dr. Leandro Di Persia y el Ing. Rafael Gaggion Zulpo de la FICH.
Cabe señalar que la conferencia puede verse online accediendo al siguiente link: https://www.youtube.com/watch?v=2_NjT7umGzk.
Reflexiones
«Todos hemos escuchado muchas cosas respecto a este tema, de manera muy vertiginosa. Todos han probado esto que parece casi mágico», señaló Rufiner al iniciar su presentación y agregó: «Como investigador y profesor tengo una inquietud muy grande porque estas herramientas, que son realmente muy poderosas y, del lado del usuario, siento cierta responsabilidad de qué se hace con todo esto». En la misma línea indicó que desde hace tiempo trabaja con dos grupos, a nivel nacional e internacional, acerca de una disciplina emergente que se llama el transhumanismo, relacionada a cómo afectan las tecnologías de inteligencia artificial a las personas.
Seguidamente, el doctor en ingeniería y docente de FICH-UNL definió este sistema como un modelo basado en una arquitectura que se llama Transformer, desarrollada por la empresa OpenAI. «El modelo se entrena en una gran cantidad de datos de texto plano, para predecir la siguiente palabra en una oración, dada una secuencia de palabras anteriores. Lo único que hace GPT es predecir la próxima palabra», afirmó Rufiner para luego considerar: «Es un modelo avanzado de lenguaje, pero no es perfecto».
Limitaciones
Seguidamente, Rufiner comenzó a detallar las limitaciones más importantes y cómo esas limitaciones pueden afectar la capacidad de generar texto de manera precisa y responsable: «La primera de las limitaciones es el tema de los sesgos. Es un problema bastante importante y no le podemos echar toda la culpa a ChatGPT, porque los sesgos están por todos lados; pero al ser una computadora la que tiene los sesgos, uno lo toma con un poco más de cuidado», señaló para luego agregar que estos sesgos pueden prevenir de distintas fuentes, pero principalmente del material con el que fue entrenado: «Si alguna clase de texto está más representada que otra es muy posible que haya un sesgo hacia ese lado. Si hay un idioma que está más representando, que de hecho es así, en los datos va a funcionar mejor en ese idioma. Los sesgos pueden llevar a generar textos con prejuicios o supuestos implícitos».
Otra limitación, planteada por Rufiner es que no tiene sentido común, si bien el texto que te devuelve es coherente y plausible. «Puede parecer que lo tiene, puede parecer que tiene intuición; pero hay un problema en todo lo que es la inteligencia artificial que es: como el objetivo de siempre fue emular a la inteligencia humana, obviamente se usan un montón de términos que vienen del ámbito de la inteligencia humana», añadió.
Una dificultad que también presenta es para entender contenido abstracto, porque se basa en patrones estadísticos. «Por ejemplo, puede tener dificultades para comprender conceptos filosóficos, teológicos o científicos avanzados que no están presentes en el entrenamiento», indicó Rufiner para luego señalar la falta de habilidades prácticas y experiencia humana y la incapacidad de dar respuestas completas y precisas en áreas técnicas, como otras limitaciones. «No tiene conciencia propia, ni capacidad para percibir el mundo físico a su alrededor. Como así también el idioma y cultura, que pueden generar limitaciones en la comprensión y expresión de ciertos matices y sutilezas lingüísticas y culturales», finalizó.
Posibilidades
A su turno, Andrea Pacífico celebró la idea de que los profesores y equipos docentes «nos ocupemos, salgamos de nuestra zona de confort y empecemos a pensar qué estamos haciendo, cómo lo hacemos, cómo queremos mejorar y qué pasa con esto». Más adelante, en relación al uso de ChatGPT en las aulas universitarias indicó que hay dos posturas: prohibirla o aceptarla críticamente. En esta línea, se preguntó: «¿Tiene sentido que el estudiante haga lo mismo que el ChatGPT? La respuesta es no. Lo que sí tiene sentido es contrastar lo que el propio alumno haría y lo que el GPT le da. Tendría sentido trabajar con lo que el GPT le da y que el alumno lo corrija, porque para corregir tenés que poner a jugar una serie de saberes». En el mismo sentido indicó que elaborar la orden o prompt, es otro tema que se puede trabajar con los alumnos: «Para pedirle tenés que saber lo que querés. Si no te convence lo que te contesta es porque vos ya sabés algo y a vos no te convence y tenés que ajustar. En ese ajuste estás aprendiendo y haciendo circular saberes».
Asimismo, Pacífico señaló que es importante tener competencias en la escritura y la redacción, lo que también implican adquisición de saberes y conocimientos. «Educar es el mañana posible, el mañana mejor para todos y es lo único que evita que el origen de las personas no se transforme en una condena. Esta educación debe ser humanizante, debe producirse entre sujetos e instituciones, y es una universidad pública -gratuita, abierta para todos- la que puede producir los cambios y las transformaciones en ese sujeto», agregó.