Ética, sesgos, privacidad y gobernanza
脡tica, sesgos, privacidad y gobernanza
Abstract
La rápida incorporación de la inteligencia artificial (IA) en la educación superior está transformando la enseñanza, la investigación y la gestión universitaria mediante tutorías inteligentes, aprendizaje adaptativo, evaluación automatizada y analítica predictiva. En América Latina y el Caribe, este proceso ocurre en un contexto de expansión de matrícula y persistentes desigualdades en acceso, calidad e infraestructura digital. Aunque la IA ofrece oportunidades para personalizar el aprendizaje y optimizar procesos, también plantea desafíos éticos sustantivos: los algoritmos pueden reproducir sesgos, el uso intensivo de datos personales
amenaza la privacidad y la opacidad (“caja negra”) dificulta explicar decisiones que afectan trayectorias académicas (Molina & Medina, 2025). En contextos desiguales, estos riesgos pueden derivar en nuevas formas de exclusión si no existen marcos claros de gobernanza. En el Foro Internacional organizado por la UNICyT se abordó la pregunta sobre qué marcos y prioridades
deben establecer las instituciones para garantizar un uso justo, transparente y responsable de la IA que contribuya al cierre de la brecha digital. Este texto sintetiza esa reflexión crítica y propone marcos institucionales orientados a la equidad, la transparencia y la inclusión, partiendo de que la ética no limita la innovación, sino que la hace socialmente legítima y sostenible. La r谩pida incorporaci贸n de la inteligencia artificial (IA) en la educaci贸n superior est谩 transformando la ense帽anza, la investigaci贸n y la gesti贸n universitaria mediante tutor铆as inteligentes, aprendizaje adaptativo, evaluaci贸n automatizada y anal铆tica predictiva. En Am茅rica Latina y el Caribe, este proceso ocurre en un contexto de expansi贸n de matr铆cula y persistentes desigualdades en acceso, calidad e infraestructura digital. Aunque la IA ofrece oportunidades para personalizar el aprendizaje y optimizar procesos, tambi茅n plantea desaf铆os 茅ticos sustantivos: los algoritmos pueden reproducir sesgos, el uso intensivo de datos personales
amenaza la privacidad y la opacidad (鈥渃aja negra鈥�) dificulta explicar decisiones que afectan trayectorias acad茅micas (Molina & Medina, 2025). En contextos desiguales, estos riesgos pueden derivar en nuevas formas de exclusi贸n si no existen marcos claros de gobernanza. En el Foro Internacional organizado por la UNICyT se abord贸 la pregunta sobre qu茅 marcos y prioridades
deben establecer las instituciones para garantizar un uso justo, transparente y responsable de la IA que contribuya al cierre de la brecha digital. Este texto sintetiza esa reflexi贸n cr铆tica y propone marcos institucionales orientados a la equidad, la transparencia y la inclusi贸n, partiendo de que la 茅tica no limita la innovaci贸n, sino que la hace socialmente leg铆tima y sostenible.
Collections
- Otros [58]

