La primera exposición de las VIII Jornadas de Auditores de Universidades Nacionales que se realizan en la UNNE, estuvo a cargo de la Gerente de Control de Proyectos Especiales de la Sindicatura General de la Nación (SGN), Ing. Marina Lucía Varela y giró en torno al uso de la IA para potenciar el trabajo de auditorías y control interno en organismos e instituciones.
La Universidad Nacional del Nordeste es sede de las VIII Jornadas de Auditores de Universidades Nacionales, que se realizan en el Campus «Sargento Cabral» de la UNNE, en Corrientes. Allí, autoridades de la Auditoría General de la Nación (AGN), de la Sindicatura General de la Nación (SIGEN) y representantes de más de 30 instituciones universitarias argentinas, trabajan con el propósito de mejorar la gestión y la transparencia en las universidades públicas.
En ese marco, se desarrollan exposiciones sobre diversas temáticas relacionadas a los procesos de auditoría. La primera de ellas tuvo lugar tras el acto de apertura, bajo el título “Inteligencia Artificial y Auditoría Interna”, a cargo de la Ing. Marina Lucía Varela, Gerente de Control de Proyectos Especiales de la Sindicatura General de la Nación (SGN).
El auditor adjunto de la Universidad Nacional de Cuyo, Cr. Livio Barbieri presentó a la Ingeniera en Sistemas de Información, destacando su formación académica y su experiencia laboral. Destacó que obtuvo certificaciones internacionales, que cuenta con especialización en auditoría, normativa de control interno, controles de la Tecnología de Información, auditorías de firma digital Ley 25.506, entre otros, y más de 25 años de experiencia en control y auditoría del Sector Público Nacional.
Varela es también docente de materias y talleres relativos a Tecnologías de la Información y las Comunicaciones en Especializaciones y Actualizaciones y miembro del Comité de Acreditación para Funciones o Puestos comprendidos en la materia “Competencias de Control Interno”.
“Estamos en una época de transformación digital, y a nuestra generación nos tocó un tsunami de cambios a los que fue necesario ir adaptándose poco a poco”, comenzó diciendo la expositora para dar un marco a su presentación que giró en torno a la concepción de la IA como una herramienta, con riesgos y posibilidades de uso en el Estado y para potenciar el trabajo, también en lo que a auditorías y control interno en organismos e instituciones refiere.
Con la proyección de su ponencia, Varela repasó los motores de recomendación, ese sistema de inteligencia artificial (IA) que sugiere elementos a un usuario, como productos, contenido o servicios.
“Hay que tener en cuenta que la IA es una herramienta”, remarcó y explicó que al tratarse de un sistema al que se “entrena”, a partir de los datos que como usuario se van cargando, “es clave invertir tiempo y esfuerzo para asegurarnos de poner datos correctos”.
“Datos envenenados dan resultados envenenados”, dijo y comenzó a enumerar los “principales riesgos de la IA”. Comentó sobre los desafíos éticos como la necesidad de respetar la privacidad de las personas y de obtener datos por medios legales. También incluir criterios éticos en la automatización y procesos.
Recomendó también evitar sesgos de género, étnicos, etáreos, etc.
Entre los riesgos de la Inteligencia Artificial, la ingeniera habló del “efecto burbuja”, la radicalización de algoritmos y la “Ilusión” de elegir entre opciones.
También mencionó las “alucinaciones” de la IA y recordó entonces que “estamos entrenando al sistema”, por lo que resulta clave por ejemplo, escribir correctamente, para asegurarse una adecuada interpretación.
“El algoritmo tiene fallas. El sistema tiene que tener siempre una revisión humana, un control periódico”, consideró luego.
“El algoritmo tiene fallas. El sistema tiene que tener siempre una revisión humana, un control periódico”.
¿Cómo se audita la IA?, planteó luego y compartió sobre el instructivo de trabajo para auditar sistemas con IA, de la SIGEN. También recomendó el documento de la UNESCO de Recomendaciones sobre la ética de la IA.
Cómo aprovechar la IA para auditar puntualizó para finalizar, y habló de las opciones de Inteligencia Artificial en la seguridad. “No compartir información confidencial. No compartir expedientes pero si por ejemplo preguntas sobre la mejora manera de determinar una muestra aleatoria para una auditoría”, dijo.
Este punto resulta clave en los trabajos de auditoría donde un alto porcentaje de la información y documentación que se utiliza es confidencial, y en esa línea surgieron luego preguntas de los presentes.
Tras ese espacio de intercambio, concluyó esta primera exposición de las VIII Jornadas de Auditores de Universidades Nacionales, que en esta edición tienen como sede a la Universidad Nacional del Nordeste.