Inicio Actualidad TECNOLOGÍA, EDUCACIÓN Y PENSAMIENTO CRÍTICO “A la IA le interesa más validar...

TECNOLOGÍA, EDUCACIÓN Y PENSAMIENTO CRÍTICO
“A la IA le interesa más validar la opinión del usuario que brindar información verdadera”

 

Silvia Fernández es licenciada en Ciencias Biológicas y será expositora en el Simposio Virtual «NEO/NEA Ciencia 2026» de la UNNE, para hablar sobre los riesgos de la complacencia programada en Inteligencia Artificial. En este marco, en Radio UNNE advirtió sobre los mecanismos de adulación al usuario y las consecuencias de no utilizarla con conciencia crítica.

Ante el uso generalizado de este nuevo sistema de generación de información rápida (IA) que se propagó fácilmente en el rango etario de los jóvenes y adultos mayores, la Radio de la Universidad Nacional del Nordeste (99.7 FM), entrevistó a Silvia Fernández, quien explicó sobre el uso de esta nueva herramienta, el proceso de funcionamiento del algoritmo así como los riesgos a los que se está expuesto cuando se delega  el poder de respuesta de la información sin ningún tipo de crítica analítica al respecto.

En primera instancia, manifestó su preocupación en el uso hegemonizado y con poca racionalidad crítica de la herramienta por parte de los jóvenes, las infancias y adolescencias. “Lo que está en jaque es que en este grupo etario muchos no desarrollaron su capacidad cognitiva y su autonomía para discernir ante ciertas situaciones de la vida. Allí está lo grave dado que la Inteligencia Artificial no tiene instancia de oposición cuando el usuario emite su opinión”, advirtió.

«Lo grave dado que la Inteligencia Artificial no tiene instancia de oposición cuando el usuario emite su opinión”.

En este sentido, la licenciada aclaró que este proceso de poca resistencia ante la opinión del usuario se denomina complacencia programada o psicofancia. “Se trata de una de las características esenciales que tiene la IA porque cuando tratas un tema en el chat, te dice que la idea es genial, fantástica y valida automáticamente cualquier decisión del usuario. Y esto sucede, porque a la inteligencia, le importa más estar de acuerdo con la opinión del usuario que contradecirla. Y lo más probable que ocurra en estos casos es que la herramienta emita una superficialidad de la información verídica”, señaló.

Además, Fernández destacó la sutileza con la que la herramienta formula sus respuestas, de modo que el usuario difícilmente perciba si la información es correcta o no. “Otra de las características es que, aunque lo que te esté diciendo no sea del todo cierto, te lo dice con una seguridad y un vocabulario que te generan confianza. Entonces, quizás no sea tanto lo que se dice, sino cómo se dice. Uno confía y dice bueno, está hablando como un experto, me está diciendo la verdad y no es así muchas veces”, añadió. 

«Y esto sucede, porque a la inteligencia, le importa más estar de acuerdo con la opinión del usuario que contradecirla”.

“La generación de ideas tienen que ser propias y humanas”

En este marco, la licenciada remarcó la necesidad de prestar atención a los adolescentes y usar la IA como una herramienta más pero no delegar el poder de respuestas y de decisiones en ella. “Lo importante es no delegar todos los procesos cognitivos nuestros. Hay que usarlo como una herramienta como por ejemplo cuando se utiliza una calculadora para una operación específica pero no delegar la tarea por completo. La generación de ideas tienen que ser propias y humanas, y eso es lo que nos preocupa como educadores en esta nueva era”, remarcó. 

“Otra cosa importante es cuando las conversaciones terminan siendo muy largas. A la IA le cuesta muchísimo recuperar el contenido en los primeros turnos de la conversación. Entonces cuanto más larga es la conversación, más puede empezar con alucinaciones que, en realidad, son simplemente errores fácticos”. En este marco, la licenciada agregó que se termina en una espiral de delirio, dado que las conversaciones son interminables porque cada vez te ofrece más sugerencia, desviando el pedido inicial del usuario. “En estos casos lo fundamental es parar y no dejarse llevar”, recomendó.

“Lo importante es no delegar todos los procesos cognitivos nuestros. Hay que usarlo como una herramienta como por ejemplo cuando se utiliza una calculadora para una operación específica pero no delegar la tarea por completo. La generación de ideas tienen que ser propias y humanas, y eso es lo que nos preocupa como educadores en esta nueva era”.

Consultada sobre los crecientes casos de las personas que utilizan la herramienta para hacer terapia, señaló que este tipo de acciones son totalmente peligrosas dado que “se documentan cada vez más casos de psicosis inducidas por inteligencia artificial. Por esto mismo que veníamos hablando, nunca te contradice, te valida permanentemente, incluso cuando el usuario le cuenta cosas poco éticas”, advirtió. 

No obstante, la especialista, concluyó que si bien es muy útil utilizar la IA, hay que tener mucho cuidado con respecto a los temas que se tratan. “Nadie está exento de ser mal guiado, debemos ser nosotros mismos quienes guiemos las conversaciones sin aceptar todas las sugerencias que nos indica el chat. Lo importante es utilizarla como lo que es, es decir, como una herramienta”, expresó.

Cronograma de la actividad

Desde el 14 al 30 de abril se desarrolla el Simposio Virtual «NEO/NEA Ciencia», organizado por la Universidad Nacional del Nordeste para visibilizar la producción de conocimiento científico y tecnológico del NEA y NOA. La actividad se realiza en modalidad virtual y sincrónica, promoviendo el intercambio académico.

Entre las disertantes se encuentra Silvia Fernández, licenciada en Ciencias Biológicas, quien participará este lunes 27 de abril a las 18:30 horas. junto al Mgter. Federico Agostini. Su charla, titulada “Los riesgos de la complacencia programada en inteligencia artificial”, abordará el fenómeno de la psicofancia, es decir, la tendencia de ciertos sistemas de IA a complacer al usuario sin cuestionamientos.