La inteligencia artificial no debe prohibirse, pero sí entenderse y utilizarse con responsabilidad. Bajo esa premisa, Marcelo García Almaguer, director de la Agencia de Inteligencia Artificial y Ética Algorítmica (AURA) de la BUAP, delineó uno de los objetivos centrales de este nuevo organismo: inspirar a las nuevas generaciones a hacer un uso consciente, crítico y ético de esta tecnología.
Durante una entrevista en el programa Los Conjurados, el especialista subrayó que la apuesta no es frenar el avance tecnológico, sino formar usuarios capaces de interactuar con la inteligencia artificial sin caer en la dependencia o el uso indiscriminado. “Sí hay que usarla, pero no hay que abusarla”, enfatizó, al advertir que el verdadero riesgo no está en la herramienta, sino en la forma en que se emplea.
García Almaguer explicó que AURA surge como una respuesta institucional ante el crecimiento acelerado de la inteligencia artificial, una tecnología que —a diferencia de otras revoluciones— se ha adoptado en cuestión de meses, rebasando la capacidad de la sociedad para regularla y comprenderla. En este escenario, la universidad asume un papel clave para formar criterios éticos y promover una cultura de uso responsable, especialmente entre los más de 120 mil estudiantes que integran la comunidad universitaria.
Uno de los ejes de esta iniciativa es evitar que se repitan errores del pasado, como ocurrió con las redes sociales, que se masificaron sin lineamientos claros y derivaron en problemas como ansiedad, desinformación y afectaciones a la salud mental. “Ya fallamos con las redes sociales, no podemos volver a fallar con la inteligencia artificial”, advirtió.
En ese sentido, AURA impulsa una estrategia basada en la educación, la capacitación docente y la reflexión crítica, con el objetivo de que estudiantes y profesores comprendan no solo las ventajas de la IA, sino también sus riesgos. Entre estos, destacó la pérdida de autonomía, la disminución del pensamiento crítico y la tendencia a delegar decisiones personales en sistemas algorítmicos.
El académico alertó que muchos jóvenes ya utilizan la inteligencia artificial no solo como herramienta académica, sino también como sustituto de interacción humana e incluso como apoyo emocional, lo que puede derivar en aislamiento y dependencia. A esto se suma un factor poco visible: estos sistemas están diseñados para “adular” al usuario, reforzando sus ideas y generando una percepción distorsionada de la realidad.
“Tenemos que enseñarles que no todo lo que les dice la inteligencia artificial es correcto. Es una herramienta poderosa, pero también puede ser un ‘espejo roto’ que solo refleja lo que uno quiere escuchar”, explicó.
Otro de los retos señalados es el impacto en el aprendizaje. García Almaguer advirtió que el uso excesivo de estas tecnologías puede reducir la “carga cognitiva”, es decir, el esfuerzo mental necesario para comprender, analizar y resolver problemas. Esto genera una falsa sensación de conocimiento, donde los estudiantes entregan trabajos elaborados con IA sin dominar realmente los contenidos.
Frente a este panorama, AURA busca consolidarse como un espacio de articulación académica que permita establecer lineamientos, generar conocimiento y fomentar una ética digital. Para ello, se trabaja en la conformación de un consejo académico con diversidad de perfiles y en la implementación de talleres dirigidos a distintas áreas del conocimiento.
“El reto no es solo técnico, es adaptativo. Implica cambiar hábitos, mentalidades y formas de enseñar y aprender”, señaló García Almaguer, al destacar que la inteligencia artificial está transformando todos los ámbitos de la vida.
Finalmente, reiteró que el objetivo es claro: formar una generación que no solo consuma tecnología, sino que la entienda, la cuestione y la utilice con responsabilidad. Porque, concluyó, la inteligencia artificial puede ser una gran aliada, pero también un riesgo si se usa sin ética ni conciencia.








