Uso ético de la Inteligencia Artificial: UAEMÉX

Se ha alimentado la percepción equivocada de que los sistemas de Inteligencia Artificial (IA) son capaces de llevar a cabo procesos como los que ocurren en el cerebro humano, además de que no están diseñados para la educación, por lo que es imprescindible informarse de sus verdaderos alcances, afirmó el especialista en IA, Rafael Pérez y Pérez.

En el Edificio de Educación Continua y Digital de la Universidad Autónoma del Estado de México (UAEMéx), Pérez y Pérez impartió la conferencia “Reflexiones acerca de las discusiones sobre el uso ético de la IA”, como parte del Foro “Uso Ético de la Inteligencia Artificial en Educación”, organizado por la Secretaría de Docencia, la Dirección de Educación Continua y Digital, la Dirección de Desarrollo de Personal Académico (DiDEPA) y la Facultad de Ciencias de la Conducta (FACICO).

El especialista explicó que el conocimiento sobre cómo funciona el cerebro humano aún es muy limitado, por lo tanto, es imposible desarrollar programas de cómputo, ya sea sistemas de IA u otros, que imiten el funcionamiento de dicho órgano o de los procesos mentales que de él emergen.

En ese sentido, refirió que algunas expresiones que se emplean en la IA no tienen el mismo significado cuando se refieren a las personas; por ejemplo, el término “aprendizaje de máquina”, que describe un proceso totalmente diferente al que siguen las personas cuando aprenden algo nuevo.

Es así que para el investigador es necesario que cualquier documento que hable sobre la ética de IA debe dejar claro que hay un conocimiento sobre el funcionamiento del cerebro humano, cómo y bajo qué contexto se emplean los términos que dan a entender un funcionamiento similar entre la IA y el cerebro humano.

“En resumen, dado el contexto de confusión que actualmente impera respecto a los alcances de la Inteligencia Artificial, al hablar de ética se debe poner un especial cuidado para evitar contribuir de manera involuntaria a la desinformación”, sugirió.

Asimismo, alertó que los sistemas de IA como ChatGPT no están diseñados para apoyar la educación porque su objetivo es la composición de textos bien estructurados sobre infinidad de temas y que muestren un uso adecuado del lenguaje más que la veracidad o la ética de los escritos que ofrece el algoritmo.

“En la actualidad, ChatGPT no está regulado y, por lo tanto, no tenemos claridad sobre qué datos usan para entrenarlo y qué otras herramientas usan para hacer más poderoso el desempeño del sistema”, aseveró.

De manera general, el especialista refirió que existe una desinformación y atribución errónea de capacidades de la IA, que no es un sistema diseñado para la educación y que aún no comprendemos como usuarios, su funcionamiento.