*

Lo interesante de la ética será el que tenga la capacidad de cuestionar las decisiones automatizadas que en apariencia son neutras, buenas o justas; pero que detrás pudieran estar perpetuando sesgos, y, en consecuencia, negando derechos.

Se considera que la inteligencia artificial (IA) ha irrumpido de manera intempestiva en nuestra vida cotidiana; lo cierto es que, como señalaba el filósofo francés Michel Foucault, un diagrama, o bien, un esquema de uso o configuración, como puede ser un sistema de pensamiento o un conjunto de técnicas no nace de la nada, o por generación espontánea; sino por el que le antecede. En el caso de la inteligencia artificial se puede decir que el modelo adoptado, su modo de hacerse o configurarse, en buena medida, es el de la tecnología informática que comenzaba a finales del siglo pasado.

Su reciente expansión hoy ha hecho que nos preguntemos sobre la relación entre IA y relaciones humanas dentro de las ciencias sociales. Hasta hace poco tiempo había una limitada reflexión acerca de la tecnología y sus condiciones de producción, sus modos de configurar el mundo y su relación con lo social; ya no se diga desde la propia filosofía.

Sin embargo, el panorama hoy ha cambiado, debido a que la tecnología y, en específico, la inteligencia artificial permea prácticamente todas las capas de nuestro hacer diario. Por ello hoy es una necesidad plantear preguntas desde la ética a partir de ese hacer.

Hay demasiados ejemplos en donde es posible hallar dilemas éticos, desde los ahora utilizados asistentes virtuales, hasta cuestiones mucho más complejas como los modelos de inteligencia artificial empleados en sentencias judiciales. En este sentido, es posible afirmar que ahora no solo estamos tomando decisiones con base en la valoración “tradicional” de la información de que disponemos para actuar de determinada manera, sino que está mostrando cuánto de su racionalidad se inserta en nuestra manera de hacer las cosas. Es, por decirlo de alguna manera, una relación de ida y vuelta.

Hay que recalcar que toda la información que poseen los modelos de IA proviene de la red. Es información que ya existe, pero condensada, medida y adaptada a la respuesta o necesidad que deseamos satisfacer. Por tanto, las decisiones que toma se hacen con base en sus propios parámetros de registro. Ello nos lleva a preguntarnos si las decisiones que les delegamos, al ser esta información de la cultura, producto humano, está libre de sesgos y prejuicios.

Por ello de manera reciente se ha hecho alusión a la ética en este territorio, aunque ha de reconocerse que muy por detrás del ritmo al que se desarrolla y usa este tipo de tecnología. ¿Cómo apelar al sentido de justicia, cabalidad o garantía en las decisiones de los softwares?

La primera salida que encontramos es recurrir a la ética clásica. A la ética aristotélica y con ello a esquemas que suponen una jerarquía de valores. Luego, tenemos al filósofo alemán, Immanuel Kant, para probablemente pensar los problemas y decisiones de la IA buscando valores universales. Quizás en un tono mucho más actual recurriríamos a Martha Nussbaum para pensar las relaciones entre nuestras decisiones y los límites o la actuación de cada uno de los agentes, humanos y máquinas.

Aunque, a pesar de la importancia de estos planteamientos, una de las propuestas relativamente recientes y de la que podemos pensar las complejas relaciones entre entes informáticos y relaciones humanas la proporciona el filósofo español Ramón Queraltó.

Con la problematización y reconocimiento entre desarrollo tecnológico y seres humanos, Queraltó nos llama la atención en repetidas ocasiones para buscar esquemas éticos reticulares, no verticales o jerárquicos, con los que podamos pensar también la reticularidad de la red. Es como pensarnos a través de los algoritmos, pero desde las propias condiciones de vida. Rescata así lo fundamental de la pregunta por la vida, y de esta manera remite a la ética como herramienta para reflexionar sobre cómo vivir.

Lo anterior es una necesidad imperiosa, sobre todo si se considera que la tecnología opera también en nuestros modos de vida, pero anteponiendo siempre la eficiencia sobre aspectos que a nosotros nos importan, como la justicia o la eliminación de los sesgos, prejuicios o discursos de odio.

Eficiencia que se vale también de un modo de racionalidad mecanizado, que dista de ejecutar la habilidad de pensar. Ya en su momento Hannah Arendt nos enseñó qué consecuencias puede haber cuando dejamos de pensar. Lo interesante de la ética será el que tenga la capacidad de cuestionar las decisiones automatizadas que en apariencia son neutras, buenas o justas; pero que detrás pudieran estar perpetuando sesgos, y, en consecuencia, negando derechos.

Alicia Valentina Tolentino Sanjuan es socióloga y Maestra en Filosofía por la UNAM. Doctorante en Humanidades, línea Filosofía Moral y Política (UAM). Editora en Viceversa. Investiga sobre subjetividad a partir del cambio tecnológico; también sobre feminismos y literatura. Es miembro activo de la Red Mexicana de Mujeres Filósofas y miembro de la Revista de filosofía Reflexiones Marginales Saberes de la Frontera, de la UNAM. 


También en Pijama Surf: ¿Cuál es el uso más popular de la Inteligencia Artificial en 2025? La respuesta es muy preocupante


Imagen de portada: IA