«La sociedad debe asegurarse de que, a medida que la tecnología de IA se integre en el lugar de trabajo y la educación, participemos en conversaciones significativas y creemos estrategias para reimaginar el papel de los humanos»
Joaquim Giannotti es Doctor en Filosofía por la Universidad de Glasgow, Profesor Asistente, con especialización en metafísica, epistemología, ética aplicada e IA. Se interesa en temas como la filosofía de la raza, ontología social y fundamentos filosóficos de la física, desempeñándose como investigador y docente en la Universidad Mayor
1. En tu opinión, ¿cómo afectará el desarrollo de la inteligencia artificial la estructura de las sociedades en los próximos 20 años?
El rápido crecimiento de la IA está generando preguntas difíciles sobre su futuro y su impacto en la sociedad, preguntas que son difíciles de responder cuando predecir la evolución de tecnologías tan poderosas parece como mirar en una bola de cristal. Igualmente complicado es imaginar cómo reaccionarán las sociedades a los avances de la IA sin dejarse llevar por sueños utópicos o miedos distópicos. Si bien estas opiniones extremas añaden dramatismo al debate, a menudo eclipsan la conversación real sobre los beneficios y amenazas genuinos de la IA.
Una cosa está clara: el impulso para desarrollar e integrar la IA en todas las facetas de la vida no está disminuyendo. De hecho, se está acelerando. Avanzamos 20 años y es muy plausible que la IA se incorpore a la vida cotidiana, desde la investigación científica hasta la educación, especialmente en las naciones más ricas. Al igual que los teléfonos inteligentes son herramientas esenciales hoy en día, la IA podría volverse imposible de evitar en las tareas diarias y el trabajo profesional. La alfabetización en IA podría volverse tan fundamental como saber leer o usar una computadora, e incluso podríamos ver movimientos que abogan por la educación en IA como un derecho humano básico.
Mi esperanza es que para entonces hayamos establecido regulaciones justas y bien pensadas para garantizar que la IA sirva a los mejores intereses de la humanidad, convirtiéndola en una verdadera fuerza para el bien.
2. ¿Qué rol crees que debería jugar la filosofía en la regulación ética de la IA, especialmente en áreas como la justicia, la privacidad y los derechos humanos?
La filosofía tiene un papel crucial que desempeñar en los debates éticos en torno a la IA, no porque los filósofos tengan la clave de lo que está bien o está mal, sino porque su formación los capacita para abrirse paso entre la confusión conceptual, cuestionar supuestos ocultos y evaluar críticamente las razones que sustentan diversas políticas. El enfoque metódico y cuidadoso que aporta la filosofía es exactamente lo que se necesita para navegar por el complejo terreno moral de la IA.
Temas como la justicia, la privacidad y los derechos humanos son terreno fértil para el debate ético a medida que las tecnologías de IA ocupan un lugar central. La inmensa promesa (y el peligro) de la IA exige que repensemos las políticas existentes. Si bien no deberíamos confundir lo que es legalmente aceptable con lo que es moralmente correcto, nuestras leyes a menudo reflejan juicios éticos más profundos. Personalmente, me fascina la forma en que la IA se relaciona con la justicia y los derechos humanos. ¿Hasta qué punto deberíamos confiar en la IA para emitir veredictos legales? ¿Debería la IA guiarnos en la configuración de las leyes de la sociedad? ¿Y podría el acceso a la IA convertirse eventualmente en un derecho fundamental? Si bien no pretendo tener todas las respuestas, explorar estas preguntas requiere una inmersión filosófica profunda; no hay forma de evitarlo.
3. Algunos críticos argumentan que la IA podría exacerbar las desigualdades sociales. ¿Compartes esa preocupación? ¿Qué medidas crees que deberían implementarse para evitarlo?
No sólo comparto la preocupación por los riesgos de la IA, sino que creo que las crecientes desigualdades sociales plantean una amenaza mucho más preocupante que un acontecimiento catastrófico de baja probabilidad como la destrucción masiva de la humanidad. Mis mayores preocupaciones se centran en dos cuestiones. En primer lugar, la IA (en especial la IA generativa) tiene el potencial de amplificar los sesgos nocivos. Ya hay abundantes pruebas de que la IA puede reproducir los mismos sesgos de género y raciales que estamos tratando de eliminar. Si no se controlan, estos sesgos podrían propagarse aún más rápido y arraigarse profundamente, lo que haría que fuera más difícil erradicarlos.
La segunda preocupación tiene que ver con el acceso a la tecnología de la IA. Al igual que ocurre con otras tecnologías que mejoran nuestra vida laboral y personal, quienes puedan utilizar la IA tendrán una clara ventaja sobre quienes no puedan. En un mundo cada vez más impulsado por la tecnología, es probable que la calidad de vida de los usuarios de la IA sea mayor. Si bien no creo que la mera existencia de esta brecha sea intrínsecamente injusta, existe un problema real si la sociedad no logra garantizar el acceso igualitario tanto a las tecnologías de IA como a la alfabetización necesaria para usarlas de manera efectiva.
4. Desde una perspectiva ética, ¿crees que es posible diseñar una IA que pueda tomar decisiones morales de manera autónoma? ¿Cuáles serían los riesgos y beneficios de un sistema así?
I Soy optimista sobre la posibilidad de construir agentes de IA éticos. El verdadero desafío radica en traducir nuestros principios éticos a un lenguaje que las máquinas puedan entender y garantizar que los cumplan. Tal vez tengamos que imponer ciertas restricciones sobre cómo se entrenan estos sistemas de IA o cuánta libertad tienen en la toma de decisiones. En esencia, tal vez tengamos que limitar su autonomía, tanto computacional como práctica. Pero ¿no es eso similar a cómo nosotros, como humanos, nos esforzamos por actuar éticamente? Para vivir moralmente, también ponemos límites a nuestras acciones y somos conscientes de cómo pensamos.
Los mayores riesgos en la creación de IA moral no son solo técnicos, son conceptuales. Si logramos construir IA con un sentido de ética, tendremos que repensar cómo los tratamos. Después de todo, tenemos obligaciones morales con otros agentes, como los humanos. Por ejemplo, está mal obligar a una persona a actuar en contra de su moral. Pero ¿qué sucede si una IA rechaza una tarea porque su código ético lo prohíbe? ¿Cómo lidiaríamos con eso? La sociedad debe empezar a tomarse en serio estas cuestiones y considerar la posibilidad de ampliar nuestro círculo moral para incluir agentes artificiales.
Curiosamente, el mayor beneficio potencial de crear una IA moral está relacionado con este riesgo. Estas máquinas podrían encontrarse con problemas y dilemas morales que nunca hemos considerado, lo que nos ayudaría a aprender más sobre nuestra propia ética, capacidad de acción y responsabilidades.
5. El avance de la IA plantea el desafío de la obsolescencia laboral en muchos sectores. ¿Cómo piensas que las sociedades deben prepararse para este cambio, tanto a nivel económico como educativo?
La sociedad debe asegurarse de que, a medida que la tecnología de IA se integre en el lugar de trabajo y la educación, participemos en conversaciones significativas y creemos estrategias para reimaginar el papel de los humanos. La mejor manera de identificar las contribuciones humanas irremplazables en cualquier campo es comprender los límites y el potencial de estas tecnologías. Solo entonces podremos determinar qué tareas deben priorizar los humanos, lo que puede requerir que nos adaptemos y replanteemos los métodos tradicionales. Tomemos como ejemplo la educación: los docentes deben considerar cuidadosamente qué aspectos de su trabajo son realmente irremplazables frente a los sistemas de IA que pueden manejar de manera eficiente tareas como calificar o responder preguntas rutinarias.
Desde un punto de vista económico, es crucial que los gobiernos, las empresas y las instituciones promuevan la alfabetización en IA desde una edad temprana. Así como aprender un segundo idioma abre las puertas a mejores oportunidades profesionales y sociales, creo que lo mismo será cierto para quienes dominen la tecnología de IA. Ser experto en IA le dará a las personas una clara ventaja en el mercado laboral y en la sociedad. Eso no significa que todos deban convertirse en expertos en aprendizaje automático, pero tener una comprensión básica y sólida de cómo funciona la IA será esencial para prosperar junto a estas máquinas. Y aquí es donde puede surgir la controversia: no creo que la responsabilidad de este conocimiento deba recaer únicamente en los individuos. Una sociedad que no proporciona un acceso igualitario a la alfabetización en IA (las habilidades y la comprensión necesarias para interactuar con la IA de forma segura y ética) no es una sociedad verdaderamente justa. Si queremos que todos tengan las mismas oportunidades en un mundo digital, el acceso a la educación en IA debe ser una prioridad.
6. En cuanto a la autonomía de la IA, ¿cuál crees que debería ser el límite entre la inteligencia artificial y la responsabilidad humana? ¿Es deseable que la IA tenga un rol de toma de decisiones en contextos políticos o militares?
Como seres humanos, todavía estamos lidiando con el concepto de “responsabilidad”. Claro, en algunos casos, es clarísimo, como cuando alguien aprieta intencionalmente el gatillo de un arma para dañar a un inocente transeúnte. Pero no todas las situaciones son tan claras o tan simples. Tomemos como ejemplo el cambio climático: es obvio que la actividad humana lo impulsa, pero ¿somos todos igualmente responsables? Intuitivamente, no. Alguien que conduce un camión que consume mucha gasolina no parece tener el mismo peso de responsabilidad que todo el sector agrícola industrial. Pero una vez que empezamos a hablar de distintos grados de responsabilidad, las cosas se vuelven turbias. Sin una forma precisa de medirla, crear un marco legal en torno a estas cuestiones se vuelve mucho más difícil.
¿Por qué son importantes estos ejemplos? Porque la responsabilidad en la IA es aún más complicada. Nos cuesta entender por completo cómo funcionan los algoritmos de IA, y si no podemos rastrear cómo una máquina llegó a una decisión específica, es difícil responsabilizar a la propia IA de alguna manera significativa. Por ahora, el mejor enfoque es responsabilizar a los humanos de cualquier riesgo o daño causado por los sistemas de IA.
Curiosamente, cuando ponemos la responsabilidad firmemente en manos de los humanos, la idea de utilizar la IA en la toma de decisiones políticas o militares se vuelve más aceptable. Por ejemplo, es menos controvertido utilizar la IA en la planificación de políticas o tácticas militares, siempre que esas estrategias se ajusten a estándares éticos independientes de equidad y justicia. En este contexto, la IA debería servir como un sistema de apoyo, ofreciendo una perspectiva más amplia sobre posibles cursos de acción en función de las circunstancias y los objetivos en cuestión. Pero la decisión final, al menos por ahora, debe seguir siendo humana.

Entrevistador: Dr. Heber Leal. Director NACSA. Universidad Mayor
Director del Núcleo Transversal de Ciencias Sociales y Artes (NACSA), Universidad Mayor. Doctor en Literatura. Magister en Filosofía Moral. Licenciado en educación y Profesor de Filosofía