Hace unos días, una cumbre en el Vaticano reunió a más de 60 delegaciones políticas para advertir sobre los riesgos de la inteligencia artificial (IA). “La inteligencia artificial funciona como una herramienta para el bien de los seres humanos, no para disminuirlos ni reemplazarlos”, fue la advertencia del Papa León XIV.
En tiempos en que sistemas como GPT, Gemini o Claude están integrados en servicios financieros, de salud y educación -y en Chile un 55% de los trabajadores ya los utiliza para mejorar su productividad (estudio de Laborum)-, el mensaje no es simbólico. Es un llamado de atención sobre una tecnología que ya procesa más del 60% de los datos globales.
Las cinco compañías que lideran la carrera en IA (OpenAI, Microsoft, Meta, Amazon y Google) superan los US$10 billones en capitalización bursátil. Impulsadas por la presión de los inversionistas, la carrera por la superinteligencia a veces prioriza productos atractivos sobre la seguridad, y sus decisiones afectan mercados, estructuras laborales y políticas públicas.
Ejemplo de esta tensión es la reciente demanda de accionistas contra Apple, acusada de entregar declaraciones engañosas sobre las capacidades reales de su IA, afectando la confianza del mercado.
En este contexto: ¿quién define los límites de la IA? ¿Bajo qué principios éticos se está desarrollando esta tecnología?
La gobernanza de la IA no puede limitarse a criterios técnicos o financieros. Requiere también valores humanos. Mientras a nivel global se discute un tratado internacional vinculante, Chile avanza con su propia Política Nacional de IA y un proyecto de ley que busca establecer reglas claras, reconociendo que el desafío es local y urgente.
Los riesgos son sistémicos. Según la Unesco, más del 80% de los sistemas de IA analizados presentan sesgos de género, raciales o culturales. A esto se suma la opacidad de los algoritmos, que crean un entorno propenso a la desinformación, y el uso de obras creativas sin consentimiento para entrenar modelos que devalúan el trabajo humano.
Los beneficios de la IA son enormes, pero también sus riesgos. Si el debate sobre su desarrollo queda sólo en manos de ingenieros o accionistas, vamos a perder la oportunidad de definir en conjunto cómo queremos que la tecnología impacte la sociedad.
La intervención desde el Vaticano es una señal que no debe pasar inadvertida por las empresas ni por quienes diseñan políticas públicas. Nos recuerda que el progreso tecnológico sin propósito y que pasa por alto riesgos como la transparencia y la privacidad, puede ser tan eficiente como deshumanizante.
La inteligencia artificial ya tiene el poder. Ahora necesita dirección. Y propósito.
