La conversación sobre inteligencia artificial suele centrarse en herramientas: modelos generativos, automatización de procesos, asistentes virtuales. Sin embargo, cuando se trata del Estado, la pregunta relevante no es cuán avanzada es la tecnología, sino cuán preparada está la institución para incorporarla con responsabilidad.
Integrar inteligencia artificial en el sector público no equivale simplemente a modernizar sistemas. Supone intervenir en procesos que afectan derechos, decisiones administrativas y el diseño de políticas públicas.
Cuando un sistema automatizado participa en la clasificación de solicitudes, en la priorización de expedientes o en la elaboración de informes técnicos, deja de ser un apoyo operativo. Empieza a influir —directa o indirectamente— en decisiones que impactan en ciudadanos concretos.
Y cuando una herramienta influye en decisiones públicas, el debate deja de ser estrictamente tecnológico. Se vuelve institucional.
Un ejemplo concreto permite dimensionar el desafío. ¿Estaría la Caja de Seguro Social preparada para incorporar inteligencia artificial en la asignación de citas médicas o en la distribución de medicamentos? A primera vista, la respuesta podría parecer evidente: la IA podría optimizar turnos, reducir tiempos de espera y anticipar desabastecimientos. La eficiencia operativa mejoraría.
Pero el análisis no puede detenerse allí.
Si un algoritmo prioriza pacientes en función de criterios clínicos, demográficos o estadísticos, ¿quién define esos criterios? ¿Cómo se evita que reproduzcan sesgos históricos? ¿Qué ocurre si un error en el sistema retrasa una cita crítica o afecta la entrega de un tratamiento indispensable? ¿Existe trazabilidad suficiente para explicar por qué un ciudadano recibió o no determinada asignación?
Estas no son preguntas técnicas. Son preguntas de gobernanza.
El Estado no puede adoptar inteligencia artificial bajo la misma lógica con la que incorpora software tradicional. La IA introduce variables nuevas: opacidad técnica, decisiones probabilísticas, riesgo de sesgos y una redistribución implícita de responsabilidades.
¿Quién responde cuando una recomendación automatizada perjudica a un ciudadano?
¿Se ha definido con claridad el nivel de supervisión humana?
¿Existen mecanismos de auditoría independiente y revisión continua?
¿Están los funcionarios capacitados para comprender y cuestionar los resultados que arroja el sistema?
Un Estado preparado para integrar inteligencia artificial no es aquel que adquiere más herramientas, sino aquel que rediseña sus procesos, fortalece sus sistemas de control y establece marcos explícitos de responsabilidad.
En el caso de la gestión sanitaria, la incorporación de IA sin rediseño institucional podría generar un desplazamiento difuso de responsabilidades. La decisión quedaría repartida entre el algoritmo, el proveedor tecnológico y la administración. Cuando la responsabilidad se diluye, la rendición de cuentas se vuelve más compleja.
El riesgo, entonces, no es tecnológico. Es de legitimidad.
En el ámbito público, la legitimidad es el activo más sensible. Se construye sobre confianza, transparencia y previsibilidad. Si los ciudadanos perciben que decisiones vinculadas a su salud se toman mediante sistemas opacos o difíciles de fiscalizar, la erosión institucional puede ser silenciosa pero profunda.
La inteligencia artificial ofrece oportunidades reales de mejora en eficiencia, análisis de datos y capacidad de gestión. Negarlo sería desconocer su potencial. Pero su integración en instituciones como la Caja de Seguro Social exige algo más que inversión tecnológica: requiere madurez organizacional, reglas claras y supervisión efectiva.
La pregunta, en definitiva, no es si debemos usar inteligencia artificial. La cuestión es si estamos dispuestos a rediseñar nuestra arquitectura institucional para hacerlo con responsabilidad.
La verdadera modernización no consiste en incorporar algoritmos. Consiste en fortalecer la capacidad del Estado para gobernarlos.
El autor es estratega en tecnología, innovación y transformación digital.

