El gobernador Maximiliano Pullaro aparece hoy en el centro de una paradoja política e institucional: a menos de tres meses de haber sido convencional constituyente y de haber votado una Constitución que exige sistemas algorítmicos “transparentes y auditables”, firmó un decreto que habilita el uso masivo de inteligencia artificial generativa opaca y no auditable en toda la administración pública santafesina. Y lo hizo, incluso, invocando el mismo artículo 29 que ahora queda, en los hechos, vaciado de contenido.
El Decreto 2726/25, fechado el 3 de noviembre, aprueba el “Protocolo para la Adopción y Uso de Tecnologías de Inteligencia Artificial Generativa en el ámbito de la Administración Pública”, un marco que permite que todas las áreas del Estado provincial utilicen sistemas tipo ChatGPT, Gemini u otros equivalentes privados, cerrados y de caja negra.
La crítica central que comenzó a formularse desde el mundo jurídico y tecnológico es directa: ningún decreto puede convertir en “auditable” a una tecnología que, por diseño, no lo es. La promesa de “transparencia, trazabilidad y explicabilidad” queda reducida al papel, mientras en la práctica el Estado se ata a modelos cuyos procesos internos no pueden ser examinados ni por la Provincia ni por terceros independientes.
Qué dice el artículo 29 que Pullaro votó y ahora tensiona
La nueva Constitución de Santa Fe, en vigencia desde septiembre, incorporó un artículo específico sobre derechos digitales y sistemas algorítmicos. El Artículo 29 establece tres garantías centrales:
- que toda persona tiene derecho a la protección de sus datos personales en entornos digitales;
- que tiene derecho a conocer “de forma clara, accesible y comprensible” los criterios, parámetros y lógicas utilizadas en sistemas automatizados o algorítmicos de toma de decisiones, y a la intervención de una persona humana cuando esa decisión pueda afectar sus derechos;
- que la Provincia y los prestadores de servicios de interés público “deben adoptar sistemas algorítmicos transparentes y auditables”, promoviendo evaluación de impacto y resguardo frente a sesgos o discriminación.
Durante el debate constituyente, el oficialismo presentó esta cláusula como un avance “progresista” y pionero en materia de constitucionalismo digital, justamente porque elevaba a rango constitucional un estándar de transparencia y control sobre algoritmos que toman decisiones que pueden afectar derechos.
Ese estándar, leído a la luz de la tecnología disponible, implicaba de hecho dejar fuera del corazón de la administración pública a los grandes modelos de IA generativa cerrados: su lógica interna no es explicable ni auditable en los términos que pide el artículo 29.
Qué establece el Decreto 2726/25 y cómo se apoya en el artículo 29
El Decreto 2726/25, publicado en el Boletín Oficial el 3 de noviembre, aprueba un protocolo que regula el uso de IA generativa conversacional en toda la administración. El texto define la IA como sistemas capaces de hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales, y habilita su uso “bajo un marco de actuación” que promete minimizar riesgos y proteger derechos.
Entre sus fundamentos, el propio decreto invoca el artículo 29 de la nueva Constitución, presentándose como una forma de cumplir con ese mandato, y no de vulnerarlo. El gobierno sostiene que:
- la IA debe ser una “herramienta de apoyo” y no un reemplazo de la voluntad administrativa;
- los sistemas utilizados deben ser “transparentes, explicables y auditables” en función del riesgo;
- se registrarán los usos (prompts, salidas, versiones de los modelos) para garantizar trazabilidad;
- se exige “supervisión humana significativa y competente”, con agentes obligados a revisar y validar lo que produce la IA;
- se fijan límites al uso de herramientas no institucionales (como versiones gratuitas de modelos públicos) para ciertas tareas.
El resultado es una narrativa oficial que intenta mostrar continuidad entre la cláusula constitucional y el protocolo: el decreto se presenta como la “reglamentación técnica” de un mandato superior. Pero la letra fina indica otra cosa.
De la “IA auditable” en el papel a la caja negra en la práctica
El punto de choque no es solo jurídico, sino técnico. Como recuerdan especialistas en derecho tecnológico e IA, los grandes modelos generativos son, en esencia, cajas negras: no se puede reconstruir paso a paso cómo llegaron a una respuesta concreta; no se puede identificar qué datos de entrenamiento activaron cada conexión interna; no es posible aislar, de forma verificable, qué sesgos o recortes incidieron en una salida determinada.
El propio protocolo santafesino habla de sistemas “transparentes, explicables y auditables”, pero no exige ni el acceso al código fuente, ni a la arquitectura detallada, ni a los datos de entrenamiento del proveedor. Esa parte sigue siendo completamente opaca para el Estado.
En los hechos, lo que sí se puede auditar es otra cosa: si el empleado marcó en un formulario que usó IA; si documentó el prompt; si declaró haber “supervisado” la respuesta; si adjuntó la salida al expediente.
Es decir, se audita el comportamiento del agente humano, no el funcionamiento del modelo. La famosa “IA auditable” se convierte, en la práctica, en trabajadores auditables y proveedores blindados.
Desde esta perspectiva, la crítica que se formula es clara: el decreto desplaza la auditoría desde el algoritmo hacia el empleado, y con ello “maquilla” el choque con el artículo 29, que pedía precisamente sistemas algorítmicos auditables, no planillas de checklists.
La responsabilidad sobre los trabajadores: “supervisión humana” como chivo expiatorio
El diseño del decreto reposa casi todo en la idea de “Supervisión Humana Significativa y Competente”. Sobre el papel, el estándar parece impecable: ningún dictamen, informe o decisión debería basarse solo en lo que diga la IA, sino que habría una revisión profesional que valida, corrige o descarta lo que produzca el modelo.
Pero en la realidad administrativa santafesina –y de cualquier Estado– ese ideal choca con varios problemas:
- Sesgo de automatización: un agente que procesa decenas de expedientes por día tenderá a aceptar lo que sugiere la IA como un atajo. La “supervisión” se vuelve un clic rutinario, no una revisión sustantiva.
- Influencias sutiles: la IA no necesita dar órdenes directas para moldear decisiones. Basta con que, sistemáticamente, redacte con el mismo lenguaje de “orden público”, “estabilidad” o “responsabilidad fiscal” para ir inclinando la balanza en un sentido político o ideológico.
- Asimetría de conocimiento: ni siquiera los propios ingenieros del proveedor pueden explicar, en lenguaje jurídico, por qué un modelo respondió exactamente como respondió. Pretender que un administrativo provincial “comprenda las limitaciones del modelo” es, en muchos casos, una ficción.
- Alucinaciones difíciles de detectar: si un modelo mezcla jurisprudencia real con fallos inexistentes o doctrina inventada, verificar cada cita caso por caso demanda un tiempo y una experticia que la mayoría de las oficinas no tienen.
En ese esquema, el eslabón más débil es el trabajador, que termina siendo el responsable formal de decisiones influenciadas por un sistema que ni controla ni entiende del todo. Jurídicamente conveniente para el poder político; muy discutible a la luz de una Constitución que pedía precisamente más garantías frente a decisiones automatizadas.
“Ministerio de la Verdad” algorítmico: el riesgo de capturar la mirada del Estado
El decreto también habilita que los modelos de IA generativa se alimenten de bases de datos, documentos y repositorios internos del Estado, a través de arquitecturas tipo RAG (búsqueda y aumento de contexto). Eso significa que la IA responderá en función de aquello que el propio gobierno decida cargar, priorizar o etiquetar como “relevante”.
Críticos del esquema advierten que allí aparece un riesgo más profundo que el puramente técnico: una especie de “Ministerio de la Verdad” vectorial, donde lo que la máquina considera verdadero o jurídicamente sólido depende de cómo se curen sus fuentes.
Un ejemplo simple ilustra el problema: un agente pregunta si hay argumentos legales para restringir una protesta; si la base vectorial prioriza fallos de “orden público” y minimiza jurisprudencia de libertad de expresión, la IA devolverá un informe que justifica la restricción con apariencia de neutralidad técnica; el agente creerá estar actuando conforme a derecho, cuando en realidad está dentro de un marco sesgado construido por selección de fuentes.
A esto se suman tres advertencias de fondo:
- Soberanía cognitiva: si toda la administración usa el mismo modelo, con el mismo sesgo ideológico o corporativo, se homogeneiza la forma de pensar interna. Todos los “auditores humanos” terminan mirando el mundo con el mismo filtro.
- Trazabilidad limitada: aunque se registren prompts y salidas, no se puede reconstruir el razonamiento interno del modelo ni los sesgos de entrenamiento. La “trazabilidad” es parcial.
- Dependencia tecnológica: si el cerebro digital del Estado se apoya en una empresa o consorcio con intereses propios, esa estructura gana poder de influencia sobre datos, decisiones y contratos, más allá de lo que quede escrito en el decreto.
En este contexto, también se señala la necesidad de un escrutinio más severo sobre el rol de laboratorios universitarios y equipos vinculados a espacios políticos concretos (radicalismo, Franja Morada) en el diseño del protocolo, para evitar que la infraestructura cognitiva del Estado se privatice o se partidice.
Del laboratorio constituyente al laboratorio de decretos
La paradoja política que envuelve a Pullaro es nítida: como convencional constituyente, acompañó una cláusula que exige sistemas transparentes, explicables y auditables, con evaluación de impacto y resguardo frente a sesgos; como gobernador, firma un decreto que habilita la adopción de modelos de IA generativa que, según coinciden especialistas, no pueden cumplir realmente con ese estándar, y que corren el foco de la auditoría desde el algoritmo hacia el trabajador.
Incluso, hay un giro político adicional: durante la Convención, sectores como La Libertad Avanza habían cuestionado la redacción del artículo 29 por considerar que regulaba de forma excesiva tecnologías todavía en construcción y podía generar rigideces futuras. Hoy, es el propio oficialismo que defendió ese texto el que, según sus críticos, se ve obligado a “violentarlo” por decreto para poder gobernar con las herramientas que la realidad tecnológica impone.
La pregunta que queda planteada, tanto en el plano jurídico como en el político, es si el Decreto 2726/25 constituye una simple mala reglamentación de un mandato constitucional o si, como sostienen ya varias voces, abre un conflicto de inconstitucionalidad directa que la Legislatura o los tribunales deberán resolver.
Lo que está claro es que el debate sobre inteligencia artificial en Santa Fe ya dejó de ser una discusión técnica para especialistas: se transformó en un test de coherencia institucional para un gobernador que ayudó a escribir una Constitución que habla de derechos digitales, algoritmos transparentes y resguardo frente a la manipulación… y que ahora apuesta a gobernar con herramientas que, en muchos aspectos, van en sentido contrario.



