En los últimos días, Deloitte Australia se vio envuelta en un escándalo que encendió las alarmas sobre el uso de la inteligencia artificial (IA) en entornos profesionales. La firma fue contratada por el gobierno australiano para elaborar un informe sobre el sistema de empleo y sanciones sociales, valuado en unos 440 mil dólares australianos. Sin embargo, el documento —generado parcialmente con IA— contenía errores graves: citas inexistentes, referencias inventadas y hasta menciones a fallos judiciales que nunca ocurrieron.
Tras hacerse pública la situación, Deloitte reconoció el uso de modelos de IA generativa, corrigió las referencias falsas y aceptó devolver parte del pago al gobierno. Aunque las conclusiones generales del informe no se modificaron, el episodio dañó la reputación de la consultora y reabrió un debate clave: ¿puede la IA trabajar sola, sin supervisión humana?
En el mundo contable e impositivo, este caso no pasa desapercibido. La IA ya se utiliza para automatizar tareas, analizar grandes volúmenes de datos, redactar informes o detectar inconsistencias. Sin embargo, este episodio demuestra que la precisión técnica, la interpretación normativa y el juicio profesional siguen dependiendo de las personas. Un modelo de IA puede procesar información, pero no puede evaluar el contexto legal, las consecuencias tributarias o los matices que definen una estrategia fiscal responsable.
En Argentina, donde la normativa cambia constantemente y los organismos fiscales (ARCA, ARBA, AGIP, entre otros) exigen exactitud y respaldo documental, la supervisión humana es irremplazable. La IA puede asistir, sugerir, resumir y mejorar la eficiencia del trabajo contable, pero la responsabilidad final siempre recae en el profesional.
El caso Deloitte nos recuerda que la inteligencia artificial no reemplaza la inteligencia profesional. Usada correctamente, puede ser una aliada estratégica. Pero sin control humano, revisión crítica y transparencia sobre su uso, se transforma en un riesgo operativo y reputacional.




