Durante meses, cualquier persona que llamara al Departamento de Licencias del estado de Washington y seleccionara la opción "2 para español" no escuchaba español. Escuchaba inglés: correcto, fluido, absolutamente en inglés, pero pronunciado con un marcado acento hispano. Los números, sin embargo, sí aparecían en español. El resultado era una mezcla tan absurda como involuntaria que los usuarios describieron como "sacada de una sitcom", "irrespetuosa y graciosa a la vez" y, en palabras de Maya Edwards, la residente de Bainbridge Island que destapó el caso en TikTok, "igual partes sorprendente y horrible, como sacado de una serie de comedia". Su video acumuló cerca de dos millones de vistas y se convirtió en uno de los ejemplos más comentados del año sobre lo que puede salir mal cuando se despliega inteligencia artificial en servicios públicos sin los controles adecuados.

La historia comenzó el verano pasado, cuando el marido mexicano de Edwards intentó usar la línea automática en español para consultar información sobre su licencia de conducir. Al seleccionar la opción en español, ambos escucharon una voz sintética que hablaba inglés con pronunciación de hablante hispano. Edwards llamó de nuevo meses después y el error seguía activo. Fue entonces cuando grabó la llamada, publicó el video en TikTok y la cadena de reacciones no tardó en convertir el fallo en un asunto de alcance nacional. El medio The Seattle Times fue el primero en informarlo, y la Associated Press y decenas de medios de comunicación lo retomaron en días.

El Departamento de Licencias reconoció el error en un comunicado oficial y se disculpó. Según la agencia, el fallo fue "un subproducto desafortunado de la expansión de servicios" a nueve idiomas adicionales —representando, según sus propias palabras, "la transición de call center más compleja en la historia del estado de Washington"—. El departamento atribuyó el error a un cambio de configuración interno, aunque aclaró que la causa exacta seguía siendo evaluada. Inicialmente prometió corregirlo; posteriormente, directamente eliminó las opciones en otros idiomas del sistema automático ante la dificultad de garantizar que no hubiera errores similares en las demás lenguas incluidas. Una solución que, en la práctica, dejó sin servicio en su idioma a comunidades enteras de residentes no angloparlantes.

La tecnología detrás del error sería el sistema Amazon Polly, un servicio de síntesis de voz basado en inteligencia artificial que permite generar voces en distintos idiomas y acentos. La hipótesis más extendida entre analistas de tecnología es que durante la configuración del sistema se seleccionó por error una voz en inglés con acento hispano en lugar de una voz en español real, y que nadie verificó el resultado final antes de activarlo. Un error de configuración, en definitiva, que una simple llamada de prueba habría detectado de inmediato. Lo revelador no es que el error existiera —los errores de configuración ocurren en cualquier despliegue tecnológico—, sino que pasara inadvertido durante meses en un servicio público activo.

Desde una perspectiva analítica, el caso del Departamento de Licencias de Washington no es simplemente una anécdota cómica sobre tecnología fallida. Es un síntoma de un problema más amplio y más serio: la adopción acelerada de sistemas de inteligencia artificial en servicios gubernamentales sin protocolos de verificación, auditoría y monitoreo posteriores a la implementación. La promesa de la IA como herramienta de expansión y mejora de servicios públicos es real, pero esa promesa solo se cumple cuando va acompañada de supervisión humana efectiva. En este caso, una institución del Estado puso en marcha un sistema que afectó directamente a ciudadanos hispanohablantes durante meses, sin que ningún protocolo interno detectara el problema.

El impacto concreto no fue trivial. La comunidad hispanohablante en Washington es numerosa: según el censo de 2020, los hispanos representan más del 13% de la población del estado, con concentraciones significativas en condados como Yakima, Franklin y Grant. Para muchos de esos residentes, especialmente quienes tienen un dominio limitado del inglés, la línea telefónica automática del Departamento de Licencias no era un capricho de comodidad sino una necesidad real para gestionar trámites de conducción, renovaciones e información sobre multas. Durante los meses en que el sistema funcionó con la voz incorrecta, esas personas se enfrentaron a una barrera de acceso real ante un servicio público obligatorio. El error no fue solo burocrático: tuvo efectos concretos sobre el derecho a ser atendido en el propio idioma.

La viralización del caso en TikTok y su amplia cobertura mediática pusieron sobre la mesa un debate que va más allá del fallo técnico puntual. Cuando un sistema automatizado de IA falla en un servicio público, la responsabilidad no recae en el algoritmo: recae en quienes tomaron la decisión de implementarlo, en quienes lo configuraron y en quienes no lo verificaron antes de activarlo. La automatización de la atención al ciudadano puede ser eficiente, inclusiva y accesible, pero solo si se diseña y supervisa como un servicio orientado a personas reales con necesidades reales. El "subproducto desafortunado" que describió el comunicado oficial no fue obra de la inteligencia artificial: fue obra de la negligencia en el proceso de control de calidad.

En un momento en que gobiernos de todo el mundo aceleran el despliegue de IA en servicios públicos —atención sanitaria, trámites fiscales, gestión educativa, seguridad vial—, el caso de Washington ofrece una lección difícilmente disputable: la tecnología no supervisa sola su propio funcionamiento. Y cuando falla en silencio, son siempre los ciudadanos más vulnerables —los que más necesitan esa accesibilidad— los que cargan con el costo del error.