Datos abril 2026 · Metodología pública

Benchmark de transcripción en español

¿Por qué AudioMap usa AssemblyAI y no Whisper? Porque cada punto porcentual de WER se nota en el resultado final. Aquí los datos públicos por motor y variante regional.

Motor ASRes-ESes-MXes-ARes-COes-CL
AssemblyAI Universal-2AudioMap7.4%8.2%9.6%8.9%10.7%
Deepgram Nova-28.1%8.9%11.2%
Google Cloud STT-v210.3%
OpenAI Whisper-large-v314.7%16.2%18.3%15.4%19.1%

WER (Word Error Rate): porcentaje de palabras incorrectas sobre el total. Más bajo = mejor. 0% sería perfecto.

AssemblyAI gana en todas las variantes

Universal-2 mantiene WER <11% en las 5 variantes hispanas testadas. Whisper-large-v3 oscila entre 14.7% y 19.1%. Diferencia de 7-10 puntos en zonas con yeísmo o velocidad alta.

Whisper es razonable solo en español neutro

Whisper rinde aceptablemente en es-ES estándar pero pierde calidad en variantes regionales. TurboScribe, Fireflies y muchas alternativas low-cost lo usan.

Pendiente: benchmark propio AudioMap

Q3 2026 publicaremos un benchmark con audios curados por nosotros (10h por variante regional, dominio profesional, evaluación humana).

Probar AudioMap gratis

120 minutos al mes incluidos. Sin tarjeta.