Formación de alfabetos y los límites epistémicos del análisis criptográfico
ORCID: 0009-0002-7724-5762
02 enero 2026
Idioma original del artículo: Inglés
Resumen
La criptografía moderna suele analizarse dentro de marcos computacionales o de teoría de la información que asumen implícitamente la existencia de un alfabeto estable y una identidad simbólica persistente a nivel del texto cifrado. El análisis estadístico, la estimación de la entropía e incluso el secreto perfecto en el sentido de Shannon presuponen que las unidades simbólicas repetidas pueden identificarse, compararse y contarse. Sin embargo, esta suposición rara vez se enuncia explícitamente y por lo general se trata como un dato técnico en lugar de examinarse como una condición epistémica.
En este artículo, examinamos un caso límite conceptual en el que esta suposición falla y la formación de alfabetos en sí no ocurre para un observador externo. Consideramos modelos de comunicación basados en una codificación no canónica, en los que cada símbolo del alfabeto fuente se mapea no a una única palabra de código, sino a un gran conjunto de representaciones igualmente admisibles, sin que se preserve ninguna correspondencia fija entre ocurrencias. En tales modelos, la identidad de los símbolos del texto cifrado no se estabiliza y no emerge ningún alfabeto de texto cifrado consistente para un observador externo.
Sostenemos que, en ausencia de formación de alfabetos, las herramientas estándar del análisis criptográfico—incluidas las estadísticas de frecuencia, el reconocimiento de patrones, las medidas de entropía y los ataques de texto claro conocido—no solo se vuelven ineficaces, sino que dejan de estar bien definidas. Desde una perspectiva epistémica, el problema no es una complejidad o un ruido insuficientes, sino la inexistencia de las unidades simbólicas requeridas para la interpretación. La señal observada permanece indistinguible de una variación física no significante.
Este análisis aclara una distinción conceptual entre el secreto dentro de un marco simbólico establecido y un caso límite más fuerte que puede describirse como no reconocibilidad, en el que no surge ningún marco simbólico para el observador. Mostramos cómo esta distinción arroja luz sobre fallos criptográficos históricos, limitaciones de los enfoques de decodificación estadísticos y basados en IA, y el alcance de la seguridad de teoría de la información.
Los resultados no proponen un nuevo algoritmo criptográfico, sino que delimitan un límite fundamental sobre lo que el análisis criptográfico puede presuponer.
Palabras clave: formación de alfabetos; límites epistémicos; análisis criptográfico; identidad simbólica; codificación no canónica; supuestos de teoría de la información; límites del reconocimiento de patrones