Zanette Esi
Zanette Esi
Zanette Esi
Dos décadas después del trabajo de G. K. Zipf, el sociólogo H. Simon señaló que la ley de
Zipf puede explicarse cuantitativamente suponiendo que, a medida que se genera un texto,
la frecuencia de uso de una dada palabra crece proporcionalmente al número de sus
apariciones anteriores. Esta simplísima regla dinámica, que describe el refuerzo en el uso
de las palabras durante la generación de un texto –un mecanismo que los matemáticos
estadísticos llaman proceso multiplicativo– fue suficiente para que Simon dedujera la
relación inversa entre el número de apariciones de una palabra y su rango. Más
recientemente, se ha demostrado que la misma regla explica la frecuencia relativa en el uso
de notas individuales en piezas musicales, lo que sugiere una fuerte afinidad entre los
procesos de generación de un texto literario y de una composición musical.
sonata (ABA' )
episodio en modo menor (sol, re)
episodios en sol, re, Fa
desarrollo episodio en Fa
y reexposición (BA' )
reexposición 2do tema, en Do
episodio final en Do
dim7 y coda
Resultado de los tres primeros pasos de segmentación del primer movimiento de la sonata K. 545 de Mozart,
partiendo de la estructura ternaria tradicional (forma sonata, ABA’) de la pieza.
El algoritmo de segmentación no se restringe necesariamente al análisis de la distribución
relativa de las doce notas de la escala musical. El mensaje musical puede interpretarse
como una secuencia formada por otras colecciones de símbolos, por ejemplo,
combinaciones de altura y duración, notas provistas de atributos dinámicos, intervalos y
acordes. Usando estos elementos más complejos, la segmentación podría poner en
evidencia patrones relacionados con cualidades cognitivas más ricas, tales como aquellas
que el oyente asocia con carácter y sentimientos. Sin embargo, a medida que la colección
de símbolos crece en tamaño y sofisticación, sus frecuencias individuales en el mensaje
musical decrecen. Eventualmente, el algoritmo encontrará una limitación que afecta a todos
los métodos estadísticos –el muestreo finito. Cuando el número de apariciones de cada
símbolo deja de ser estadísticamente significativo, no es posible distinguir un mensaje con
información de una secuencia aleatoria.
Bibliografía