Czy ja wiem?
Fonologicznie jedna głoska daje jeden bit entropii. Fonetycznie natomiast jest możliwych ok. 100 różnych sylab*, co daje ok. 6,5 bita na sylabę.
Dla porównania, jedna sylaba w japońskim ma ok. 8 bitów entropii, przy założeniu, że możliwych sylab jest tam 200-300. Można by więc przypuszczać, że słowa w tym języku fonetycznie byłyby nieco (gdzieś z 20%) tylko dłuższe od odpowiednich słów po japońsku.
Dla jeszcze innego porównania, w bazie programu Pomocnik Szaradzisty znajduje się 119 560 haseł, z czego 109 297 słów zaczyna się małą literą (aby wykluczyć nazwy i skrótowce). Ich średnia długość to 10,5 litery po polsku, co — pomnożone przez logarytm binarny z liczby liter w alfabecie polskim — daje 52,5 bitów entropii.
Zakładając podobny poziom redundacji, ten sam zestaw słów przetłumaczony na powyższy język miałby średnio 15,8 litery długości na słowo.
No i zakładając, że robiąc te wszystkie obliczenia, nic mi się nie pokiełbasiło.
*) Wbrew pozorom dokładne policzenie tego nie jest proste z powodu pewnych ograniczeń obejmujących sylaby, np. tego, że [ɛ ʊ] nie występują na początku sylaby, [n ŋ] są nierozróżniane przed spółgłoską, zbitki /Nn Nŋ tn tk kŋ kt sk ht/ są wykluczone oraz nosówki nie pojawiają się na końcu wyrazu.
Z podobnych względów analogiczne wyliczenie jest równie trudne w japońskim, dużo bardziej trudne w angielskim i cholernie trudne w polskim.
* * *
Co innego długość tych morfemów w wersji „fonologicznej”.
Ale przy okazji można się spodziewać masy nieprzewidzianych alternacji, np.
/tktk/ + /ktkttk/ + /ttkkt/ → /tktkktkttkttkkt/
‹sese› + ‹aste› + ‹niku› → ‹ihunsetenku›