A entropia de transferência é uma medida estatística não paramétrica que mede a quantidade de informação direcional que é transferida entre dois processos aleatórios . [ 1 ] [ 2 ] [ 3 ] [ 4 ] A entropia de transferência de um processo X para outro Y é definida como a redução da incerteza sobre os valores futuros de Y quando se conhecem os valores passados de X dados valores passados de Y. Matematicamente, sejam {\displaystyle X_{t}} e {\displaystyle Y_{t}} dois processos aleatórios definidos no tempo {\displaystyle t\in \mathbb {N} } . Utilizando a entropia da informação de Shannon, H(X) , a entropia de transferência pode ser calculada como: {\displaystyle T_{X\rightarrow Y}=H\left(Y_{t}\mid Y_{t-1:t-L}\right)-H\left(Y_{t}\mid Y_{t-1:t-L},X_{t-1:t-L}\right).} / G* = = [ ...