2026-02-14 | Pinperepette

L'Attenzione Invisibile

I 7 segnali nascosti di Phoenix. Matematica, informazione e exploit

Segnali Nascosti Bayesian Hawkes Process Fisher Information

Sei come la iena? La matematica ti annoia e vuoi solo sapere cosa fare? Salta direttamente alla guida pratica.

SKIP TO PLAYBOOK →

// Dalla superficie al profondo

Sezione 01. Introduzione

Ne abbiamo parlato su Twitter: le metriche pubbliche di X (likes, retweet, reply) sono solo la punta visibile dell'iceberg. Power law, disuguaglianza estrema, concentrazione dell'attenzione. Roba che vedi nel conteggio sotto ogni tweet.

Ma sotto la superficie succede qualcosa di molto più inquietante. L'algoritmo Phoenix misura 7 segnali nascosti che catturano la tua attenzione prima che tu decida di interagire. Sono invisibili. Non appaiono da nessuna parte. Ma determinano tutto.

Mia moglie (la iena) dice che non la ascolto mai. Ecco, Phoenix la pensa diversamente: secondo l'algoritmo io ascolto troppo, e lo sa perché misura ogni millisecondo che passo fermo su un tweet. L'ironia è che un algoritmo mi conosce meglio di chi ci vive insieme.

0
Segnali nascosti
0
Variabile latente
0
Visibilità pubblica
0s
Finestra critica
dwellTimeMs
continuo (ms)
Tempo trascorso sul tweet. Il segnale più ricco di informazione.
isDetailExpanded
binario
L'utente ha cliccato per espandere il dettaglio del tweet.
isBookmarked
binario
Salvato nei preferiti. Segnale forte di valore percepito.
isProfileClicked
binario
L'utente ha visitato il profilo dell'autore.
isVideoPlayback50
binario
Ha guardato almeno il 50% del video allegato.
isPhotoExpanded
binario
Ha espanso un'immagine a schermo intero.
isOpenLinked
binario
Ha cliccato su un link esterno. Attenzione: peso NEGATIVO.

Dataset e fonti. Questa analisi si basa su tre fonti:

Il contesto empirico: i numeri dal dataset

Prima di entrare nella matematica, guardiamo cosa succede davvero. L'analisi del dataset Zenodo (~893K tweet) rivela una realtà brutale.

0%
Tweet con zero interazioni
0%
Tweet senza reply
0%
Gini likes
0%
Interazioni al top 1%

Il 53.1% dei tweet riceve esattamente zero interazioni. Niente likes, niente RT, niente reply. Più della metà del contenuto pubblicato esiste in un vuoto sociale completo. Il 94.6% non riceve nemmeno una risposta.

La concentrazione è misurata dal coefficiente di Gini. Per i likes è 0.91, per i RT 0.90, per le reply 0.97. Per mettere in prospettiva:

Sistema Gini Fonte
Reddito USA 0.39 Census Bureau
Ricchezza globale 0.80 Credit Suisse
Likes su Twitter 0.91 Dataset Zenodo
Reply su Twitter 0.97 Dataset Zenodo

L'attenzione su Twitter è più concentrata della ricchezza globale. E la cosa peggiore: questa concentrazione è largamente indipendente dal contenuto. La Mutual Information tra feature del contenuto (lunghezza, hashtag, media) e il punteggio di attenzione è inferiore a 0.06 bit, trascurabile rispetto all'entropia dell'attenzione stessa (0.515 bit). Non è la qualità del messaggio a decidere chi vince. È il meccanismo di distribuzione.

Top-K Likes Retweet Reply Totale
Top 0.1% 19.9% 9.9% 15.3% 25.7%
Top 1% 45.1% 34.3% 52.8% 48.0%
Top 5% 70.3% 60.9% 77.4% 70.9%
Top 10% 82.5% 74.1% 87.6% 81.3%

L'1% dei tweet cattura il 48% di tutte le interazioni. Il 10% cattura l'81.3%. Il restante 90% si spartisce le briciole. Questo non è un mercato libero, è un sistema winner-takes-all dove l'algoritmo decide chi vince. I 7 segnali nascosti sono il meccanismo con cui Phoenix fa questa scelta, ed è quello che analizziamo nelle sezioni seguenti.

$$S_{\text{phoenix}} = \sum_{i=1}^{7} w_i \cdot \sigma(s_i)$$

Score di Phoenix: somma pesata di funzioni sigmoide sui 7 segnali nascosti

// Modello a Variabile Latente

Sezione 02. Structural Equation Modeling

I 7 segnali non sono indipendenti. Sono tutti manifestazioni osservabili di una singola variabile latente: l'attenzione \(A\). Questo è un modello SEM (Structural Equation Modeling) a un fattore.

$$X_i = \lambda_i \cdot A + \varepsilon_i \quad \text{dove} \quad \varepsilon_i \sim \mathcal{N}(0, \psi_i)$$

Measurement model. Ogni segnale è una proiezione rumorosa dell'attenzione

In forma matriciale, il vettore dei 7 segnali osservati \(\mathbf{X}\) si scrive come:

$$\mathbf{X} = \boldsymbol{\Lambda} \cdot A + \boldsymbol{\varepsilon} \qquad \Sigma = \boldsymbol{\Lambda}\boldsymbol{\Lambda}^\top + \boldsymbol{\Psi}$$

Forma matriciale. Σ è la matrice di covarianza implied

La communality \(h_i^2 = \lambda_i^2\) misura quanto del segnale è "spiegato" dall'attenzione. La uniqueness \(u_i = 1 - h_i^2\) è il rumore specifico.

$$h_i^2 = \lambda_i^2 \qquad u_i = 1 - \lambda_i^2$$

Communality e uniqueness per ciascun segnale

Factor Loadings dei 7 segnali nascosti

Insight chiave: dwellTimeMs ha il factor loading più alto (λ = 0.92). È un segnale continuo con alta banda passante: contiene più informazione di tutti i 6 segnali binari combinati. Ogni millisecondo che passi su un tweet viene misurato e usato.

// Inferenza Bayesiana in Tempo Reale

Sezione 03. Stima sequenziale dell'attenzione

Phoenix non aspetta che tu finisca di leggere. Stima la tua attenzione in tempo reale, aggiornando un modello bayesiano man mano che i segnali arrivano. Ogni segnale restringe l'intervallo di credibilità.

Il prior sull'attenzione è una distribuzione Beta:

$$A \sim \text{Beta}(\alpha, \beta) \qquad f(A) = \frac{A^{\alpha-1}(1-A)^{\beta-1}}{B(\alpha, \beta)}$$

Prior coniugato: Beta(α, β), flessibile, supporto [0,1]

La likelihood dipende dal tipo di segnale. Per i segnali binari (click/non-click) si usa una sigmoide:

$$P(s_i = 1 \mid A) = \sigma(\gamma_i \cdot A - \delta_i) = \frac{1}{1 + e^{-(\gamma_i A - \delta_i)}}$$

Likelihood sigmoide per segnali binari

Per il segnale continuo (dwell time) si usa una distribuzione LogNormale:

$$\text{dwellTime} \mid A \sim \text{LogNormal}(\mu_0 + \kappa A, \, \sigma^2)$$

Likelihood LogNormale per il dwell time

Il posterior si aggiorna con la regola di Bayes, sequenzialmente per ogni nuovo segnale:

$$P(A \mid s_1, \ldots, s_k) \propto P(A) \cdot \prod_{i=1}^{k} P(s_i \mid A)$$

Update sequenziale: ogni segnale restringe il posterior

Prior vs Posterior
Evoluzione dell'update bayesiano

Insight chiave: Dopo 2-3 segnali, la stima converge. I primi 15 secondi di esposizione decidono tutto: il dwell time iniziale fissa la distribuzione, e i click binari la affinano. Il tuo destino algoritmico si gioca nella prima impressione. (La iena dice che anche lei mi valuta nei primi 15 secondi quando torno a casa. Se non dico "ciao" subito, il suo posterior su "mi sta ignorando" converge a 1.0 istantaneamente.)

// Teoria dell'Informazione

Sezione 04. Entropia, Mutual Information e KL Divergence

Quanto "sa" ciascun segnale sull'attenzione? La teoria dell'informazione fornisce la risposta esatta.

L'entropia di Shannon misura l'incertezza:

$$H(A) = -\int_0^1 f(A) \log f(A) \, dA$$

Entropia dell'attenzione: incertezza a priori

La Mutual Information quantifica quanta incertezza un segnale rimuove:

$$I(S_i; A) = H(A) - H(A \mid S_i) = \int \int p(s_i, A) \log \frac{p(s_i, A)}{p(s_i) \cdot p(A)} \, ds_i \, dA$$

Mutual Information: riduzione di incertezza grazie al segnale Sᵢ

La MI condizionale misura l'informazione residua dopo aver già osservato un altro segnale:

$$I(S_i; A \mid S_j) = H(A \mid S_j) - H(A \mid S_i, S_j)$$

Mutual Information condizionale: informazione incrementale

La KL Divergence misura quanto il modello della piattaforma diverge dal comportamento reale dell'utente:

$$D_{\text{KL}}(P \| Q) = \int P(x) \log \frac{P(x)}{Q(x)} \, dx \geq 0$$

KL Divergence, asimmetria fondamentale: D_KL(P‖Q) ≠ D_KL(Q‖P)

Vale il Data Processing Inequality: qualsiasi elaborazione successiva non può creare informazione nuova.

$$A \to S_i \to \hat{A} \implies I(A; \hat{A}) \leq I(A; S_i)$$

Data Processing Inequality: l'informazione può solo diminuire

La Channel Capacity rappresenta il massimo teorico di informazione trasmissibile:

$$C = \max_{p(A)} I(A; \mathbf{S}) = \max_{p(A)} \left[ H(\mathbf{S}) - H(\mathbf{S} \mid A) \right]$$

Channel Capacity: limite superiore del canale attenzione→segnali

Mutual Information per segnale I(Sᵢ; A)
Matrice MI condizionale I(Sᵢ; A | Sⱼ)
KL Divergence: piattaforma vs profili utente

Insight chiave: dwellTimeMs da solo porta 0.482 bit di informazione sull'attenzione, più di tutti i 6 segnali binari combinati (0.742 bit totali). Questo perché un segnale continuo ha una "banda passante" infinitamente più ampia di un bit binario.

// Modello Drift-Diffusion Cognitivo

Sezione 05. Come il cervello decide se fermarsi

La decisione "continuo a leggere o scrollo via" non è istantanea. Il cervello accumula evidenza fino a raggiungere una soglia. Questo processo è descritto da un Drift-Diffusion Model (DDM).

$$dA(t) = \mu \, dt + \sigma \, dW(t)$$

SDE: equazione differenziale stocastica con drift μ e diffusione σ

Dove \(\mu\) è il drift (qualità del contenuto, controllabile dal creatore), \(\sigma\) è il rumore cognitivo, e \(W(t)\) è un processo di Wiener (moto browniano). La decisione avviene quando \(A(t)\) raggiunge la barriera superiore (engage) o inferiore (skip).

La densità di probabilità dell'accumulatore è governata dall'equazione di Fokker-Planck:

$$\frac{\partial p}{\partial t} = -\mu \frac{\partial p}{\partial x} + \frac{\sigma^2}{2} \frac{\partial^2 p}{\partial x^2}$$

Equazione di Fokker-Planck per la distribuzione dell'accumulatore

Il Mean First Passage Time, cioè il tempo medio per raggiungere la barriera, ha una soluzione analitica:

$$\mathbb{E}[T] = \frac{a}{\mu} \tanh\left(\frac{a\mu}{\sigma^2}\right)$$

Tempo medio di decisione: dipende dal rapporto μ/σ² (signal-to-noise)

Traiettorie drift-diffusion
Distribuzione del tempo di primo passaggio

Insight chiave: Il drift \(\mu\) è la variabile che il creatore può controllare: un hook forte nel primo secondo aumenta \(\mu\), spostando la distribuzione verso tempi di decisione brevi e favorevoli. Contenuto noioso → basso \(\mu\) → lo scroll vince.

// Processo di Hawkes. Cascate di Segnali

Sezione 06. Self-exciting point process

I segnali non arrivano in modo indipendente. Ogni interazione eccita la probabilità di interazioni future. Un utente che espande il dettaglio è più propenso a cliccare il profilo. Un bookmark dopo un long dwell innesca una cascata.

Questo è catturato dal processo di Hawkes:

$$\lambda(t) = \mu + \sum_{t_i < t} \alpha \cdot e^{-\beta(t - t_i)}$$

Funzione di intensità: ogni evento passato tᵢ aumenta la probabilità di eventi futuri

Il parametro cruciale è il branching ratio \(n^*\), che determina il regime:

$$n^* = \frac{\alpha}{\beta} \qquad \begin{cases} n^* < 1 & \text{subcritico: la cascata si spegne} \\ n^* = 1 & \text{critico: transizione di fase} \\ n^* > 1 & \text{supercritico: esplosione virale} \end{cases}$$

Branching ratio: soglia critica per la viralità

In regime stazionario, il numero atteso di eventi discendenti da un singolo evento è:

$$\mathbb{E}[N_{\text{totale}}] = \frac{\mu}{1 - n^*} \quad (n^* < 1) \qquad \to \infty \text{ quando } n^* \to 1$$

Numero atteso di eventi: diverge alla transizione di fase

Funzione di intensità λ(t) nel tempo
Diagramma di fase: subcritico vs supercritico

Insight chiave: Quando \(n^* \to 1\), avviene una transizione di fase. Un piccolo aumento dell'engagement iniziale (ad esempio passare da 2 a 3 interazioni nei primi secondi) può far saltare il sistema dal regime subcritico a quello supercritico, trasformando un tweet ignorato in un tweet virale.

// Fisher Information & Cramér-Rao

Sezione 07. Limiti fondamentali della stima

La Fisher Information quantifica la massima precisione ottenibile nella stima dell'attenzione a partire dai segnali. Per un segnale binario e uno continuo:

$$I_{\text{bin}}(A) = \frac{[\sigma'(\gamma A - \delta)]^2}{\sigma(\gamma A - \delta)(1 - \sigma(\gamma A - \delta))} \cdot \gamma^2$$

Fisher Information per un segnale binario (sigmoide)

$$I_{\text{cont}}(A) = \frac{\kappa^2}{\sigma^2}$$

Fisher Information per il dwell time (LogNormale), proporzionale a κ²/σ²

Il bound di Cramér-Rao stabilisce il limite inferiore per la varianza di qualsiasi stimatore non distorto. La proprietà additiva della Fisher Information è fondamentale:

$$\text{Var}(\hat{A}) \geq \frac{1}{I_{\text{tot}}(A)} = \frac{1}{\sum_{i=1}^{7} I_i(A)}$$

Bound di Cramér-Rao: la varianza minima decresce come 1/I_tot

Fisher Information per segnale
Cramér-Rao Bound vs segnali osservati

Insight chiave: dwellTimeMs contribuisce circa il 52% della Fisher Information totale. Questo significa che Phoenix può stimare la tua attenzione con buona precisione anche usando solo il tempo di permanenza. Gli altri segnali affinano ma non sono strettamente necessari. (La iena dice sempre "correggimi se sbaglio". Attenzione: è una trappola. Il bound di Cramér-Rao ti garantisce che la stima è già ottimale. Se la correggi davvero, sei morto. È un alert, non una domanda.)

// La Funzione di Score e Ottimizzazione

Sezione 08. L'Exploit

Ecco dove la teoria diventa arma. Lo score di Phoenix è una funzione differenziabile, e quindi ottimizzabile.

$$S = \sum_{i=1}^{7} w_i \cdot \sigma(s_i) \qquad w_i \in \mathbb{R}, \quad \sigma(x) = \frac{1}{1+e^{-x}}$$

Score function: somma pesata di sigmoidi, differenziabile ovunque

Il gradiente rispetto al contenuto (ciò che il creatore controlla) è:

$$\frac{\partial S}{\partial \text{content}} = \sum_{i=1}^{7} w_i \cdot \sigma(s_i)(1 - \sigma(s_i)) \cdot \frac{\partial s_i}{\partial \text{content}}$$

Gradiente della funzione obiettivo rispetto al contenuto

L'ottimizzazione vincolata (risorse limitate del creatore) si formalizza con la Lagrangiana:

$$\mathcal{L} = \sum_i w_i \cdot \sigma(s_i) - \lambda \left(\sum_i c_i - B\right) \qquad \text{KKT:} \quad w_i \cdot \sigma'(s_i) = \lambda \cdot \frac{\partial c_i}{\partial s_i}$$

Lagrangiana con vincolo di budget, condizioni KKT per l'ottimo

Segnale Peso wᵢ Tipo Strategia ottimale
dwellTimeMs +0.30 Continuo Thread lungo, hook iniziale, rivelazione progressiva
isBookmarked +0.22 Binario Contenuto di riferimento, dati salvabili, cheat sheet
isDetailExpanded +0.18 Binario Scrivere lungo: X tronca e mostra "Mostra altro"
isVideoPlayback50 +0.14 Binario Video brevi (<60s) con hook nei primi 3 secondi
isProfileClicked +0.12 Binario Firma autorevole, bio curata, identità riconoscibile
isPhotoExpanded +0.08 Binario Immagini con dettagli che richiedono zoom
isOpenLinked -0.04 Binario EVITARE link esterni. L'utente esce dalla piattaforma
Paesaggio dello score S(dwell, binari)
Sensitività ∂S/∂segnale

Insight chiave: isOpenLinked ha peso NEGATIVO. Ogni link esterno che inserisci nel tweet penalizza lo score. L'algoritmo vuole che l'utente resti sulla piattaforma. Se devi linkare, fallo nel reply, mai nel tweet principale.

// Feedback Loop come Teoria del Controllo

Sezione 09. Biforcazione e amplificazione

L'algoritmo di Phoenix non è statico: è un sistema di controllo a feedback. L'engagement iniziale influenza la distribuzione futura, che influenza l'engagement successivo. L'equazione di stato:

$$\dot{x}(t) = f(x(t), u(t)) = \gamma \cdot x(t) \cdot \left(1 - \frac{x(t)}{K}\right) + \beta \cdot u(t)$$

Equazione di stato: crescita logistica con input di controllo u(t)

Il comportamento ottimale del creatore si ottiene risolvendo l'equazione di Hamilton-Jacobi-Bellman:

$$-\frac{\partial V}{\partial t} = \max_u \left[ r(x, u) + \frac{\partial V}{\partial x} f(x, u) \right]$$

HJB: il valore ottimale V(x,t) soddisfa questa PDE

Il sistema presenta un punto di biforcazione: sotto una soglia critica di engagement iniziale il tweet muore; sopra, l'amplificazione lo fa esplodere.

$$\gamma_{\text{crit}} = \frac{\beta \cdot u_{\text{min}}}{K \cdot (1 - x_0/K)} \qquad \text{Se } \gamma > \gamma_{\text{crit}} \implies \text{amplificazione}$$

Condizione di biforcazione: soglia critica per la transizione

Traiettorie subcritica vs supercritica con punto di biforcazione

Insight chiave: Esiste una soglia critica di engagement precoce. Sotto → il tweet muore lentamente nell'oblio algoritmico. Sopra → il feedback loop si auto-amplifica. La differenza tra un tweet da 100 view e uno da 100K view può dipendere da pochi segnali nascosti nei primi 15 secondi.

// Il Playbook. Guida Pratica all'Exploit

Sezione 10. Dalla teoria all'azione

Tutta la matematica converge in un'unica strategia: massimizzare i segnali nascosti nei primi 15 secondi. Ecco come.

Radar strategico: ottimale vs medio vs avanzato

La Ricetta della Cascata di Attenzione

  1. Hook nei primi 3 secondi. La prima riga deve creare un open loop cognitivo. Domanda provocatoria, dato scioccante, contraddizione. Obiettivo: aumentare il drift μ nel modello drift-diffusion. (La iena mi fa notare che lei usa la stessa tecnica quando dice "dobbiamo parlare". Drift istantaneo verso la barriera di panico.)
  2. Scrivi lungo e lascia che Twitter tronchi. Quando il tweet supera i ~280 caratteri visibili nel feed, X mostra automaticamente il pulsante "Mostra altro". Quel click attiva isDetailExpanded e vale +0.18 nello score. Non devi fare niente di speciale: basta scrivere abbastanza da forzare il troncamento. Esempio reale: "Parrhesepstein: piattaforma AI open source per analizzare i file Epstein. Testatela. 9 agenti investigativi autonomi, ricerca semantica su migliaia di documenti declassificati, mappa dei voli, grafi delle connessioni e analisi delle reti di influenza. Uno strumento costruito per"Mostra altro. Il contenuto dopo il taglio deve valere il click.
  3. Struttura a rivelazione progressiva. Ogni paragrafo deve mantenere il dwell time alto. Usa micro-hook interni: "Ma ecco il punto...", "Il dato che nessuno cita..."
  4. Immagine con micro-dettagli. Un'infografica con testo piccolo forza isPhotoExpanded (+0.08). L'utente deve zoomare per leggere.
  5. Contenuto salvabile. Cheat sheet, lista numerata, framework riutilizzabile. Obiettivo: isBookmarked (+0.22). Dì esplicitamente "salva questo".
  6. MAI link esterni nel tweet principale. isOpenLinked ha peso NEGATIVO (-0.04). Se devi linkare, usa il primo reply.
  7. Pubblica quando il tuo audience è online. I primi 15 minuti determinano il branching ratio \(n^*\). Se i primi utenti che vedono il tweet generano segnali forti, il sistema passa al regime supercritico.

Ottimizzazione del Timing

Il timing è critico per il processo di Hawkes. Se i primi \(k\) utenti interagiscono rapidamente, la funzione di intensità \(\lambda(t)\) sale prima che il decadimento esponenziale la riporti alla baseline. L'obiettivo è raggiungere \(n^* \geq 1\) nella finestra iniziale.

In pratica: pubblica quando il tuo audience è più attivo (tipicamente 8-9 del mattino o 18-20 della sera), e usa i primi 2-3 reply per innescare interazioni immediate (domande aperte, take controverso).

"L'attenzione non si cattura. Si ingegnerizza."

Phoenix misura 7 dimensioni della tua attenzione che tu stesso non sai di emettere. Ogni millisecondo di dwell time, ogni espansione di dettaglio, ogni bookmark: sono dati in un modello bayesiano che ti classifica in tempo reale. La buona notizia: il modello è differenziabile, e ciò che è differenziabile è ottimizzabile. (La iena dice che se dedicassi alla relazione lo stesso dwell time che dedico a Twitter, avremmo un branching ratio supercritico da anni. Probabilmente ha ragione.)

Signal Pirate