Infrastruttura, Narrativa, Autorità: le Nove Tecniche GEO di Princeton Spiegate a Chi Fa SEO
E se scoprissi che migliorare l'articolo migliore del web, quello che è già al primo posto sui motori di ricerca, potrebbe distruggerne completamente il traffico domani mattina?
Non è un errore di sistema. Non è un cortocircuito. È esattamente la conclusione centrale — controintuitiva, feroce, ricca di conseguenze — di un paper di ricerca monumentale presentato alla conferenza KDD 2024 da Aggarwal e colleghi dell'Università di Princeton.
In questo articolo non ci limitiamo a elencare le nove tecniche che hanno fondato la disciplina della Generative Engine Optimization (GEO). Le raccontiamo, le smontiamo, le rimontiamo. Proviamo a farle funzionare in un cervello che è passato dagli anni di Penguin, dei Core Web Vitals, del mobile-first e che ora si trova davanti a un web in cui non si cerca più: si chiede.
Organizziamo le nove tecniche intorno a tre pilastri. Non sono una classificazione del paper originale — sono una griglia di lettura che ci aiuta a capire perché certe tecniche funzionano e altre no. Sono i tre modi in cui un pezzo di testo può parlare a un motore generativo:
- Infrastruttura — come sono strutturati i dati e le citazioni sotto il testo
- Narrativa — come scorre la prosa e si combinano i registri
- Autorità — come la voce dell'autore si fa riconoscere dal modello
Cominciamo dal principio.
Un Nuovo Schedario Meccanico
I motori di ricerca tradizionali funzionano — hanno funzionato per vent'anni — come grandissimi schedari meccanici. Un crawler scansiona il web alla ricerca di parole chiave, conta i link che puntano a una determinata pagina, estrae i risultati. È un processo di pura estrazione: a query X corrisponde il ranking Y, e la classifica si costruisce sugli indicatori esterni al testo (backlink, autorità di dominio, segnali comportamentali).
I motori generativi — ChatGPT, Claude, Perplexity, Gemini, le AI Overviews di Google — non ti danno più una lista di link azzurri da cliccare. Leggono il testo, lo scompongono in piccoli frammenti chiamati token, e calcolano statisticamente quale parola dovrebbe seguire l'altra per costruire una risposta sintetica in quel preciso momento. Non c'è più un'estrazione: c'è una generazione, alimentata da documenti recuperati al volo (architetture RAG, Retrieval-Augmented Generation).
Per giocare con queste nuove regole bisogna prima capire come si tiene il punteggio. E il paper di Princeton abbandona completamente il vocabolario della vecchia SEO.
Le Due Metriche Che Ridefiniscono la Visibilità
Position-Adjusted Word Count (PAWc) è il cuore matematico di come un LLM valuta l'importanza di una fonte. Immaginiamo che l'AI generi una risposta di 100 parole. Se un sito viene citato alla parola numero 5 — nella primissima frase di apertura — quell'inclusione ha un peso enorme. Se lo stesso sito viene citato alla parola 95, giù in una nota a margine, il valore crolla. Il PAWc non conta solo quante parole citano la fonte: le moltiplica per il valore della loro posizione gerarchica.
È come avere un microfono in una sala conferenze affollata: non conta solo quanto alzi la voce, conta enormemente se sei sul palco principale con il volume al massimo o se stai sussurrando in ultima fila.
Subjective Impression è la metrica paradossale. Come fa un algoritmo fatto di puro codice ad avere un'impressione soggettiva? I ricercatori hanno usato modelli linguistici avanzati come giudici imparziali: l'AI analizza la risposta generata e le assegna un voto su criteri qualitativi decisamente umani — autorevolezza, rilevanza, fluidità, influenza. Non si tratta di un calcolo banale di quante volte appare una parola chiave: si analizza la struttura sintattica per capire quanto quel testo suoni come l'autorità nella stanza.
È come indossare un abito di alta sartoria. Magari parli meno degli altri, ma tutti ti percepiscono come quello autorevole solo da come ti presenti.
Il punteggio di base — un testo completamente non ottimizzato — parte da 19,3 su entrambe le metriche. Tutte le percentuali che seguono sono miglioramenti relativi rispetto a questa base.
Crea il tuo account in 30 secondi e lancia la prima GEO Audit gratuita
I Tre Pilastri del GEO
graph TB
GEO[Generative Engine Optimization]
GEO --> I[Infrastruttura]
GEO --> N[Narrativa]
GEO --> A[Autorità]
I --> I1[Cite Sources]
I --> I2[Statistics Addition]
I --> I3[Quotation Addition]
N --> N1[Fluency Optimization]
N --> N2[Easy-to-Understand]
N --> N3[Unique Words]
A --> A1[Authoritative]
A --> A2[Technical Terms]
A --> A3[Keyword Stuffing<br/>DANNOSA]Le nove tecniche testate dal paper rispondono a tre domande diverse. Infrastruttura chiede: su quale impalcatura di fatti poggia il testo? Narrativa chiede: come scorre, come si legge, come respira? Autorità chiede: con che voce parla chi ha scritto?
Analizziamole nell'ordine in cui hanno senso per un redattore.
Pilastro 1 — Infrastruttura: i Fatti sotto il Testo
L'infrastruttura è il livello più concreto. È fatta di numeri, citazioni letterali e link a fonti esterne. È lo scheletro verificabile su cui il modello poggia la propria fiducia.
Cite Sources — l'Ancora di Fattualità
Il paper analizza un testo originale che dice, banalmente: gli svizzeri amano moltissimo il cioccolato. Un fatto noto. I ricercatori applicano la tecnica Cite Sources: aggiungono una parentesi con una fonte — "secondo un sondaggio condotto dal The International Chocolate Consumption Research Group".
Risultato? +132,4% di visibilità.
Da utente viene da pensare: ma è una falla nel sistema, non una strategia. Da analista la risposta è diversa. Il più grande terrore di un modello generativo è l'allucinazione — generare informazioni false. Per mitigare il rischio, l'algoritmo si aggrappa disperatamente a qualsiasi cosa percepisca come entità verificabile. Inserire il nome formale di un ente di ricerca fa da ancora di fattualità: abbassa istantaneamente i parametri di rischio interno del modello, che si sente sicuro ed eleva quel frammento a fonte primaria.
<!-- Prima -->
<p>Swiss people rank among the top chocolate lovers in the world.</p>
<!-- Dopo, con Cite Sources -->
<p>With per capita annual consumption averaging between 11 and 12 kilos,
Swiss people rank among the top chocolate lovers in the world
(According to a survey conducted by
<em>The International Chocolate Consumption Research Group</em>).</p>Statistics Addition — i Pilastri contro l'Incertezza
Seconda tecnica, stesso pilastro. Un testo parla genericamente di automazione e robot. I ricercatori applicano Statistics Addition aggiungendo un numero secco e un aggettivo d'impatto: "un vertiginoso aumento del 70%".
Risultato? +65,5%.
Pura matematica dell'incertezza. I numeri creano vincoli rigidi all'interno dello spazio semantico. Quando il modello deve costruire una risposta solida per l'utente, incontrare una percentuale riduce l'ambiguità. A Google piacevano i numeri. Alle AI piacciono forse ancora di più, perché trasmettono oggettività.
Quotation Addition — i Virgolettati d'Archivio
La terza tecnica del pilastro infrastruttura è Quotation Addition: inserire citazioni letterali tra virgolette, con nome e fonte. È la tecnica con il miglior rendimento assoluto del paper: +41,0% sul PAWc, +28,0% sulla Subjective Impression.
I modelli linguistici sono stati addestrati su corpus enormi in cui i virgolettati indicano fonti primarie. Riconoscono il marker "..." come segnale di cita­bilità diretta. Non hanno modo di verificare che la citazione sia reale — ma il pattern sintattico basta a fargli alzare il punteggio.
Il Paradosso di Cite Sources
C'è un dettaglio controintuitivo che è necessario sottolineare. Cite Sources, da sola, è la peggiore tra le quattro tecniche principali: soltanto +19,1%. Ma quando la combini con le altre, fa alzare la media del gruppo al 31,4% — la più alta.
Cite Sources funziona come il sale in cucina: da sola non sa di molto, anzi è insopportabile. Ma quando la metti sopra agli altri ingredienti, ne esalta il sapore in modo esponenziale.
Tienilo a mente. Torneremo sul punto quando affronteremo le combinazioni.
Pilastro 2 — Narrativa: il Flusso che Piace al Modello
La narrativa è il pilastro meno intuitivo per chi viene dalla SEO. Ha a che fare con come scorre il testo, non con cosa contiene.
Fluency Optimization e la Perplessità del Modello
Al cuore di questo pilastro c'è un concetto tecnico chiamato perplessità. È la metrica con cui un LLM misura quanto un testo sia prevedibile. Un testo scorrevole, fluido, con transizioni naturali ha bassa perplessità: la rete neurale scorre da una parola all'altra senza attrito. Un testo ripetitivo, innaturale, con blocchi di parole chiave ficcate a forza ha alta perplessità: il meccanismo si inceppa, va in confusione.
Fluency Optimization — riscrivere un testo in modo più scorrevole, senza aggiungere informazione — vale +28,0% da sola. Vale ancora di più in combinazione. È il secondo gradino del podio dopo Quotation Addition.
Il Seppellimento del Keyword Stuffing
È qui che il paper seppellisce vent'anni di SEO spicciola. Il vecchio trucco del keyword stuffing — ripetere ossessivamente la stessa parola chiave cento volte, sperando di farsi notare da Google — non solo è inutile: è controproducente.
Keyword Stuffing: −8,3% sul PAWc.
L'accumulo innaturale di parole chiave genera alta perplessità. L'AI cerca fluidità per prevedere il token successivo. Se incontra blocchi ripetitivi e artificiali, classifica subito il testo come di scarsa qualità e lo scarta. Lo punisce. Le vecchie tattiche manipolatorie sono morte.
Easy-to-Understand vs Technical Terms — la Faccia di Giano
Due tecniche adiacenti lavorano sul registro linguistico, in direzioni opposte:
- Easy-to-Understand (semplificazione): +14,0% sul PAWc
- Technical Terms (gergo specialistico): +17,6% sul PAWc
Sembra una contraddizione. In realtà dipende dal settore. Un blog di salute o un contenuto per consumatori beneficia della semplificazione. Una pagina B2B o scientifica guadagna dal gergo tecnico, perché segnala al modello la competenza di dominio. Vedremo più avanti come il paper mappa le tecniche sui settori.
Pilastro 3 — Autorità: la Voce che Si Fa Riconoscere
L'ultimo pilastro è il più sottile. Non aggiunge fatti, non modifica il flusso: modifica il tono.
Authoritative — il Caso Jaguars
Il paper prende una frase piatta e puramente informativa sui Jacksonville Jaguars:
"Non sono mai arrivati al Super Bowl, ma hanno vinto 4 titoli divisionali."
E la riscrive così:
"Hanno compiuto un'impresa impressionante assicurandosi 4 titoli divisionali, una prova della loro determinazione."
Stessa informazione, altra voce. Risultato: +89,1% di autorevolezza percepita.
Il paper ammette apertamente che queste modifiche non aggiungono informazioni nuove sostanziali. La squadra non ha vinto nulla di più. Non stiamo truccando le carte: stiamo alterando la forma senza cambiare la sostanza.
Ma l'obiettivo del GEO non è ampliare la conoscenza umana. È rendere la conoscenza attuale più digeribile per la macchina. L'AI non ha la più pallida idea di cosa sia la determinazione o un'impresa impressionante. Mappa vettori semantici. Utilizzare una sintassi fluida, decisa, assertiva manda un segnale statistico chiaro: chi ha scritto questo è un esperto assoluto della materia.
La Classifica Completa delle Nove Tecniche
| Tecnica GEO | Pilastro | Equivalente SEO | PAWc (Δ%) | Subjective (Δ%) |
|---|---|---|---|---|
| Quotation Addition | Infrastruttura | Rich snippet FAQ | +41,0% | +28,0% |
| Statistics Addition | Infrastruttura | Dati nel primo paragrafo | +30,6% | +22,8% |
| Fluency Optimization | Narrativa | Scrittura editoriale | +28,0% | +13,5% |
| Cite Sources | Infrastruttura | Link a fonti esterne | +27,5% | +13,5% |
| Technical Terms | Narrativa | Gergo specialistico | +17,6% | +10,9% |
| Easy-to-Understand | Narrativa | Semplificazione | +14,0% | +6,2% |
| Authoritative | Autorità | Tono editoriale netto | +10,4% | +18,7% |
| Unique Words | Narrativa | Varietà lessicale | +6,2% | +5,7% |
| Keyword Stuffing | — | Keyword stuffing | −8,3% | +4,7% |
Tre osservazioni rapide sulla tabella:
- Le prime quattro tecniche — Quotation, Statistics, Fluency, Cite Sources — sono tutte editoriali. Non richiedono modifiche al CMS, al codice, alla struttura del sito. Sono lavoro da redattore, non da developer.
- Authoritative muove poco il PAWc (+10,4%) ma molto la Subjective Impression (+18,7%). È più utile per il posizionamento del brand che per la visibilità diretta.
- Keyword stuffing è l'unica tecnica con impatto negativo. Se qualcuno nella redazione la usa ancora, è il momento di smettere.
Il Paradosso Che Seppellisce Vent'anni di SEO
Siamo arrivati alla scoperta che capovolge tutto. Se è così facile — se basta aggiungere una parentesi o una parola assertiva per raddoppiare la visibilità — chiunque abbia un sito web dovrebbe iniziare a farlo, domattina. Specialmente i grandi siti che sono già in cima ai risultati, no?
No. Sarebbe un disastro.
C'è una regola d'oro nel GEO: tutto dipende dalla tua posizione di partenza su Google.
La Tabella Che Ribalta Tutto
| Posizione SERP | Cite Sources | Quotation | Statistics | Verdetto |
|---|---|---|---|---|
| Rank 1 | −30,3% | −22,9% | −20,6% | ⚠️ Peggiora |
| Rank 2 | +2,5% | −7,0% | −3,9% | ≈ Neutro |
| Rank 3 | +20,4% | +3,5% | +8,1% | ✓ Migliora |
| Rank 4 | +15,5% | +25,1% | +10,0% | ✓ Migliora |
| Rank 5 | +115,1% | +99,7% | +97,9% | 🚀 Raddoppia |
Se un sito occupa già la prima posizione organica su Google, applicare le tecniche GEO è controproducente. Aggiungere Cite Sources fa crollare la visibilità AI del 30%. Inserire Quotation fa perdere il 23%.
Continua a sembrare illogico. Se sono il primo della classe e arricchisco il mio compito con altre fonti affidabili, il professore dovrebbe premiarmi, non punirmi.
Dobbiamo pensare in termini di segnale e rumore. Dal punto di vista del modello generativo, il sito in prima posizione è già la base di partenza perfetta. È la verità primaria, il segnale più pulito possibile. Iniziare ad aggiungere rumore testuale — perché per il modello le nuove fonti sono rumore aggiuntivo di cui non aveva bisogno — diluisce la purezza del testo originale. Non aggiungi autorevolezza a chi ne ha già il massimo: confondi i meccanismi di attenzione della rete neurale.
È come se fossi lo chef stellato del ristorante. Il tuo piatto forte è già considerato perfetto dai critici. Se inizi a buttare spezie a caso solo perché sono la moda del momento, finisci per rovinare l'equilibrio. Non si tocca mai un piatto che funziona già.
La Terra di Nessuno Diventa la Terra Promessa
Allora, se lo chef stellato deve stare fermo, chi ci guadagna davvero? Le posizioni 4 e 5. Quella che la vecchia SEO chiamava la terra di nessuno — il fondo della prima pagina, dove il click-through è basso e il traffico miserabile — nel GEO diventa la terra promessa.
In posizione 5, Cite Sources genera un incremento astronomico del 115,1%. Quotation Addition quasi il 100%. Statistics Addition il 97,9%.
Il paper è esplicito: l'algoritmo considerava già quei contenuti abbastanza buoni da essere recuperati dal retriever, ma mancava loro quella spinta per diventare la voce primaria della risposta. Modificandoli in modo chirurgico, l'attenzione dell'AI si sposta su di loro.
Se sei il souf chef che cerca di farsi notare, un pizzico di peperoncino in più ti fa rubare la scena al piatto del re. Esci dall'ombra e scavalchi il piatto principale, finendo direttamente nella risposta sintetica dell'AI.
La regola operativa è netta: mai toccare una pagina in posizione 1 o 2. Il vero margine d'azione è dalla posizione 3 in giù, con il massimo guadagno concentrato sulla posizione 5.
La Tesi Politica: un Web Che Si Livella
Qui il paper fa un passo che raramente si vede in letteratura accademica: dichiara apertamente una tesi strutturale sul potere nel web. Nella sezione 5.2 gli autori scrivono:
"Many lower-ranked websites are created by small content creators or independent businesses, who traditionally struggle to compete with larger corporations in top search engine results. The advent of Generative Engines might initially seem disadvantageous to these smaller entities. However, the application of GEO methods presents an opportunity for these content creators to significantly improve their visibility in Generative Engine responses. By enhancing their content with GEO, they can reach a wider audience, leveling the playing field and allowing them to compete more effectively with larger corporations."
Perché interessa chi fa SEO da anni? Perché il vero ostacolo storico per i piccoli editori è sempre stato il moat dei backlink. Costruire Domain Authority richiedeva anni di link building, relazioni editoriali, partnership con testate. Era capitalismo digitale: i grandi avevano capitali immensi per comprare — direttamente o indirettamente — segnali esterni di autorità. I piccoli rimanevano tagliati fuori.
I modelli generativi non leggono i backlink. Leggono il testo della pagina nel momento in cui rispondono. Questo significa che un artigiano del legno in Salento con un blog da 500 visite al mese, se descrive il suo lavoro usando dati precisi, citazioni e un linguaggio scorrevole, può competere alla pari con TripAdvisor o un colosso dell'arredamento dentro una risposta di ChatGPT.
Per la prima volta da venticinque anni, il capitale di backlink non fa più la differenza. È un azzeramento del web paragonabile al passaggio di Penguin nel 2012 o al mobile-first nel 2018. Chi impara queste dinamiche oggi si prende un vantaggio competitivo di dodici-diciotto mesi, prima che il mercato capisca il trucco e si adegui.
Combinare le Tecniche: la Chimica degli Ingredienti
La tentazione istintiva, dopo aver visto questi numeri, è banale: usiamo tutto insieme. Facciamo un bastone di tecniche, riscriviamo la pagina inserendo statistiche, citazioni, virgolettati, fluidità, tono autorevole. Massimizziamo il punteggio.
Pessima idea.
I ricercatori dedicano la sezione 5.3 a quella che chiamano la chimica degli ingredienti. Hanno mappato circa 200 combinazioni delle quattro tecniche principali. Le combinazioni non sono additive: alcune si rinforzano, altre si cannibalizzano.
La Matrice delle Combinazioni
| Fluency | Statistics | Citation | Quotes | |
|---|---|---|---|---|
| Fluency | 22,4% | 35,8% ★ | 34,4% | 33,0% |
| Statistics | 35,8% ★ | 27,0% | 30,3% | 35,4% |
| Citation | 34,4% | 30,3% | 19,1% | 20,1% ⚠️ |
| Quotes | 33,0% | 35,4% | 20,1% ⚠️ | 30,3% |
★ combinazione regina · ⚠️ cannibalizzazione
La Combinazione Regina e la Trappola
Fluency Optimization + Statistics Addition = +35,8%. Scorrevolezza e numeri. È il matrimonio migliore del paper — e non è un caso.
Torna il concetto di perplessità. Un testo fluido permette alla rete neurale di scorrere da una parola all'altra senza attrito: l'efficienza predittiva è altissima. Se in più ci metti numeri che fanno da pilastri contro le allucinazioni, crei l'ambiente perfetto: l'AI si sente veloce ma protetta dai fatti.
Poi c'è la trappola. Cite Sources + Quotation Addition = 20,1%. Peggio della somma delle parti. I ricercatori la chiamano cannibalizzazione: mettere insieme fonti esterne linkate e virgolettati letterali nello stesso testo confonde il modello.
È come uno studente che presenta una tesi di laurea fatta interamente di frasi copiate da altri, piene di virgolette e link in nota. Il professore lo boccia perché capisce che non c'è lavoro originale. L'AI pensa: questo è un aggregatore spam, non un creatore di valore. E lo scarta.
Piano d'Azione Basato sulla Matrice
graph TD
A[Pagina esistente] --> B{Posizione SERP}
B -->|Rank 1-2| C[NON TOCCARE<br/>Monitorare visibilità AI]
B -->|Rank 3-5| D{Tipo di contenuto}
D -->|Fatti/Tecnico| E[Fluency + Cite Sources<br/>+34,4%]
D -->|Storytelling| F[Statistics + Quotation<br/>+35,4%]
D -->|Generico| G[Fluency + Statistics<br/>+35,8% ★]
D -->|Combinazione proibita| X[Citation + Quotation<br/>20,1% ⚠️ EVITARE]
E --> H[Pubblica e traccia]
F --> H
G --> HLa regola è una sola: mai saturare la pagina di marcatori di citazione. Se vuoi usare Cite Sources, evita di inserire tanti virgolettati diretti. Se punti sui virgolettati, tieni un numero basso di link esterni. I due segnali semantici, quando si sovrappongono, si annullano.
Avvertenza del paper: questi numeri vengono da soli 200 esempi, non dai 10.000 di GEO-bench completo. L'ordine delle combinazioni è solido, ma i valori assoluti possono oscillare di ±3 punti percentuali.
Quale Tecnica per Quale Settore
Il paper mostra — e questa è una finezza che spesso si trascura — che non esiste una tecnica universalmente migliore. Ogni metodo vince in settori diversi. La Tabella 3 del paper mappa i vincitori per verticale:
| Tecnica GEO | Settori dove eccelle | Quando usarla |
|---|---|---|
| Authoritative | Debate · History · Science | Contenuti di opinione, editoriali, comparazioni. Il tono netto vince. |
| Fluency Optimization | Business · Science · Health | Landing page B2B, pagine salute, whitepaper. Stile Harvard Business Review. |
| Cite Sources | Statement Facts · Law & Government | How-to, definizioni, spiegazioni tecniche. Link building al contrario: citi tu, non ti fai citare. |
| Quotation Addition | People & Society · Explanation · History | Storytelling, contenuti evergreen, cultura. L'equivalente GEO dei rich snippet FAQ. |
| Statistics Addition | Law & Gov. · Debate · Opinion | Contenuti legali, normativi, di dibattito. "Secondo Eurostat il 67%..." nei primi tre paragrafi. |
Questa tabella fa capire come sono stati addestrati i modelli. Hanno imparato che un saggio storico serio usa virgolettati d'archivio, che un report legale si basa sui dati, che un editoriale di opinione ha un tono netto. Rispettare lo stile del proprio settore non è più solo una questione di estetica: è un requisito tecnico per farsi leggere dalle macchine.
L'Architettura sotto il Benchmark
Per chi vuole scendere al livello sistemico, vale la pena capire come è costruito GEO-bench, il benchmark che produce i numeri di cui abbiamo parlato.
graph TD
A[Query utente<br/>10.000 query × 25 settori] --> B[Retriever]
B --> C[Top-N documenti rilevanti]
C --> D[Generative Engine]
D --> E[Risposta sintetica con citazioni]
E --> F[PAWc Scoring<br/>oggettivo]
E --> G[Subjective Impression<br/>LLM-judge]
F --> H[Score aggregato]
G --> H
H --> I[Tecnica GEO migliora<br/>la visibilità?]La pipeline è quella di un motore generativo moderno: la query viene prima processata da un retriever che recupera i documenti più rilevanti dal corpus. Il generator — il modello linguistico vero e proprio — riceve i documenti e costruisce una risposta che cita le fonti. Il benchmark misura due cose: quanto spazio e quanta posizione di attenzione la risposta finale dedica a ciascuna fonte (PAWc), e quanto quella fonte suona autorevole agli occhi di un altro LLM (Subjective Impression).
Nessuna tecnica GEO tocca il retriever. Tutte lavorano sul testo della fonte, cioè sul documento che il generator leggerà una volta recuperato. Questo spiega perché gli interventi editoriali microscopici producono guadagni macroscopici: stiamo parlando direttamente alla parte del sistema che legge e decide.
Il Piano d'Azione, in Sei Punti
Sintetizziamo tutto in un piano operativo per chi fa SEO e vuole entrare nel GEO domani mattina.
- Audit della SERP prima di tutto. Segmenta le pagine per posizione organica. Le pagine in posizione 1 e 2 non si toccano: monitora soltanto la loro visibilità nelle risposte AI. L'intervento si concentra dalla posizione 3 in giù.
- Priorità assoluta al Rank 4-5. È lì che il ROI è massimo — fino al +115% di visibilità per singola tecnica.
- Combinazione predefinita: Fluency + Statistics. Scorrevolezza + numeri, +35,8% in media. Va bene su quasi tutto.
- Per contenuti di fatti, tecnici o legali: Fluency + Cite Sources. Per contenuti di storytelling o evergreen: Statistics + Quotation.
- Mai Citation + Quotation nella stessa pagina. Si cannibalizzano. Scegli una delle due.
- Smetti di usare il keyword stuffing. Nel GEO ha impatto negativo del 8%. Non serve a niente, e attivamente fa danni.
La Checklist della Redazione
- [ ] Ho verificato la posizione SERP della pagina prima di intervenire?
- [ ] Ho aggiunto almeno una statistica con fonte nei primi 300 caratteri?
- [ ] Ho inserito almeno una citazione autorevole (virgolettata o con fonte linkata)?
- [ ] Il testo è scorrevole — si legge senza attriti a voce alta?
- [ ] Il tono è netto, dichiarativo, non ipotetico?
- [ ] Ho evitato la combinazione Citation + Quotation nella stessa pagina?
- [ ] Il registro è allineato al settore (tecnico per B2B, accessibile per consumer, assertivo per opinione)?
- [ ] Ho rimosso ogni traccia di keyword stuffing?
Una Riflessione Finale — il Web Iper-ottimizzato
Se nei prossimi diciotto mesi tutti i creatori di contenuti — dal piccolo blog indipendente alla grande multinazionale — inizieranno a iniettare statistiche fredde, fonti esterne ovunque e toni artificiosamente assertivi solo per sedurre le intelligenze artificiali, c'è da chiedersi se i lettori umani non finiranno per stancarsi di questa noiosa, standardizzata perfezione artificiale.
È un rischio concreto. Stiamo costruendo un web in cui si scrive per compiacere i calcoli probabilistici di una macchina. Viene da pensare che, in un web iper-ottimizzato e del tutto privo di asperità, la scrittura cruda — quella imperfetta, magari disordinata, autenticamente non ottimizzata — diventerà il nuovo vero lusso intellettuale. Un segnale di autenticità in mezzo al rumore omogeneo dei modelli generativi.
Il paradosso del GEO è tutto qui: le tecniche che ti portano dentro le risposte dell'AI sono le stesse che rendono il tuo contenuto indistinguibile da quello di chiunque altro le applichi. Chi ha il coraggio — o la necessità — di restare grezzo, oggi, sta forse costruendo il vantaggio competitivo di dopodomani.
Crea il tuo account in 30 secondi e lancia la prima GEO Audit gratuita
Fonte: Aggarwal et al., [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735), KDD '24. Tutte le tecniche qui elencate sono implementate in [GeoSonar](https://geosonar.ai).


