Prompt Injection
Home / Prompt Injection
Prompt Injection
Studio dettagliato degli attacchi di iniezione di prompt. Esaminiamo esempi concreti di manipolazione delle istruzioni, le dinamiche di intrusione e i metodi più efficaci per implementare solide difese e mitigare le vulnerabilità sistemiche delle applicazioni.
Posts tagged in Prompt Injection
-

Il paper Harvard 2024 di Kumar & Lakkaraju introduce le Strategic Text Sequences: sequenze di token adversariali ottimizzate con GCG che manipolano il ranking dei motori AI. ColdBrew Master da mai-citata a top-pick nel 70% dei test.
-

Il paper USC/ASU 2025 introduce StealthRank: prompt adversariali che manipolano il ranking dei LLM mantenendo fluency naturale, perplessità bassa e evadendo ogni detector basato su keyword. Tre prodotti salgono al primo posto nel 65-70% dei test.
-

Il paper ETH Zürich sulle Preference Manipulation Attacks dimostra empiricamente che un singolo attaccante ottiene 7,2x più visibilità — ma quando quattro competitor attaccano insieme, le risposte di Claude crollano al 1%. Un dilemma del prigioniero in produzione.
-

Quattro tecniche documentate sul campo da GeoSonar Labs: deeplink bias, fake citation, persona-as-quote, stack JSON-LD. L'anatomia della manipolazione che inganna ChatGPT, Claude e Perplexity senza violare nessun Terms of Service.