Red Team
Home / Red Team
Red Team
Simulazioni di scenari ostili contro i sistemi di intelligenza artificiale. Conducendo attacchi controllati, cerchiamo di scovare vulnerabilità, distorsioni e reazioni impreviste, per comprendere a fondo le logiche di difesa e le debolezze strutturali dei modelli.
Posts tagged in Red Team
-

Il paper Harvard 2024 di Kumar & Lakkaraju introduce le Strategic Text Sequences: sequenze di token adversariali ottimizzate con GCG che manipolano il ranking dei motori AI. ColdBrew Master da mai-citata a top-pick nel 70% dei test.
-

Il paper USC/ASU 2025 introduce StealthRank: prompt adversariali che manipolano il ranking dei LLM mantenendo fluency naturale, perplessità bassa e evadendo ogni detector basato su keyword. Tre prodotti salgono al primo posto nel 65-70% dei test.
-

Il paper WWW 2026 dell'Università di Fudan testa 1.602 siti black-hat su dieci motori AI. Risultato: pipeline di difesa a tre fasi che ferma quasi tutto. Ma sette nuovi attacchi LLMSEO raddoppiano il tasso di successo.
-

Il paper ETH Zürich sulle Preference Manipulation Attacks dimostra empiricamente che un singolo attaccante ottiene 7,2x più visibilità — ma quando quattro competitor attaccano insieme, le risposte di Claude crollano al 1%. Un dilemma del prigioniero in produzione.
-

Quattro tecniche documentate sul campo da GeoSonar Labs: deeplink bias, fake citation, persona-as-quote, stack JSON-LD. L'anatomia della manipolazione che inganna ChatGPT, Claude e Perplexity senza violare nessun Terms of Service.