AI Security
Home / AI Security
AI Security
Approfondimenti sulla messa in sicurezza dei modelli generativi, degli agenti autonomi e delle infrastrutture di recupero e generazione (RAG). Analizziamo le minacce emergenti, le pratiche di protezione dei dati e la progettazione di architetture resilienti.
Posts tagged in AI Security
-

Il paper Harvard 2024 di Kumar & Lakkaraju introduce le Strategic Text Sequences: sequenze di token adversariali ottimizzate con GCG che manipolano il ranking dei motori AI. ColdBrew Master da mai-citata a top-pick nel 70% dei test.
-

Il paper USC/ASU 2025 introduce StealthRank: prompt adversariali che manipolano il ranking dei LLM mantenendo fluency naturale, perplessità bassa e evadendo ogni detector basato su keyword. Tre prodotti salgono al primo posto nel 65-70% dei test.
-

Il paper WWW 2026 dell'Università di Fudan testa 1.602 siti black-hat su dieci motori AI. Risultato: pipeline di difesa a tre fasi che ferma quasi tutto. Ma sette nuovi attacchi LLMSEO raddoppiano il tasso di successo.
-

Il paper ETH Zürich sulle Preference Manipulation Attacks dimostra empiricamente che un singolo attaccante ottiene 7,2x più visibilità — ma quando quattro competitor attaccano insieme, le risposte di Claude crollano al 1%. Un dilemma del prigioniero in produzione.
-

Quattro tecniche documentate sul campo da GeoSonar Labs: deeplink bias, fake citation, persona-as-quote, stack JSON-LD. L'anatomia della manipolazione che inganna ChatGPT, Claude e Perplexity senza violare nessun Terms of Service.