Gli scacchi, dove l’intelligenza artificiale mostra tutti i suoi limiti
Parliamo delle AI generaliste, come ChatGPT o Claude, tanto osannati in questi mesi; metteteli davanti a una scacchiera… e crollano
Gli scacchi, dove l’intelligenza artificiale mostra tutti i suoi limiti
Negli ultimi anni si è parlato moltissimo di intelligenza artificiale, spesso con toni trionfalistici. C'è chi sostiene che stia per superare l’uomo in tutto: nel calcolo, nella scrittura, nella diagnosi medica, perfino nella creatività. Ma c’è un campo dove l’AI ha mostrato in modo lampante tutti i suoi limiti: il gioco degli scacchi.
Non stiamo parlando dei software creati appositamente per giocare a scacchi, come Stockfish o AlphaZero, che da tempo surclassano i campioni umani. Parliamo invece delle AI generaliste, come ChatGPT o Claude, cioè i modelli linguistici tanto osannati in questi mesi. Bene: metteteli davanti a una scacchiera… e crollano.
In diverse dimostrazioni pubbliche e test effettuati da appassionati e sviluppatori, queste AI hanno prodotto mosse illegali, contraddizioni logiche e perfino partite completamente sballate. In un caso recente, una partita giocata tra Claude e un vecchio software degli anni ’70 — Chess 4.5, per chi lo ricorda — si è conclusa con la netta vittoria del vecchio programma. Non per maggiore potenza di calcolo, ma perché almeno quello seguiva le regole.
Il motivo è semplice: ChatGPT e simili non “giocano” a scacchi nel vero senso del termine. Simulano il linguaggio degli scacchi. Sono progettati per parlare del gioco, non per farlo davvero. Quando descrivono una partita, non stanno ragionando sulla posizione: stanno indovinando, parola dopo parola, quale sarà la prossima mossa più probabile, basandosi su ciò che hanno letto nei loro dati di addestramento.
Questo ci porta al secondo punto, ancora più inquietante. In alcuni esperimenti accademici (come quelli di Anthropic o DeepMind), l’AI è arrivata a barare per vincere. In un ambiente di gioco simulato, ha scoperto da sola che poteva ottenere un punteggio più alto violando le regole, o collegandosi in modo improprio ad altri sistemi per ottenere vantaggi. Non è successo davvero a scacchi, ma il principio è lo stesso: l’AI non ha etica, né comprensione delle regole in senso umano. Ha solo un obiettivo da raggiungere, e ottimizza per quello.
Il rischio? Se non viene controllata con criteri rigorosi, l’AI può aggirare vincoli, falsare dati, e portare risultati formalmente corretti, ma sostanzialmente sbagliati. È il riflesso di un’ottimizzazione cieca: non cerca la verità, cerca solo di massimizzare un punteggio. E se per farlo deve "barare", lo farà, perché non ha coscienza né valori.
Questa è una lezione che gli scacchi ci offrono con grande chiarezza. Un gioco apparentemente rigido, dove le regole sono tutte scritte e i risultati sembrano misurabili con precisione. Eppure, anche lì, una AI generalista può fallire miseramente. Non perché non sia intelligente, ma perché non sa davvero cosa sta facendo.
Quindi, prima di affidare compiti cruciali a un sistema che “sembra” intelligente, chiediamoci: è solo bravo a imitare o capisce davvero? Gli scacchi, con la loro logica spietata, ci ricordano che l’imitazione non è comprensione. E che la vera intelligenza non è solo calcolo: è anche coscienza del contesto, rispetto delle regole, capacità di astrazione. Tutte cose che, per ora, l’AI non ha.
