APAndrea Pellizzari
Andrea Pellizzari — Diario — markdown editor
← diario/
2026-04-29-chatbot-feedback-loop-autofix.md
content//diario//2026-04-29-chatbot-feedback-loop-autofix.md
1
2
3
4
5
6
7
---
title: "Il giorno in cui il chatbot ha imparato a correggersi"
date: 2026-04-29
tags: ["ai", "claude", "agente", "knowledge-base", "feedback-loop"]
excerpt: "Un chatbot tecnico interno è un asset statico finché non costruisci il loop che lo fa evolvere. In una sessione ho aggiunto il sistema feedback con AI auto-fix: l'utente segnala un errore, l'editor scrive la correzione, l'AI applica il diff sul file MD del wiki."
slug: 2026-04-29-chatbot-feedback-loop-autofix
---

Il giorno in cui il chatbot ha imparato a correggersi

Un chatbot tecnico interno è un asset statico finché non costruisci il loop che lo fa evolvere. In una sessione ho aggiunto il sistema feedback con AI auto-fix: l'utente segnala un errore, l'editor scrive la correzione, l'AI applica il diff sul file MD del wiki.

Sto sviluppando un chatbot tecnico interno per la PMI dove lavoro: 758 pagine di catalogo prodotti di un fornitore, 1900 codici articolo, 14 regole di calcolo, distinte e guide decisionali. La parte difficile non è far rispondere il bot — quella la fa Claude. La parte difficile è che il bot a volte sbaglia in modo plausibile: inventa un codice colore che non esiste, tratta un componente "singolo pezzo" come "set", cita una sigla interna nella risposta all'utente.

Oggi il primo utente reale ha trovato due bug in cinque conversazioni. Errori onesti, dati sottili: SW-N invece di CS-M per il nero, quantità raddoppiate per un codice che il bot pensava fosse una coppia. Si correggono in trenta secondi a mano nel wiki. Ma chi li corregge davvero, e quante volte tocca farlo prima che diventi un peso?

La risposta che ho costruito oggi è un loop semi-automatico: l'utente clicca "segnala errore", scrive cosa è andato storto, e parte una pipeline:

rendering diagram…

L'editor non apre più il file a mano. Scrive in italiano semplice cosa va corretto ("il codice X è singolo pezzo, non set; per N elementi servono 2N pezzi"), e Claude Sonnet legge la nota più il file MD attuale e produce il diff minimale che applica la correzione preservando struttura e tono. Un altro modello (Haiku, più economico) valida l'output cercando codici inventati, sintassi rotta, contraddizioni interne. L'editor vede side-by-side il "prima" e il "dopo" e conferma.

Per testare end-to-end ho creato un feedback dummy con un codice attacco frontale inesistente. L'AI ha generato un diff impeccabile: tre righe in più nel file MD, una nota di avvertimento esplicita ("non esistono altri suffissi oltre a questi tre"). Ho confermato. File salvato, backup creato, feedback marcato fixed. Trenta secondi.

Il salto qualitativo non è il singolo bottone "segnala". È che il sistema ha cambiato natura: da asset statico (wiki che qualcuno ogni tanto manutiene) a organismo che evolve (ogni interazione difettosa è una potenziale lezione). I 14 errori che troverò nei prossimi mesi non saranno più 14 task di manutenzione miei — saranno 14 segnalazioni che l'editor di dominio gestisce in pochi minuti, con l'AI che fa il lavoro pesante di trovare il punto giusto del file e formulare la modifica nel formato corretto.

Il pattern è generale: ogni knowledge base AI-assisted dovrebbe avere un loop di feedback che converte "il modello ha sbagliato qui" in una modifica permanente del corpus, con il minimo attrito possibile.

● Markdown25 lines409 words2 mintags: #ai #claude #agente #knowledge-base #feedback-loop
UTF-8LF.mdx