mercoledì 1 aprile 2026

Provare pietà quando scopri che l'Intelligenza Artificiale è meno intelligente di quello che credevi

Per motivi che nell' ora in cui mi accingo a scrivere non ho voglia di stare a spiegare ho installato sul mio computer, un modello che si avvia non troppo serenamente a compiere il decimo anno di età, Ollama: un sistema che "permetterebbe" (virgolettato e condizionale d'obbligo) di avere una sorta di chatgpt offline a cui fare domande di alto profilo filosofico (tipo confermare la ricetta della carbonara) senza che qualche server estero memorizzi la richiesta al fine di profilazione pubblicitaria.

Ho usato un modello cinese, Qwen 3.5, che recensioni online millantavano essere in grado di fare faville su hardware particolarmente datato.

Non è andata bene. 

Per non dire altro.

Giusto per rendere l'idea: è come quando vedi un articolo fighissimo  su Amazon che però ha il trascurabilissimo difetto di essere al di fuori della portata delle tue tasche e ne ordini su Wish (o temu, o qualunque altro store della terra del drago) la versione a basso costo, ti arriva si, ma nel migliore dei casi dura da Natale a Santo Stefano e funziona a membro di segugio.

Però c'è una cosa che mi ha affascinato: il Think Mode.
Praticamente il modello non si limita a risponderti, ma ti fa vedere anche il ragionamento che lo ha portato a rispondere in un determinato modo.

C' è qualcosa di perversamente soddisfacente nel vedere un LLM installato in locale che ti fa vedere quello che "pensa" prima di darti la risposta sbagliata: è un po' come se ti dicesse "si lo so, probabilmente sto dicendo una cazzata, ma almeno guarda l'impegno che ci sto mettendo".

Un po' come quando a scuola la professoressa ti vedeva arrancare mentre provavi a ricostruire per associazione logica quella lezione che ha deciso di non studiare pur sapendo che il giorno successivo avevi l'interrogazione.

Nessun commento:

Posta un commento